JP2020019087A - Grinding tool abrasive plane evaluation device and learning equipment thereof, evaluation program and evaluation method - Google Patents

Grinding tool abrasive plane evaluation device and learning equipment thereof, evaluation program and evaluation method Download PDF

Info

Publication number
JP2020019087A
JP2020019087A JP2018143709A JP2018143709A JP2020019087A JP 2020019087 A JP2020019087 A JP 2020019087A JP 2018143709 A JP2018143709 A JP 2018143709A JP 2018143709 A JP2018143709 A JP 2018143709A JP 2020019087 A JP2020019087 A JP 2020019087A
Authority
JP
Japan
Prior art keywords
grinding
grinding tool
image
evaluation
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018143709A
Other languages
Japanese (ja)
Other versions
JP6660636B2 (en
Inventor
彰浩 坂口
Akihiro Sakaguchi
彰浩 坂口
川下 智幸
Tomoyuki Kawashita
智幸 川下
修二 松尾
Shuji Matsuo
修二 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of National Colleges of Technologies Japan
Original Assignee
Institute of National Colleges of Technologies Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of National Colleges of Technologies Japan filed Critical Institute of National Colleges of Technologies Japan
Priority to JP2018143709A priority Critical patent/JP6660636B2/en
Publication of JP2020019087A publication Critical patent/JP2020019087A/en
Application granted granted Critical
Publication of JP6660636B2 publication Critical patent/JP6660636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Tool Sensing Apparatuses (AREA)
  • Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)
  • Grinding-Machine Dressing And Accessory Apparatuses (AREA)
  • Polishing Bodies And Polishing Tools (AREA)
  • Image Analysis (AREA)

Abstract

To make it possible to evaluate surface quality of a grinding tool work plane with good efficiency and high accuracy.SOLUTION: In a learning phase, abrasive plane image data before processing of a grinding tool is acquired and stored, abrasive plane image data after use for processing of the grinding tool is acquired, a deterioration part such as clogging, damage and so on is detected from the image data, and an image before processing, of which a position corresponds to the deterioration part, is extracted from stored image data before processing. The extracted image before processing, a feature amount of individual abrasive grains and a feature amount which indicates a distribution state thereof are inputted to CNN as information which represents grinding performance reduction factor, and information, which represents an evaluation result for information which represents the grinding performance reduction factor, is given to the CNN as teacher data, thereby causing the CNN to learn and generating CNN for abrasive plane evaluation.SELECTED DRAWING: Figure 3

Description

この発明の一態様は、研削工具の砥面を評価する装置と、この装置で使用される学習器、評価プログラムおよび評価方法に関する。   One embodiment of the present invention relates to an apparatus for evaluating a grinding surface of a grinding tool, a learning device, an evaluation program, and an evaluation method used in the apparatus.

研削加工では、砥石の研削工具作業面(砥面とも言う)の状態によって工作物の加工面の仕上げ品質が左右される。砥面の状態は、主として切れ刃として機能する砥粒の表面部分の形状や大きさ、砥粒の突出量によって決まる。そのため、研削工具の砥面に散設された個々の砥粒の固着座標や面積、形状等を計測し評価する技術が種々研究されている。   In the grinding process, the finish quality of the machined surface of the workpiece depends on the state of the grinding tool working surface (also referred to as a grinding surface) of the grindstone. The state of the abrasive surface is mainly determined by the shape and size of the surface portion of the abrasive grain that functions as a cutting edge, and the amount of protrusion of the abrasive grain. Therefore, various techniques for measuring and evaluating the fixed coordinates, the area, the shape, and the like of the individual abrasive grains dispersed on the abrasive surface of the grinding tool have been studied.

例えば、サーボ制御により産業用カメラの位置を管理しながら研削工具作業面の三次元画像を取得し、取得した三次元画像に対して画像処理を施すことで、研削に関与する砥粒の個数や形状などを数値的に計測する技術が提案されている。   For example, by acquiring the three-dimensional image of the working surface of the grinding tool while managing the position of the industrial camera by servo control and performing image processing on the acquired three-dimensional image, the number of abrasive grains involved in grinding and the like Techniques for numerically measuring shapes and the like have been proposed.

この技術を用いると、例えば、平均粒径が100μmのダイヤモンド砥粒が固着された幅10mm、直径250mmの研削工具表面を計測した場合、工具作業面の全領域に約7万個の砥粒が固着され、またその個々の砥粒の形状等の解析結果をCSVデータとして出力することができる。また、研削工具を計測装置にセットしてから計測処理が終了するまでに要する時間は、5分程度である。   Using this technique, for example, when measuring the surface of a grinding tool 10 mm in width and 250 mm in diameter to which diamond abrasive grains having an average particle diameter of 100 μm are fixed, about 70,000 abrasive grains are present in the entire area of the tool working surface. The results of analysis of the shape of the individual abrasive grains, which are fixed, can be output as CSV data. The time required from the setting of the grinding tool to the measuring device to the end of the measuring process is about 5 minutes.

しかしながら、研削工具の砥面に散設された砥粒により工作物を微少量ずつ削り取る研削加工では、砥粒の分布状態が工作物の研削面に転写されるかたちで工作物が所望の形状に仕上げられる。このため、実際の研削加工において高精度の加工を行うには、個々の砥粒の状態よりも、研削工具作業面の砥粒の分布状態(以下、表面性状と呼ぶ)を適切に管理することが重要である。   However, in the grinding process, in which the workpiece is finely and tinyly abraded by the abrasive grains scattered on the grinding surface of the grinding tool, the workpiece has a desired shape in a form in which the distribution state of the abrasive grains is transferred to the grinding surface of the workpiece. Finished. For this reason, in order to perform high-precision machining in actual grinding, it is necessary to appropriately manage the distribution of abrasive grains on the working surface of the grinding tool (hereinafter referred to as surface texture) rather than the state of individual abrasive grains. is important.

そこで、従来では例えば電子顕微鏡やレーザを用いて研削工具作業面の表面性状を評価する手法が提案されている(例えば非特許文献1、2または3を参照)。   Therefore, conventionally, a method of evaluating the surface properties of the working surface of the grinding tool using, for example, an electron microscope or a laser has been proposed (for example, see Non-Patent Documents 1, 2, or 3).

坂本、佐々木、小林、清水、「機上計測した砥石作業面プロファイルに基づく比研削抵抗の同定」、2013年度精密工学学会春季大会学術講演会講演論文集、pp. 539-540Sakamoto, Sasaki, Kobayashi, Shimizu, "Identification of Specific Grinding Force Based on On-machine Measured Wheel Work Surface Profile", Proc. Of JSAP Spring Meeting 2013, pp. 539-540 垣野、松原、山路、松田、中川、廣垣、喜田、「砥石作業面トポグラフィのオン・ザ・マシン計測に関する研究(第1報)」、精密工学会誌、vol.63, No.2, pp. 228-232 (1997)Kakino, Matsubara, Yamaji, Matsuda, Nakagawa, Hirogaki, Kida, "Research on On-the-Machine Measurement of Grinding Stone Work Surface Topography (1st Report)", Journal of Precision Engineering, vol.63, No.2, pp. 228-232 (1997) 庄司、周、「ダイヤモンド砥石のツルーイング及びドレッシングに関する研究(第2報)」、精密工学会誌、Vol.55, No.12, pp. 2267-2272 (1989)Shoji and Zhou, "Study on Truing and Dressing of Diamond Wheel (2nd Report)", Journal of the Japan Society of Precision Engineering, Vol.55, No.12, pp. 2267-2272 (1989)

ところが、電子顕微鏡を使用する手法では、研削工具作業面の表面性状を鮮明に観察できるが、1回の観察範囲が非常に狭いため研削工具作業面全面の表面性状を観察するには長い時間を要する。また、レーザを用いた手法は、研削工具作業面の表面性状を比較的容易かつ精度よく計測することができるが、計測により取得できる情報は研削工具作業面の凹凸プロファイルであるため、砥粒と当該砥粒が固着された基材表面との凹凸の区別が困難である。また、計測精度を高めようとするとレーザのスポット径を小さくする必要があるため一度の評価で幅1mm程度しか計測できず、評価に長い時間を要する。   However, in the method using an electron microscope, the surface properties of the grinding tool working surface can be clearly observed, but since the observation range for one time is very narrow, it takes a long time to observe the surface properties of the entire grinding tool working surface. It costs. In addition, the method using a laser can relatively easily and accurately measure the surface properties of the working surface of the grinding tool. It is difficult to distinguish irregularities from the surface of the base material to which the abrasive grains are fixed. Further, in order to increase the measurement accuracy, it is necessary to reduce the laser spot diameter, so that only one width of about 1 mm can be measured by a single evaluation, and a long time is required for the evaluation.

この発明は上記事情に着目してなされたもので、研削工具作業面の表面性状を効率良く高精度に評価することを可能にする技術を提供しようとするものである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technology that enables efficient and highly accurate evaluation of a surface property of a working surface of a grinding tool.

上記課題を解決するためにこの発明に係る研削工具砥面評価装置の第1の態様は、研削工具を予め定められた方向へ移動させながら、前記研削工具の複数の砥粒が分散された状態で結合剤により固着された砥面を撮像して得られる画像データを取得する画像取得部と、前記画像取得部により、前記研削工具の加工開始前に取得された画像データを記憶媒体に記憶させる記憶制御部と、前記画像取得部により前記研削工具の加工開始後に取得された画像データから前記研削工具の前記砥面における劣化部位を表す情報を検出する検出部と、前記記憶媒体に記憶された加工開始前の画像データから前記劣化部位と位置が対応する加工前の部位の画像を研削性能低下要因を表す情報として抽出する抽出部とを備えるものである。   In order to solve the above-mentioned problems, a first aspect of a grinding tool grinding surface evaluation device according to the present invention is a state in which a plurality of abrasive grains of the grinding tool are dispersed while moving the grinding tool in a predetermined direction. And an image acquisition unit that acquires image data obtained by imaging the grinding surface fixed by the binder, and stores the image data acquired before the start of machining of the grinding tool by the image acquisition unit in a storage medium. A storage control unit, a detection unit that detects information indicating a deteriorated portion on the grinding surface of the grinding tool from image data acquired after the processing of the grinding tool by the image acquisition unit, and a storage unit that is stored in the storage medium. An extraction unit configured to extract an image of the unprocessed part corresponding to the position of the degraded part from the image data before the processing is started as information indicating a factor of deterioration in grinding performance.

この発明に係る研削工具砥面評価装置の第2の態様は、前記検出部において、前記研削工具の加工開始後に取得された画像データから、前記砥面における砥粒の目詰まり、砥粒の目毀れ、結合剤からの砥粒の突出量が閾値以下となる上滑り発生部位の少なくとも一つを表す画像を、前記劣化部位を表す情報として検出するものである。   According to a second aspect of the grinding tool grinding surface evaluation device according to the present invention, the detection unit detects clogging of the abrasive grains on the grinding surface, An image representing at least one of the sites of occurrence of upward slip where the amount of protrusion of the abrasive grains from the binder is less than or equal to a threshold value is detected as information representing the deteriorated site.

第1および第2の態様によれば、例えば、研削加工開始後に撮像された砥面の画像データから砥面における砥粒の目詰まりや砥粒の目毀れ、上滑り発生部位等の劣化部位が検出され、この劣化部位と位置が対応する加工前の画像が研削性能低下要因を表す情報として抽出される。従って、砥粒の目詰まりや目毀れ、上滑り発生部位等の研削性能の低下を引き起こす要因を、個々の砥粒の状態だけでなく、砥粒の分布状態を反映したものとして検出することが可能となる。   According to the first and second aspects, for example, a clogged abrasive grain, a damaged abrasive grain, a deteriorated portion such as a portion where an upper slip occurs on the abrasive surface are detected from the image data of the abrasive surface captured after the start of the grinding process. Then, an image before processing corresponding to the deteriorated portion and the position is extracted as information indicating a factor of reduction in grinding performance. Therefore, it is possible to detect factors that cause the deterioration of grinding performance such as clogging or damage of abrasive grains and the occurrence of upper slip, as reflecting not only the state of individual abrasive grains but also the distribution state of abrasive grains. Becomes

この発明に係る研削工具砥面評価装置の第3の態様は、前記抽出部において、前記研削性能低下要因を表す情報として抽出された、前記劣化部位と位置が対応する加工前の部位の画像から当該画像に含まれる砥粒の前記研削工具の移動方向が反映された特徴量を算出し、算出された前記特徴量を前記研削性能低下要因を表す情報に含めるようにしたものである。   In a third aspect of the grinding tool grinding surface evaluation device according to the present invention, the extracting unit extracts, from the image of the unprocessed part corresponding to the deteriorated part and the position, extracted as information indicating the grinding performance reduction factor. A feature amount reflecting the moving direction of the abrasive tool contained in the image and the grinding tool is calculated, and the calculated feature amount is included in the information representing the grinding performance reduction factor.

第3の態様によれば、研削性能低下要因となる砥粒の研削工具の移動方向が反映された特徴量が算出され、この特徴量が上記研削性能低下要因を表す情報に追加される。このため、研削性能低下要因となる砥粒の分布状態を、画像だけでなくその特徴量によっても表すことができ、これにより研削性能低下要因をさらに精度良く表すことが可能となる。   According to the third aspect, a characteristic amount reflecting the moving direction of the grinding tool of the abrasive grain, which is a factor of lowering the grinding performance, is calculated, and this characteristic amount is added to the information indicating the above-mentioned factor of lowering the grinding performance. For this reason, the distribution state of the abrasive grains, which is a cause of the decrease in the grinding performance, can be represented not only by the image but also by the feature amount thereof, whereby the cause of the decrease in the grinding performance can be represented with higher accuracy.

この発明に係る研削工具砥面評価装置の第4の態様は、学習器に、前記研削性能低下要因を表す情報を学習データとしかつ前記砥面の劣化部位を表す情報を教師データとして与えることで前記学習器を学習させる学習器生成部を、さらに具備するものである。   A fourth aspect of the grinding tool grinding surface evaluation device according to the present invention is to provide a learning device with information representing the grinding performance reduction factor as learning data and information representing a deteriorated portion of the grinding surface as teacher data. The apparatus further includes a learning device generation unit for learning the learning device.

第4の態様によれば、前記研削性能低下要因を表す情報を学習データ(説明変数)としかつ前記砥面の劣化部位の状態を表す情報を教師データ(目的変数)として学習器で学習処理が行われる。このため、研削性能低下要因を表す情報を入力すると、砥面の劣化部位の状態を表す情報を出力する学習器を生成することができる。   According to the fourth aspect, the learning process is performed by the learning device using the information representing the grinding performance reduction factor as learning data (explanatory variables) and the information representing the state of the deteriorated portion of the grinding surface as teacher data (objective variables). Done. For this reason, when the information indicating the grinding performance deterioration factor is input, a learning device that outputs information indicating the state of the deteriorated portion of the grinding surface can be generated.

上記学習器生成部として、この発明では例えば以下の第5、第6及び第7の態様が考えられる。
第5の態様は、前記学習器に、前記砥面の劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして与え、かつ前記劣化部位を表す画像を前記教師データとして与えることにより、前記学習器を学習させるものである。
In the present invention, for example, the following fifth, sixth, and seventh aspects can be considered as the learning unit generator.
In a fifth aspect, the learning device is provided with, as the learning data, an image including an unprocessed part corresponding to a deteriorated part and a position of the grinding surface, and the feature amount of abrasive grains included in the image, and The learning device is made to learn by giving an image representing the deteriorated part as the teacher data.

第5の態様によれば、砥面の劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の特徴量を入力すると、上記加工前の部位が劣化した状態を示す画像を出力する学習器を生成することができる。   According to the fifth aspect, when the image including the unprocessed portion whose position corresponds to the deteriorated portion of the grinding surface and the feature amount of the abrasive grains included in the image are input, the state in which the unprocessed portion is deteriorated is input. It is possible to generate a learning device that outputs the image shown.

第6の態様は、前記学習器に、前記劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして与え、かつ前記劣化部位と位置が対応する加工前の部位を表す画像を前記教師データとして与えることにより、前記学習器を学習させるものである。   In a sixth aspect, the learning device is configured to provide, as the learning data, an image including a part before processing whose position corresponds to the deteriorated part and the feature amount of abrasive grains included in the image, and The learning device is made to learn by giving, as the teacher data, an image representing a part before processing corresponding to a position.

第6の態様によれば、砥面の劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の特徴量を入力すると、上記劣化部位と位置が対応する加工前の部位を表す画像を出力する学習器を生成することができる。   According to the sixth aspect, when the image including the unprocessed portion corresponding to the deteriorated portion and the position of the abrasive surface and the feature amount of the abrasive grains included in the image are input, the unprocessed portion corresponds to the deteriorated portion and the position. Can be generated.

第7の態様は、前記学習器に、前記劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして与え、かつ前記劣化部位と位置が対応する加工前の部位が研削性能低下要因となる度合いを示す数値データを前記教師データとして与えることにより、前記学習器を学習させるものである。   In a seventh aspect, the learning device is provided with, as the learning data, an image including a part before processing whose position corresponds to the deteriorated part and the feature amount of abrasive grains included in the image, and The learning device is made to learn by giving, as the teacher data, numerical data indicating the degree to which the portion before processing corresponding to the position causes the grinding performance to be reduced.

第7の態様によれば、劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして入力すると、前記加工前の部位が研削性能低下要因となる度合いを示す数値データを出力する学習器を生成することができる。   According to the seventh aspect, when the image including the unprocessed part corresponding to the deteriorated part and the position and the feature amount of the abrasive grains included in the image are input as the learning data, the part before the processing becomes the grinding performance. It is possible to generate a learning device that outputs numerical data indicating the degree of reduction.

この発明に係る研削工具砥面評価装置の第8の態様は、前記研削工具の加工開始前または加工開始後において前記画像取得部により取得された画像データを前記学習器に入力し、このとき当該学習器から出力される前記砥面の劣化部位を表す情報を、前記研削工具の砥面の評価結果を表す情報として出力する評価部を、さらに具備するものである。   An eighth aspect of the grinding tool grinding surface evaluation device according to the present invention is configured to input image data acquired by the image acquisition unit to the learning device before or after machining of the grinding tool, and The information processing apparatus further includes an evaluation unit that outputs information representing a deteriorated portion of the grinding surface output from the learning device as information representing an evaluation result of the grinding surface of the grinding tool.

第8の態様によれば、研削工具の加工開始前または加工開始後において取得された画像データを前記学習器に入力するだけで、当該学習器から前記砥面の劣化部位を表す情報が前記研削工具の砥面の評価結果を表す情報として出力される。すなわち、学習器を使用することで、加工開始前または加工開始後において砥面の研削性能低下要因となる表面性状を、短時間にかつ精度良く事前に評価することが可能となる。このため、評価担当者は、上記出力された評価結果をもとに上記研削工具の出荷前又は使用開始後の品質管理を行うことが可能となる。   According to the eighth aspect, just by inputting image data obtained before or after the processing of the grinding tool to the learning device, the information indicating the deteriorated portion of the grinding surface is obtained from the learning device by the grinding device. The information is output as information indicating the evaluation result of the grinding surface of the tool. In other words, by using the learning device, it is possible to evaluate the surface texture that is a cause of a decrease in the grinding performance of the grinding surface before and after the processing is started in a short time and with high accuracy. For this reason, the person in charge of evaluation can perform quality control before shipping or after starting use of the grinding tool based on the output evaluation result.

この発明に係る研削工具砥面評価装置の第9の態様は、前記評価部において、前記学習器から出力される前記砥面の劣化部位を表す情報をもとに、当該劣化部位の、前記研削工具の砥面の全領域における前記研削工具の移動方向の分布状態を表す可視化画像を生成して出力するようにしたものである。   A ninth aspect of the grinding tool grinding surface evaluation device according to the present invention is the evaluation unit, wherein, based on the information output from the learning unit and indicating the deteriorated surface of the grinding surface, the grinding unit A visualized image representing the distribution of the moving direction of the grinding tool in the entire area of the grinding surface of the tool is generated and output.

第9の態様によれば、研削性能の低下要因となることが予想される部位の砥面全領域における移動方向の分布状態を表す可視化画像が生成され出力される。このため、研削工具の製造管理者又は研削工具の使用管理者は、研削工具ごとにその砥面の研削性能低下要因となる部位の分布状態を、砥面の全領域に渡りかつ研削工具の移動方向に沿って容易にかつ短時間に把握することが可能となる。   According to the ninth aspect, a visualized image representing the distribution state of the movement direction in the entire area of the grinding surface of the portion expected to be a cause of deterioration in grinding performance is generated and output. For this reason, the production manager of the grinding tool or the use manager of the grinding tool, for each grinding tool, the distribution state of the portion that causes a reduction in the grinding performance of the grinding surface over the entire area of the grinding surface and movement of the grinding tool It is possible to easily and quickly grasp along the direction.

この発明に係る研削工具砥面評価装置の第10の態様は、前記評価部において、前記学習器から出力される前記砥面の劣化部位を表す情報をもとに、前記研削工具のドレッシングの時期を推定し、その推定結果を表す情報を出力するようにしたものである。   In a tenth aspect of the grinding tool grinding surface evaluation device according to the present invention, the dressing time of the grinding tool is determined by the evaluation unit based on information indicating a deteriorated portion of the grinding surface output from the learning device. Is estimated, and information representing the estimation result is output.

第10の態様によれば、評価部から研削工具のドレッシングの時期の推定情報が出力される。このため、例えば、研削工具の製造管理者又は研削工具の使用管理者は、上記推定情報をもとに研削工具の出荷検定を行ったり、研削工具のドレッシング時期を管理することが可能となる。   According to the tenth aspect, the estimation unit outputs the estimation information of the dressing time of the grinding tool. For this reason, for example, the manufacturing manager of the grinding tool or the manager of the use of the grinding tool can perform the shipping verification of the grinding tool and manage the dressing time of the grinding tool based on the estimated information.

すなわちこの発明の各態様によれば、研削工具作業面の表面性状を効率良く高精度に評価することを可能にする技術を提供することができる。   That is, according to each aspect of the present invention, it is possible to provide a technology that enables efficient and highly accurate evaluation of the surface property of the working surface of the grinding tool.

図1は、この発明の一実施形態に係る研削工具砥面評価装置を使用した検査システムの全体構成を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration of an inspection system using a grinding tool abrasive surface evaluation device according to an embodiment of the present invention. 図2は、この発明を適用可能な研削工具の一例であるリング型砥石とカメラとの関係の一例を示す図である。FIG. 2 is a diagram showing an example of a relationship between a ring-type grindstone, which is an example of a grinding tool to which the present invention can be applied, and a camera. 図3は、この発明の一実施形態に係る研削工具砥面評価装置の機能構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of the grinding tool grinding surface evaluation device according to one embodiment of the present invention. 図4は、図3に示した研削工具砥面評価装置において学習器を学習させるために実行される学習フェーズの手順と内容を示すフローチャートである。FIG. 4 is a flowchart showing a procedure and contents of a learning phase executed for learning the learning device in the grinding tool grinding surface evaluation device shown in FIG. 図5は、図4に示した学習フェーズのうち画像データ取得ルーチンの手順と内容を示すフローチャートである。FIG. 5 is a flowchart showing the procedure and contents of an image data acquisition routine in the learning phase shown in FIG. 図6は、図4に示した学習フェーズのうち学習器生成ルーチンの手順と内容を示すフローチャートである。FIG. 6 is a flowchart showing the procedure and contents of a learning device generation routine in the learning phase shown in FIG. 図7は、図3に示した研削工具砥面評価装置において学習器を用いて研削工具を評価する評価フェーズの手順と内容を示すフローチャートである。FIG. 7 is a flowchart illustrating a procedure and contents of an evaluation phase of evaluating a grinding tool using a learning device in the grinding tool grinding surface evaluation device illustrated in FIG. 3. 図8は、図7に示した評価フェーズのうち評価ルーチンの手順と内容を示すフローチャートである。FIG. 8 is a flowchart showing the procedure and contents of the evaluation routine in the evaluation phase shown in FIG. 図9は、図4に示した学習フェーズにおける劣化部位検出処理を説明するための画像データ例を示す図である。FIG. 9 is a diagram showing an example of image data for explaining the deteriorated portion detection processing in the learning phase shown in FIG. 図10は、学習器の構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a configuration of the learning device. 図11は、図3に示した特徴量算出部により行われる画像処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of image processing performed by the feature amount calculation unit illustrated in FIG. 図12は、図3に示した特徴量算出部により得られる特徴量算出データの一例を示す図である。FIG. 12 is a diagram illustrating an example of feature amount calculation data obtained by the feature amount calculation unit illustrated in FIG. 図13は、図3に示した学習器生成部による学習器生成処理の一例を示す図である。FIG. 13 is a diagram illustrating an example of a learning device generation process performed by the learning device generation unit illustrated in FIG. 図14は、図3に示した研削性能低下要因評価部による、学習済の学習器を用いた評価処理の一例を示す図である。FIG. 14 is a diagram illustrating an example of an evaluation process using a learned learning device by the grinding performance reduction factor evaluation unit illustrated in FIG. 3. 図15は、図3に示した研削性能低下要因評価部により生成される、砥面全周における研削性能低下要因の可視化画像の一例を示す図である。FIG. 15 is a diagram illustrating an example of a visualized image of the grinding performance reduction factor over the entire circumference of the grinding surface, generated by the grinding performance reduction factor evaluation unit illustrated in FIG. 3. 図16は、この発明を適用可能な研削工具の他の例であるダイヤモンドワイヤの砥面画像の一例を示す図である。FIG. 16 is a diagram showing an example of a grinding surface image of a diamond wire which is another example of a grinding tool to which the present invention can be applied. 図17は、この発明を適用可能な研削工具の別の例であるカップ型砥石とカメラとの関係の一例を示す図である。FIG. 17 is a diagram showing an example of a relationship between a cup-type grindstone, which is another example of a grinding tool to which the present invention can be applied, and a camera. 図18は、この発明の一実施形態による一効果を具体的に説明するための図である。FIG. 18 is a diagram for specifically explaining one effect according to one embodiment of the present invention. 図19は、この発明の一実施形態によるその他の効果を具体的に説明するための図である。FIG. 19 is a diagram for specifically explaining another effect according to the embodiment of the present invention. 図20は、この発明の一実施形態によるその他の効果を具体的に説明するための図である。FIG. 20 is a diagram for specifically explaining another effect according to the embodiment of the present invention.

以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成例)
(1)システム
図1は、この発明の一実施形態に係る研削工具砥面評価装置を備えた検査システムの全体構成を示す図である。
図1において1Aは研削工具を示す。研削工具1Aは、例えば図2に示すようにリング状をなす円盤型砥石からなり、基材の面上に例えばダイヤモンドからなる多数の砥粒12,12,…を結合剤11により固着させてこれを砥面としたものである。各砥粒12,12,…の頂部は平坦面を形成するように加工されている。
An embodiment according to the present invention will be described below with reference to the drawings.
[One embodiment]
(Configuration example)
(1) System FIG. 1 is a diagram showing an overall configuration of an inspection system including a grinding tool grinding surface evaluation device according to an embodiment of the present invention.
In FIG. 1, 1A indicates a grinding tool. The grinding tool 1A is made of, for example, a disk-shaped grindstone having a ring shape as shown in FIG. 2, and a number of abrasive grains 12, 12,. Is a polished surface. The tops of the abrasive grains 12, 12, ... are processed so as to form a flat surface.

研削工具1Aは、回転機構2の回転軸に装着される。回転機構2には、例えばサーボモータを使用したθ軸駆動部21が接続されている。θ軸駆動部21は、後述する研削工具砥面評価装置8の制御の下で、上記研削工具1Aを回転機構2を介して所定の角度間隔でステップ的に回転させる。その回転方向は、実際に加工を行うときの研削工具1Aの回転方向と同一方向に設定される。   The grinding tool 1A is mounted on a rotating shaft of the rotating mechanism 2. The rotation mechanism 2 is connected to, for example, a θ-axis drive unit 21 using a servomotor. The θ-axis drive unit 21 rotates the grinding tool 1A in a stepwise manner at a predetermined angle interval via the rotation mechanism 2 under the control of a grinding tool grinding surface evaluation device 8 described later. The rotation direction is set to the same direction as the rotation direction of the grinding tool 1A when actually performing machining.

上記回転機構2の側部にはXYテーブル3,4が設置されている。XYテーブル3,4上には支柱5が立設されており、この支柱5にはアーム6を介してカメラ7が下向きに取付けられている。XYテーブル3,4はX軸駆動部22及びY軸駆動部23を有している。これらのX軸駆動部22及びY軸駆動部23は研削工具砥面評価装置8の制御の下で駆動され、上記カメラ7を図2に示すXY方向、つまり水平方向にステップ的に移動させる。   XY tables 3 and 4 are provided on the side of the rotation mechanism 2. A column 5 is erected on the XY tables 3 and 4, and a camera 7 is attached to the column 5 via an arm 6 in a downward direction. The XY tables 3 and 4 have an X-axis drive unit 22 and a Y-axis drive unit 23. The X-axis drive unit 22 and the Y-axis drive unit 23 are driven under the control of the grinding tool grinding surface evaluation device 8, and move the camera 7 stepwise in the XY directions shown in FIG. 2, that is, in the horizontal direction.

また、上記アーム6は、Z軸駆動部24により支柱5に対し図2に示すZ方向、つまり垂直方向にステップ的に移動可能に構成されており、これにより研削工具1Aの砥面に対するカメラ7の焦点位置を可変できるようになっている。上記Z軸駆動部24も先に述べたX軸駆動部22及びY軸駆動部23と同様に研削工具砥面評価装置8の制御の下で駆動制御される。   The arm 6 is configured to be movable in a stepwise manner in the Z direction shown in FIG. 2, that is, in the vertical direction with respect to the column 5 by the Z-axis driving unit 24. Can be changed. The drive of the Z-axis drive unit 24 is also controlled under the control of the grinding tool grinding surface evaluation device 8, similarly to the X-axis drive unit 22 and the Y-axis drive unit 23 described above.

カメラ7は、例えば高倍率の金属顕微鏡にディジタルラインカメラを装着したもので、研削工具砥面評価装置8からの駆動指示に従い研削工具1Aの砥面を所定の倍率で撮像し、その撮像画像データを研削工具砥面評価装置8へ出力する。なお、上記撮像のために研削工具1Aの上方位置には照明器(図示省略)が配置され、研削工具1Aの砥面を照明する。   The camera 7 is, for example, a digital microscope mounted on a high-magnification metallographic microscope. The camera 7 captures an image of the grinding surface of the grinding tool 1A at a predetermined magnification in accordance with a driving instruction from the grinding tool grinding surface evaluation device 8, and the captured image data Is output to the grinding tool grinding surface evaluation device 8. An illuminator (not shown) is arranged above the grinding tool 1A for the above-mentioned imaging, and illuminates the grinding surface of the grinding tool 1A.

(2)装置
ところで、研削工具砥面評価装置8は例えばパーソナル・コンピュータからなり、以下のように構成される。図3はその機能構成を示すブロック図である。
すなわち、研削工具砥面評価装置8は、制御ユニット81と、記憶ユニット82と、入出力インタフェースユニット83とを備えている。入出力インタフェースユニット83は、先に述べたXYZθ各軸の駆動部21〜24及びカメラ7との間で制御信号や画像データの入出力処理を行うと共に、入力デバイス25及び表示デバイス26との間で入力データ及び表示データの入出力処理を行う。
(2) Apparatus By the way, the grinding tool grinding surface evaluation apparatus 8 is composed of, for example, a personal computer and is configured as follows. FIG. 3 is a block diagram showing the functional configuration.
That is, the grinding tool grinding surface evaluation device 8 includes a control unit 81, a storage unit 82, and an input / output interface unit 83. The input / output interface unit 83 performs input / output processing of control signals and image data between the drive units 21 to 24 of the XYZ θ axes and the camera 7 described above, and performs input / output processing between the input device 25 and the display device 26. Performs input / output processing of input data and display data.

記憶ユニット82は、記憶媒体として例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の随時書込み読出しが可能な不揮発性メモリを用いたものである。記憶ユニット82には、プログラム記憶領域と、一実施形態を実施するために必要な記憶領域として、画像データ記憶部821と、劣化情報記憶部822と、低下要因情報記憶部823と、教師データ記憶部824と、学習済データ記憶部825と、評価データ記憶部826が設けられている。   The storage unit 82 uses a non-volatile memory that can be written and read at any time, such as a hard disk drive (HDD) or a solid state drive (SSD), as a storage medium. The storage unit 82 includes a program storage area, and image data storage section 821, deterioration information storage section 822, reduction factor information storage section 823, teacher data storage as storage areas necessary for implementing one embodiment. A section 824, a learned data storage section 825, and an evaluation data storage section 826 are provided.

制御ユニット81は中央処理ユニット(Central Processing Unit;CPU)を有し、一実施形態を実施する上で必要な制御機能として、位置座標制御部811と、画像データ取得部812と、劣化部位検出部813と、研削性能低下要因抽出部814と、特徴量算出部815と、教師データ生成部816と、学習器生成部817と、研削性能低下要因評価部818と、評価データ出力部819とを備えている。これらの機能部811〜819は、いずれも記憶ユニット82内のプログラム記憶領域に格納されたプログラムを上記CPUに実行させることにより実現される。   The control unit 81 has a central processing unit (CPU), and includes a position coordinate control unit 811, an image data acquisition unit 812, and a deteriorated portion detection unit as control functions necessary for implementing one embodiment. 813, a grinding performance reduction factor extraction unit 814, a feature value calculation unit 815, a teacher data generation unit 816, a learning device generation unit 817, a grinding performance reduction factor evaluation unit 818, and an evaluation data output unit 819. ing. Each of these functional units 811 to 819 is realized by causing the CPU to execute a program stored in a program storage area in the storage unit 82.

位置座標制御部811は、研削工具1の砥面をカメラ7で撮像する際に、研削工具1Aの砥面の撮像対象領域を所定の画素数単位でステップ的に移動設定するためのXYθ座標を生成してXYθ駆動部21,22,23へ出力する。またそれと共に位置座標制御部811は、砥面に対するカメラ7のZ方向における焦点距離をステップ的に可変設定するためのZ座標を生成して駆動部24へ出力する。   When the camera 7 captures an image of the grinding surface of the grinding tool 1A, the position coordinate control unit 811 sets the XYθ coordinates for stepwise moving and setting the imaging target area of the grinding surface of the grinding tool 1A in units of a predetermined number of pixels. It is generated and output to the XYθ driving units 21, 22, 23. At the same time, the position coordinate control unit 811 generates Z coordinates for variably setting the focal length of the camera 7 in the Z direction with respect to the grinding surface in a stepwise manner, and outputs the generated Z coordinates to the drive unit 24.

画像データ取得部812は、上記位置座標制御部811と同期して、撮像対象領域がステップ的に移動設定されるごとにカメラ7に対し撮像制御信号を出力し、カメラ7により撮像された砥面の画像データを取り込んで上記画像データ記憶部821に記憶させる処理を行う。また画像データ取得部812は、上記位置座標制御部811により生成されたXYZθ座標を、上記画像データと関連付けて画像データ記憶部821に記憶させる。画像データ取得部812は、上記画像データの取得及び記憶処理を、加工に使用する前の研削工具1Aおよび当該研削工具1Aを加工に使用した後の研削工具1Aに対しそれぞれ行う。   The image data acquisition unit 812 outputs an imaging control signal to the camera 7 every time the imaging target area is set to move stepwise in synchronization with the position coordinate control unit 811, and the grinding surface captured by the camera 7 Then, a process of taking in the image data and storing the image data in the image data storage unit 821 is performed. The image data acquisition unit 812 stores the XYZθ coordinates generated by the position coordinate control unit 811 in the image data storage unit 821 in association with the image data. The image data acquisition unit 812 performs the acquisition and storage processing of the image data on the grinding tool 1A before being used for machining and the grinding tool 1A after using the grinding tool 1A for machining.

劣化部位検出部813は、加工に使用した後の研削工具1Aの画像データ(加工後の画像データ)を上記画像データ記憶部821から読み出し、当該加工後の画像データに対し画像処理を行って、砥面の劣化部位を検出する。劣化部位には、例えば、砥粒間に切り屑が詰まる目詰まりと、砥粒12が基材の結合剤11から剥がれ落ちる目毀れが含まれるが、これに限定されるものではない。例えば、砥粒12の突出高さが結合剤11の表面とほぼ同じ高さになって加工時に加工物表面が結合剤11上を滑る、いわゆる上滑り現象を起こす部位を、劣化部位として検出するようにしてもよい。   The deteriorated portion detection unit 813 reads out image data (image data after processing) of the grinding tool 1A after use for processing from the image data storage unit 821 and performs image processing on the image data after processing. Detects the deteriorated part of the grinding surface. The deteriorated portions include, for example, clogging in which chips are clogged between the abrasive grains, and flaws in which the abrasive grains 12 peel off from the binder 11 of the base material, but are not limited thereto. For example, a portion where the protrusion height of the abrasive grains 12 is substantially the same as the surface of the binder 11 and the workpiece surface slides on the binder 11 during processing, which causes a so-called upward slip phenomenon, is detected as a deteriorated portion. It may be.

特徴量算出部815は、上記画像データ記憶部821に記憶された加工前及び加工後の各画像データに対しそれぞれ所定の画像処理を行うことで、各砥粒とその分布状態を表す特徴量を算出する。   The feature amount calculation unit 815 performs a predetermined image process on each of the image data before and after processing stored in the image data storage unit 821, and calculates a feature amount representing each abrasive grain and its distribution state. calculate.

研削性能低下要因抽出部814は、上記検出された砥面の劣化部位と位置座標が同一の加工前の画像を画像データ記憶部821から読み出す。そして、この加工前の画像データとその位置座標を研削性能低下要因を表す情報として、低下要因情報記憶部823に記憶させる。また研削性能低下要因抽出部814は、上記特徴量算出部815により算出された研削工具1Aの砥面全領域における砥粒および砥粒間の特徴量から、上記研削性能低下要因として抽出された加工前の画像と対応する特徴量を選択し、選択された上記特徴量を研削性能低下要因を表す情報に含める。   The grinding performance reduction factor extraction unit 814 reads from the image data storage unit 821 an image before processing having the same position coordinates as the detected deteriorated portion of the grinding surface. Then, the unprocessed image data and its position coordinates are stored in the deterioration factor information storage unit 823 as information indicating the grinding performance reduction factor. The grinding performance reduction factor extraction unit 814 performs the processing extracted as the grinding performance reduction factor from the abrasive grain and the feature quantity between the abrasive grains in the entire area of the grinding surface of the grinding tool 1A calculated by the feature quantity calculation unit 815. The feature amount corresponding to the previous image is selected, and the selected feature amount is included in the information indicating the factor of reduction in grinding performance.

教師データ生成部816は、上記研削性能低下要因を表す情報を学習データとするとき、この研削性能低下要因を表す情報と対をなす砥面の劣化部位の状態を表す情報を生成し、当該砥面の劣化部位の状態を表す情報を教師データとして教師データ記憶部824に記憶させる。砥面の劣化部位の状態を表す情報としては、例えば、目詰まり、目毀れ或いは上滑り現象が発生した状態を表す画像、目詰まり、目毀れ或いは上滑り現象が発生する部位を表す画像、または目詰まり、目毀れ或いは上滑り現象が発生する度合い(例えば発生の有無や確率)を表す情報が考えられる。   When using the information indicating the above-described factor of lowering the grinding performance as the learning data, the teacher data generator 816 generates information indicating the state of the deteriorated portion of the grinding surface that is paired with the information indicating the lowering factor of the grinding performance, and Information indicating the state of the deteriorated portion of the surface is stored in the teacher data storage unit 824 as teacher data. Examples of the information indicating the state of the deteriorated portion of the grinding surface include, for example, an image indicating a state in which clogging, clogging or slippage occurs, an image indicating a portion in which clogging, clogging or slippage occurs, or clogging. In addition, information indicating the degree of occurrence of the eye-catching or sliding-up phenomenon (for example, the presence or absence and probability of occurrence) can be considered.

学習器生成部817は、学習器として畳込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いる。CNNは、例えば図10に示すように、中間層に複数の畳込み層C1,C2とプーリング層P1,P2とを交互に配置し、その後段に全結合層Kおよび出力層Oを配置したものである。そして学習器生成部817は、学習フェーズにおいて、上記CNNに、上記低下要因情報記憶部823に記憶された各研削性能低下要因を表す情報を学習データ(説明変数)として与え、かつ上記教師データ記憶部824に記憶された、上記各研削性能低下要因を表す情報と対をなす砥面の劣化部位の状態を表す情報を教師データ(目的変数)として与えることで、CNNを学習させる。そして、学習が終了したCNNを学習済の学習器または学習済モデルとして学習済データ記憶部825に記憶させる。   The learning device generation unit 817 uses a convolutional neural network (CNN) as a learning device. For example, as shown in FIG. 10, the CNN has a plurality of convolutional layers C1, C2 and pooling layers P1, P2 alternately arranged in an intermediate layer, and a fully connected layer K and an output layer O arranged in a subsequent stage. It is. Then, in the learning phase, the learning device generation unit 817 gives the CNN the information representing each grinding performance reduction factor stored in the reduction factor information storage unit 823 as learning data (explanatory variables) and stores the teacher data. The CNN is learned by giving, as teacher data (objective variable), information indicating the state of the deteriorated portion of the grinding surface, which is paired with the information indicating the above-mentioned respective factors for reducing the grinding performance, stored in the section 824. Then, the learned CNN is stored in the learned data storage unit 825 as a learned learning device or a learned model.

研削性能低下要因評価部818は、評価フェーズにおいて、出荷前の研削工具、或いは加工に使用中または使用後の研削工具1Aの砥面の画像データと、当該画像データに含まれる砥粒またはその分布状態を示す特徴量を、上記学習済学習器(学習済CNN)に入力する。研削性能低下要因評価部818は、上記入力に対し学習済CNNから出力される砥面の劣化部位の状態を表す情報を、その位置座標と共に、研削性能低下要因の評価データとして評価データ記憶部826に記憶させる。   In the evaluation phase, the grinding performance reduction factor evaluating unit 818 determines the image data of the grinding surface of the grinding tool before shipping or the grinding tool 1A used or used for machining, and the abrasive grains included in the image data or the distribution thereof. The feature quantity indicating the state is input to the learned learning device (learned CNN). The grinding performance deterioration factor evaluation unit 818 outputs the information indicating the state of the deteriorated portion of the grinding surface output from the learned CNN in response to the input, together with the position coordinates, as evaluation data of the grinding performance reduction factor as the evaluation data storage unit 826. To memorize.

評価データ出力部819は、上記評価データ記憶部826から研削性能低下要因の評価データを読み出す。そして、研削性能低下要因の評価データを可視化するための表示データを生成し、表示デバイス26へ出力し表示させる。   The evaluation data output unit 819 reads out the evaluation data of the grinding performance reduction factor from the evaluation data storage unit 826. Then, display data for visualizing the evaluation data of the cause of the reduction in grinding performance is generated, output to the display device 26, and displayed.

(動作例)
次に、以上のように構成された研削工具砥面評価装置8の動作を、図4乃至図8に示すフローチャートに従って説明する。
(Operation example)
Next, the operation of the grinding tool grinding surface evaluation device 8 configured as described above will be described with reference to the flowcharts shown in FIGS.

(1)学習フェーズ
先ず図4を用いて学習フェーズの処理手順と処理内容について説明する。
(1−1)学習用パラメータの初期設定
研削工具砥面評価装置8において、制御ユニット81は先ず管理者が入力デバイス25を操作して入力した学習用パラメータを入出力インタフェースユニット83を介して取り込み、この学習用パラメータを例えば学習済データ記憶部825に格納する。学習用パラメータには、学習器の構成、学習器の各層を構成する複数のニューロン間の結合重みの初期値、および各ニューロンの閾値の初期値が含まれる。上記学習パラメータはテンプレートデータにより与えることもできる。
(1) Learning Phase First, the processing procedure and processing contents of the learning phase will be described with reference to FIG.
(1-1) Initial setting of learning parameters In the grinding tool grinding surface evaluation device 8, the control unit 81 first takes in the learning parameters input by the administrator operating the input device 25 via the input / output interface unit 83. The learning parameters are stored in the learned data storage unit 825, for example. The learning parameters include a configuration of the learning device, an initial value of a connection weight between a plurality of neurons constituting each layer of the learning device, and an initial value of a threshold value of each neuron. The learning parameters can be given by template data.

また制御ユニット81は、管理者が入力デバイス25により入力した、研削工具1の砥面をカメラ7により撮像する際の1回の撮像領域のサイズと、撮像領域を移動させるときのステップ幅を指定するデータを入出力インタフェースユニット83を介して受け取り、制御ユニット81内の制御メモリ(図示省略)に格納する。   In addition, the control unit 81 specifies the size of one imaging region when the imaging surface of the grinding tool 1 is imaged by the camera 7 and the step width when the imaging region is moved, which are input by the input device 25 by the administrator. The received data is received via the input / output interface unit 83 and stored in a control memory (not shown) in the control unit 81.

(1−2)研削工具1Aの加工前における砥面の画像データの取得
先ず管理者は、加工に使用する前の研削工具1Aを回転機構2に装着する。そして、入力デバイス25により画像取得開始指示を入力する。そうすると、制御ユニット81は、先ず位置座標制御部811および画像データ取得部812の制御の下、ステップS10において、上記研削工具1Aの加工前の砥面の画像データを取得する処理を以下のように実行する。
(1-2) Acquisition of Image Data of Grinding Surface Before Processing of Grinding Tool 1A First, the administrator attaches the grinding tool 1A to the rotating mechanism 2 before use for processing. Then, an image acquisition start instruction is input through the input device 25. Then, under the control of the position coordinate control unit 811 and the image data acquisition unit 812, the control unit 81 first performs the process of acquiring the image data of the grinding surface of the grinding tool 1A before machining in step S10 as follows. Execute.

すなわち、位置座標制御部811は、先ずステップS101により上記研削工具1Aの砥面に対する撮像領域の初期位置座標を設定する。そしてステップS102において、XYZθ座標を可変することで上記砥面に対する撮像領域の位置を事前に設定されたステップ幅でステップ的に移動させる。このうちθについては、θ軸駆動部21により回転機構2を動作させることで、研削工具1Aを加工に使用するときと同一の方向に回転させることにより変化させる。またXYZのうち、XYについてはX軸駆動部22およびY軸駆動部23によりXYテーブル3,4を水平方向に移動させることにより、さらにZについてはZ軸駆動部24によりカメラ7を垂直方向に移動させることにより変化させる。   That is, the position coordinate control unit 811 first sets the initial position coordinates of the imaging region with respect to the grinding surface of the grinding tool 1A in step S101. Then, in step S102, the position of the imaging region with respect to the grinding surface is moved stepwise by a preset step width by changing the XYZθ coordinates. Of these, θ is changed by rotating the grinding tool 1A in the same direction as that used for machining by operating the rotation mechanism 2 by the θ-axis drive unit 21. Of XYZ, the XY tables 3 and 4 are moved in the horizontal direction by the X-axis drive unit 22 and the Y-axis drive unit 23 for XY, and the camera 7 is moved in the vertical direction by the Z-axis drive unit 24 for Z. Change by moving.

画像データ取得部812は、上記撮像領域の位置の移動制御に同期して、ステップS103においてカメラ7を動作させ、カメラ7により撮像された上記砥面の撮像領域の画像データを入出力インタフェースユニット83を介して取得する。そして、取得された画像データを、上記位置座標制御部811により設定された撮像領域のXYZθ座標と関連付けて、画像データ記憶部821に記憶させる。画像データ取得部812は、ステップS105において、研削工具1Aの回転方向に沿って砥面の全領域に渡る画像データの取得が終了したことを検出するまで、上記ステップS102〜ステップS104による画像データの取得処理を繰り返す。   The image data acquisition unit 812 operates the camera 7 in step S103 in synchronization with the movement control of the position of the imaging region, and outputs the image data of the imaging region of the grinding surface captured by the camera 7 to the input / output interface unit 83 To get through. Then, the acquired image data is stored in the image data storage unit 821 in association with the XYZθ coordinates of the imaging region set by the position coordinate control unit 811. The image data acquiring unit 812 determines in step S105 that the acquisition of the image data over the entire area of the grinding surface along the rotation direction of the grinding tool 1A is completed, until the image data acquisition unit 812 determines that the image data has been acquired in steps S102 to S104. Repeat the acquisition process.

かくして、画像データ記憶部821には、加工に使用する前の研削工具1Aの、砥面の全領域における画像データが研削工具1Aの回転方向の順に撮像位置のXYZθ座標と共に記憶される。   Thus, in the image data storage unit 821, image data of the entire grinding surface of the grinding tool 1A before being used for processing is stored together with the XYZθ coordinates of the imaging position in the rotational direction of the grinding tool 1A.

(1−3)研削工具1Aの加工後における砥面の画像データの取得
次に管理者は、加工前画像を取得した上記研削工具1Aを実際の加工に使用した後、当該研削工具1Aを回転機構2に装着する。そして、入力デバイス25により画像取得開始指示を入力する。
(1-3) Acquisition of Image Data of Grinding Surface after Processing of Grinding Tool 1A Next, the administrator rotates the grinding tool 1A after using the grinding tool 1A having acquired the pre-processing image for actual processing. Attach to mechanism 2. Then, an image acquisition start instruction is input through the input device 25.

そうすると、制御ユニット81は、位置座標制御部811および画像データ取得部812の制御の下、ステップS11において、XYZθの位置を上記加工前の砥面の画像データを取得するときと同様に変化させながら、上記研削工具1Aの加工後の砥面の撮像画像データを取得する処理を実行する。この加工後の砥面の画像データの取得処理も、先に述べた加工前の砥面の画像データの取得処理と同様に、図5のフローチャートに従い実行される。   Then, under the control of the position coordinate control unit 811 and the image data acquisition unit 812, the control unit 81 changes the position of XYZθ in step S11 in the same manner as when acquiring the image data of the grinding surface before machining. Then, a process of acquiring captured image data of the ground surface after processing of the grinding tool 1A is executed. The process of acquiring the image data of the ground surface after the processing is also executed according to the flowchart of FIG. 5, similarly to the process of obtaining the image data of the ground surface before the processing described above.

かくして、画像データ記憶部821には、研削工具1Aの加工後の砥面の全領域における画像データが、研削工具1Aの回転方向の順に撮像位置のXYZθ座標と共に記憶される。   Thus, the image data storage unit 821 stores the image data of the entire area of the grinding surface of the grinding tool 1A after processing along with the XYZθ coordinates of the imaging position in the rotation direction of the grinding tool 1A.

(1−4)砥面の劣化部位の検出
次に制御ユニット81は、劣化部位検出部813の制御の下、ステップS12において、上記画像データ記憶部821から加工後の砥面の画像データを撮像領域ごとに読み出し、この画像データに対し所定の画像処理を行って、砥粒12,12間に切り屑が詰まる目詰まりと、基材の結合剤11から砥粒12が剥がれ落ちる目毀れと、結合剤11が加工物の表面を滑る上滑り現象の発生部位を検出する。
(1-4) Detection of Deteriorated Area on Grinding Surface Next, under the control of the deteriorated part detecting unit 813, the control unit 81 captures image data of the ground surface after processing from the image data storage unit 821 in step S12. Each area is read out, and predetermined image processing is performed on the image data to perform clogging in which chips are clogged between the abrasive grains 12 and 12, and that the abrasive grains 12 are peeled off from the binder 11 of the base material. The binder 11 detects a site where an upward sliding phenomenon occurs on the surface of the workpiece.

目詰まりは、例えばアルミニウムや銅等の比較的柔らかい材料を研削した場合に発生し易く、目詰まりした切り屑の表面は砥粒12の最上面部とほぼ同じ高さの平坦面となり、かつ砥粒12,12間に跨がってこびり付いた状態になることが多いため平坦面の面積が砥粒12の最上面部の面積より大きくなる。   Clogging is likely to occur when a relatively soft material such as aluminum or copper is ground, for example, and the surface of the clogged chip becomes a flat surface having almost the same height as the uppermost surface of the abrasive grains 12. In many cases, the surface of the abrasive grains 12 is larger than the area of the uppermost surface of the abrasive grains 12 because the particles are often stuck between the grains 12.

そこで、画像処理では、二値化処理等を用いて砥粒12の最上面部に相当する画像を検出し、これにより検出された多数の画像の中から面積が閾値以上となる画像を検出し、これを目詰まりが発生した部位の画像と見なす。図9(a)は目詰まりの検出画像の一例を示すものである。なお、図9(b)は目詰まりが発生する前の砥粒の検出画像を示している。   Therefore, in the image processing, an image corresponding to the uppermost surface of the abrasive grains 12 is detected using a binarization process or the like, and an image having an area equal to or larger than a threshold is detected from among a large number of images detected thereby. This is regarded as an image of a site where clogging has occurred. FIG. 9A shows an example of a detection image of clogging. FIG. 9B shows a detection image of abrasive grains before clogging occurs.

一方、目毀れは、硬度の高い材料を検索した場合に発生し易く、砥粒12が脱落したことで結合剤の表面に穴が空いた状態となる。そのため、穴の底面は砥粒12の最上面部はもとより結合剤表面の位置よりも低くなり、砥粒12の最上面部に焦点を合わせて撮像した画像では焦点が合わずぼけた画像となる。   On the other hand, the fouling is likely to occur when a material having a high hardness is searched, and a hole is formed in the surface of the binder due to the drop of the abrasive grains 12. Therefore, the bottom surface of the hole becomes lower than the position of the surface of the binder as well as the uppermost surface of the abrasive grains 12, and the image obtained by focusing on the uppermost surface of the abrasive grains 12 becomes a blurred image without being focused. .

そこで、目毀れを検出する場合は、撮像された画像から焦点が合っている領域を抽出して、その領域以外を砥粒の脱落痕の候補として抽出する。このとき、抽出される候補の中には結合剤の凹凸部も含まれる。しかし、結合剤の凹凸部の面積は砥粒12の脱落痕の面積に比べて小さく、かつ凹凸部間の距離が近いことから、上記面積または距離を閾値により判定することで、砥粒12の脱落痕を検出することが可能となる。   Therefore, when detecting eye damage, an in-focus area is extracted from a captured image, and the area other than the area is extracted as a candidate for abrasive grains falling off. At this time, the extracted candidate includes the uneven portion of the binder. However, since the area of the concave and convex portions of the binder is smaller than the area of the falling marks of the abrasive grains 12 and the distance between the concave and convex portions is short, the area or the distance is determined by using a threshold value. It becomes possible to detect a dropout mark.

また、上滑り発生部位は、砥粒12,12の最上面と結合剤11の表面がほぼ同一平面となるので、例えば、砥粒12,12の最上面に焦点距離を合わせた状態で撮像された画像から、結合剤11の表面が明瞭に検出される領域の面積を検出し、当該結合剤11の面積が閾値以上の場合に、当該部位を上滑り発生部位とみなすことにより検出可能である。   Further, since the uppermost surface of the abrasive grains 12 and 12 and the surface of the binder 11 are substantially flush with each other, the upper slip occurrence site is imaged, for example, with the focal length adjusted to the uppermost surface of the abrasive grains 12 and 12. From the image, the area of the region where the surface of the binder 11 is clearly detected is detected, and when the area of the binder 11 is equal to or larger than the threshold value, it can be detected by regarding the site as an upper slip occurrence site.

そして劣化部位検出部813は、以上のように検出された目詰まり、目毀れおよび上滑り発生部位の検出画像と、当該画像を検出した撮像領域の位置座標(XYZθ座標値)を、相互に関連付けた状態で劣化情報記憶部822に記憶させる。   Then, the deteriorated part detection unit 813 correlates the detected image of the part where the clogging, the damage, and the upper slip occurred, detected as described above, with the position coordinates (XYZθ coordinate values) of the imaging region in which the image is detected. The state is stored in the deterioration information storage unit 822.

(1−5)砥粒およびその分布状態の特徴量の算出
制御ユニット81は、特徴量算出部815の制御の下、ステップS13において、上記画像データ記憶部821から加工前の画像データを読み出し、この加工前の画像データに含まれる各砥粒12,12とその分布状態について特徴量を算出する処理を行う。
(1-5) Calculation of feature amount of abrasive grains and their distribution state The control unit 81 reads out image data before processing from the image data storage unit 821 in step S13 under the control of the feature amount calculation unit 815, A process is performed to calculate a feature amount for each of the abrasive grains 12, 12 included in the image data before processing and its distribution state.

例えば、特徴量算出部815は、加工前の画像データに対し撮像領域ごとに二値化処理またはラベリング処理を行い、これにより各撮像領域の画像から砥粒12,12を検出する。図11(b),(c)は図11(a)に示した原画像をそれぞれ二値化処理およびラベリング処理して得られる二値化画像およびラベリング画像の一例を示すものである。   For example, the feature amount calculation unit 815 performs binarization processing or labeling processing on the image data before processing for each imaging region, and thereby detects the abrasive grains 12, 12 from the image of each imaging region. FIGS. 11B and 11C show an example of a binarized image and a labeling image obtained by performing the binarizing process and the labeling process on the original image shown in FIG. 11A, respectively.

そして特徴量算出部815は、上記検出された砥粒12,12ごとに重心座標を求める。重心座標は、上記撮像領域に関連付けて記憶されているXYZθ座標を利用して算出することができる。また特徴量算出部815は、上記各砥粒12,12ごとにその面積や円形度を算出する。さらに特徴量算出部815は、上記各砥粒12,12の重心座標を用いて隣接する砥粒12,12間の距離を算出したり、上記各砥粒12,12の重心座標を用いて領域をボロノイ分割してその分割領域ごとの面積を求める。   Then, the feature amount calculation unit 815 obtains the barycentric coordinates for each of the detected abrasive grains 12. The barycenter coordinates can be calculated by using the XYZθ coordinates stored in association with the imaging region. In addition, the feature amount calculation unit 815 calculates the area and circularity of each of the abrasive grains 12. Further, the feature amount calculation unit 815 calculates the distance between the adjacent abrasive grains 12 and 12 using the barycentric coordinates of the respective abrasive grains 12 and 12, and calculates the area using the barycentric coordinates of the respective abrasive grains 12 and 12. Is Voronoi-divided, and the area of each divided region is obtained.

特徴量算出部815は、以上のように算出された個々の砥粒12,12の各種特徴量と、砥粒12,12間の距離や分割領域の面積等の砥粒12,12の分布状態を表す特徴量を、制御ユニット81内のメモリに保存する。図12に特徴量の検出結果の一例を示す。   The feature amount calculation unit 815 calculates the various feature amounts of the individual abrasive grains 12, 12 calculated as described above, and the distribution state of the abrasive grains 12, 12, such as the distance between the abrasive grains 12, 12 and the area of the divided region. Is stored in the memory in the control unit 81. FIG. 12 shows an example of the detection result of the feature amount.

なお、以上述べた砥粒12,12の検出処理や、検出した砥粒12,12の重心座標等の解析パラメータを算出する処理の具体例については、本発明者が提案した例えば特許第5569883号公報に詳しく記載されている。また、ボロノイ図を用いた砥粒分布の解析方法については、例えば、川下,坂口,川口,松井,前田,松尾、「画像処理による砥石作業面トポグラフィの3次元計測に関する研究」第4報、ラインカメラによる高速画像取得とボロノイ図を用いた砥粒切れ刃分布の解析、砥粒加工学会誌,Vol.60, No.8, pp.442- 447 (2016) に詳しく記載されている。   It should be noted that specific examples of the above-described detection processing of the abrasive grains 12 and 12 and the processing of calculating the analysis parameters such as the barycentric coordinates of the detected abrasive grains 12 and 12 are described in, for example, Japanese Patent No. 5569883 proposed by the present inventor. It is described in detail in the gazette. Regarding the method of analyzing the distribution of abrasive grains using Voronoi diagrams, see, for example, Kawashita, Sakaguchi, Kawaguchi, Matsui, Maeda, Matsuo, "Study on Three-Dimensional Measurement of Grinding Wheel Work Surface Topography by Image Processing", 4th Report, Line High-speed image acquisition with a camera and analysis of abrasive grain cutting edge distribution using Voronoi diagram, detailed description in Journal of Japan Society of Abrasive Technology, Vol.60, No.8, pp.442-447 (2016).

(1−6)研削性能低下要因の抽出
次に制御ユニット81は、研削性能低下要因抽出部814の制御の下、ステップS14において、上記劣化情報記憶部822から劣化部位として検出された目詰まり、目毀れおよび上滑り発生部位が含まれる撮像領域の位置座標を読み出す。そして、画像データ記憶部821から、上記読み出された位置座標と同一の位置座標に紐づけられた加工前の撮像領域の画像を選択的に読み出す。そして、この加工前の撮像領域の画像を、研削性能低下要因を表す情報として低下要因情報記憶部823に記憶させる。
(1-6) Extraction of Grinding Performance Deterioration Factor Next, under the control of the grinding performance deteriorating factor extraction unit 814, the control unit 81 determines in step S14 that the clogging is detected from the deterioration information storage unit 822 as a deteriorated part. The position coordinates of the imaging region including the site where the eyebrows and the upper slip occur are read. Then, the image of the imaging region before processing associated with the same position coordinates as the read position coordinates is selectively read from the image data storage unit 821. Then, the image of the imaging region before the processing is stored in the deterioration factor information storage unit 823 as information representing the grinding performance reduction factor.

また研削性能低下要因抽出部814は、上記研削性能低下要因として選択された加工前の撮像領域の画像に含まれる各砥粒12,12の特徴量と、砥粒12,12の分布状態を表す特徴量を、砥粒12,12の重心座標をもとに上記特徴量算出部815のメモリから読み出し、上記研削性能低下要因を表す情報に含めて低下要因情報記憶部823に記憶させる。   The grinding performance reduction factor extraction unit 814 indicates the characteristic amount of each of the abrasive grains 12 included in the image of the imaging region before processing selected as the grinding performance reduction factor and the distribution state of the abrasive grains 12. The feature amount is read out from the memory of the feature amount calculation unit 815 based on the barycenter coordinates of the abrasive grains 12, 12, and stored in the reduction factor information storage unit 823 together with the information indicating the grinding performance reduction factor.

かくして、低下要因情報記憶部823には、加工前の研削工具1Aの砥面に存在する砥粒12,12のうち、目詰まりや目毀れ、上滑り発生部位が発生する要因になり得る部位の画像と、当該画像に含まれる個々の砥粒12,12の特徴量および砥粒12,12の分布状態を示す特徴量が、研削性能低下要因を表す情報として記憶される。この研削性能低下要因を表す情報は、後述する砥面評価用の学習器を生成するための学習データ(説明変数)として用いられる。   Thus, the deterioration factor information storage unit 823 stores an image of a part of the abrasive grains 12, 12 existing on the grinding surface of the grinding tool 1 </ b> A before machining, which may be a factor that may cause a clogging, damage, or an upper slip occurrence part. And the characteristic amount of each of the abrasive grains 12 and 12 and the characteristic amount indicating the distribution state of the abrasive grains 12 and 12 included in the image are stored as information indicating a factor of reduction in grinding performance. The information indicating the grinding performance reduction factor is used as learning data (explanatory variables) for generating a learning device for evaluating a grinding surface, which will be described later.

(1−7)教師データの生成
制御ユニット81は、教師データ生成部816の制御の下、ステップS15において、後述する砥面評価用の学習器を生成する際に使用する教師データを生成する。教師データ生成部816は、例えば、上記低下要因情報記憶部823に研削性能低下要因を表す情報として記憶された、研削性能低下要因となり得る砥粒12,12を含む撮像領域の位置座標に紐づけられた劣化部位の画像を上記劣化情報記憶部822から読み出す。
(1-7) Generation of Teacher Data Under control of the teacher data generation unit 816, the control unit 81 generates, in step S15, teacher data used when generating a learning device for grinding surface evaluation described later. The teacher data generation unit 816 links the position coordinates of the imaging region including the abrasive grains 12, 12 which may be the grinding performance reduction factor stored in the reduction factor information storage unit 823 as information indicating the grinding performance reduction factor, for example. The image of the obtained deteriorated part is read from the deterioration information storage unit 822.

例えば、図9に示した画像を例にとれば、目詰まり、目毀れまたは上滑り現象が発生する状態になる前の画像(b)に対応する、目詰まり、目毀れまたは上滑り現象が発生する状態を表す画像(a)を、劣化情報記憶部822から読み出す。そして、この読み出された目詰まり、目毀れまたは上滑り現象が発生した状態を表す画像を、そのまま教師データとして、上記撮像領域の位置座標と紐づけて教師データ記憶部824に記憶させる。図13(a)は、上記目詰まり、目毀れまたは上滑り現象が発生する状態を表す画像を教師データとした場合の一例を示す図である。   For example, taking the image shown in FIG. 9 as an example, a state in which clogging, clogging or slippage occurs corresponding to the image (b) before clogging, clogging or slippage occurs. Is read from the deterioration information storage unit 822. Then, the read image representing the state in which the clogging, blinding, or upward slip phenomenon has occurred is stored in the teacher data storage unit 824 as it is as the teacher data in association with the position coordinates of the imaging region. FIG. 13A is a diagram illustrating an example of a case where an image representing a state in which the clogging, blinding, or slip phenomenon occurs is used as teacher data.

また教師データ生成部816は、例えば、上記低下要因情報記憶部823に研削性能低下要因を表す情報として記憶された、研削性能低下要因となり得る砥粒12,12を表す画像を教師データとし、上記撮像領域の位置座標と紐づけて教師データ記憶部824に記憶させる。図13(b)は、上記目詰まり、目毀れまたは上滑り現象が発生する要因となり得る砥粒12,12のみを表した画像を教師データとした場合の一例を示す図である。   In addition, the teacher data generation unit 816 uses, for example, images representing the abrasive grains 12 and 12 that can be a grinding performance reduction factor stored in the reduction factor information storage unit 823 as information indicating the grinding performance reduction factor, as teacher data. The teacher data is stored in the teacher data storage unit 824 in association with the position coordinates of the imaging region. FIG. 13B is a diagram showing an example in which an image representing only the abrasive grains 12, 12 which can cause the above-described clogging, damage, or slippage phenomenon is used as teacher data.

さらに教師データ生成部816は、例えば、上記低下要因情報記憶部823に研削性能低下要因を表す情報として記憶された、研削性能低下要因となり得る砥粒12,12を含む撮像領域の画像の各々について、当該撮像領域に含まれる低下要因をその種類に応じてクラス分けする。具体的には、図13(c)に示すように、目詰まりの要因をCLASS1、目毀れの要因をCLASS2、目詰まりと目毀れの要因の両方を含む場合をCLASS3、目詰まりおよび目毀れの要因をいずれも含まない場合をCLASS4とする。そして、上記撮像領域ごとに、目詰まりおよび目毀れの要因になり得る砥粒12,12の存在の有無に応じて上記CLASSを設定し、当該CLASSごとの低下要因の発生度合いを表す数値データを、上記撮像領域の位置座標と紐づけて教師データ記憶部824に記憶させる。   Further, the teacher data generation unit 816 may store, for example, each of the images of the imaging regions including the abrasive grains 12, 12 that may be the grinding performance reduction factor, stored in the reduction factor information storage unit 823 as information representing the grinding performance reduction factor. Then, the deterioration factors included in the imaging region are classified into classes according to their types. Specifically, as shown in FIG. 13 (c), the clogging factor is CLASS1, the clogging factor is CLASS2, the clogging and clogging factor is CLASS3, and the clogging and clogging factor is CLASS1. The case where neither factor is included is referred to as CLASS4. Then, for each of the imaging regions, the CLASS is set in accordance with the presence or absence of the abrasive grains 12, 12 which may be a cause of clogging and damage, and numerical data representing the degree of occurrence of a reduction factor for each CLASS is set. Are stored in the teacher data storage unit 824 in association with the position coordinates of the imaging area.

なお、教師データは上記3例に限るものではなく、それ以外にも種々のものが考えられる。また、教師データを管理者が設定して、その設定データを入力デバイス25から手入力したり、記憶媒体を用いて読み込ませることで教師データ記憶部824に記憶させるようにしてもよい。   Note that the teacher data is not limited to the above three examples, and various other data can be considered. Further, the teacher data may be set by an administrator, and the setting data may be manually input from the input device 25 or read using a storage medium to be stored in the teacher data storage unit 824.

(1−8)砥面評価用の学習器の生成
制御ユニット81は、学習器生成部817の制御のもと、ステップS16において砥面評価用の学習器を以下のように生成する。図6はその処理手順と処理内容の一例を示すフローチャートである。
(1-8) Generation of a learning device for grinding surface evaluation The control unit 81 generates a learning device for grinding surface evaluation in step S16 under the control of the learning device generation unit 817 as follows. FIG. 6 is a flowchart showing an example of the processing procedure and processing contents.

すなわち、学習器生成部817は、先ずステップS161により上記低下要因情報記憶部823のアドレスを一つ指定して、ステップS162により研削性能低下要因を含む撮像領域の画像と、当該画像に含まれる砥粒12,12の個々の特徴量およびその分布状態を示す特徴量を、学習データとして読み出す。またそれと共に、教師データ記憶部824から上記撮像領域に対応する教師データを読み出す。   That is, the learning device generation unit 817 first specifies one address of the deterioration factor information storage unit 823 in step S161, and in step S162, determines the image of the imaging region including the grinding performance reduction factor and the grinder included in the image. The individual characteristic amounts of the grains 12 and the characteristic amounts indicating the distribution state thereof are read as learning data. At the same time, the teacher data corresponding to the imaging area is read from the teacher data storage unit 824.

学習器生成部817は、次にステップS134において、あらかじめ用意されたCNNに上記読み出された学習データを入力すると共に上記教師データを与え、CNNに学習を行わせる。そしてステップS165により、上記学習の結果に基づいてニューロン間の結合重みや各ニューロンの閾値等の学習用パラメータを更新する。学習器生成部817は、以上の学習処理を、低下要因情報記憶部823に記憶された全ての低下要因情報とそれに対応する教師データを順次VNNに与えることで繰り返し行う。そして、全ての低下要因情報についての学習処理が終了したことがステップS166で判定されると、学習処理を終了する。学習終了後の学習用パラメータ等を含む学習済の学習器(学習済モデル)は、学習済データ記憶部825に記憶される。   Next, in step S134, the learning device generation unit 817 inputs the read learning data to the CNN prepared in advance and provides the teacher data to make the CNN perform learning. In step S165, learning parameters such as the connection weight between neurons and the threshold value of each neuron are updated based on the result of the learning. The learning device generation unit 817 repeats the above learning process by sequentially providing all the deterioration factor information stored in the deterioration factor information storage unit 823 and the corresponding teacher data to the VNN. Then, when it is determined in step S166 that the learning processing for all the deterioration factor information has been completed, the learning processing is completed. The learned learning device (learned model) including the learning parameters after the learning is completed is stored in the learned data storage unit 825.

なお、CNNの学習処理は、1個の研削工具1Aについて得られた研削性能低下要因の情報だけでなく、複数の研削工具についてそれぞれ得られた研削性能低下要因の情報を与えることで繰り返し行うようにしてもよい。研削性能低下要因の情報の入力点数が増えれば増えるほどCNNによる評価性能を高めることが可能となる。   The learning process of the CNN may be repeatedly performed by giving not only the information of the grinding performance deterioration factor obtained for one grinding tool 1A but also the information of the grinding performance deterioration factor obtained for each of a plurality of grinding tools. It may be. The more the number of input points of the information on the factor of the decrease in the grinding performance, the more the evaluation performance by the CNN can be improved.

(2)評価フェーズ
研削工具の製造者または研削工具のユーザは、上記研削工具砥面評価装置8を使用することで、出荷前の研削工具1Aの評価、或いは加工に使用中または使用後の研削工具1Aの評価を、以下のように行う。図7は、研削工具砥面評価装置8における評価フェーズの処理手順と処理内容の一例を示すフローチャートである。
(2) Evaluation phase The grinding tool manufacturer or the user of the grinding tool uses the grinding tool grinding surface evaluation device 8 to evaluate the grinding tool 1A before shipping, or grinding during or after processing. The evaluation of the tool 1A is performed as follows. FIG. 7 is a flowchart showing an example of the processing procedure and processing contents of the evaluation phase in the grinding tool grinding surface evaluation device 8.

(2−1)研削工具1Aの砥面の画像データの取得
評価者は、評価対象の研削工具1Aを回転機構2に装着する。そして、入力デバイス25により評価開始指示を入力する。そうすると、制御ユニット81は、位置座標制御部811および画像データ取得部812の制御の下、ステップS20において、上記研削工具1Aの砥面の撮像画像データを取得する処理を実行する。このときの画像データの取得処理も、先に述べた学習フェーズにおける画像データの取得処理と同様に、図5のフローチャートに従い実行される。かくして、画像データ記憶部821には、評価対象となる研削工具1Aの砥面の全領域における画像データが研削工具1Aの回転方向の順に撮像領域のXYZθ座標と共に記憶される。
(2-1) Acquisition of Image Data of Grinding Surface of Grinding Tool 1A The evaluator mounts the grinding tool 1A to be evaluated on the rotating mechanism 2. Then, an evaluation start instruction is input through the input device 25. Then, under the control of the position coordinate control unit 811 and the image data acquisition unit 812, the control unit 81 executes a process of acquiring captured image data of the grinding surface of the grinding tool 1A in step S20. The image data acquisition process at this time is also executed in accordance with the flowchart in FIG. 5, similarly to the image data acquisition process in the learning phase described above. Thus, the image data storage unit 821 stores the image data in the entire area of the grinding surface of the grinding tool 1A to be evaluated together with the XYZθ coordinates of the imaging area in the order of the rotation direction of the grinding tool 1A.

(2−2)特徴量の算出
制御ユニット81は、特徴量算出部815の制御の下、ステップS21において、上記画像データ記憶部821から画像データを読み出し、この画像データに含まれる各砥粒12,12とその分布状態について特徴量を算出する処理を行う。この特徴量の算出処理も、学習フェーズにおいて研削工具1Aの加工前の砥面の画像データから特徴量を算出した場合と同様に行うことができる。この結果、評価対象の研削工具1Aについても、その砥面における個々の砥粒12,12の特徴量と、砥粒12,12の分布状態を表す特徴量が得られる。
(2-2) Calculation of Feature Amount Under control of the feature amount calculation unit 815, the control unit 81 reads out image data from the image data storage unit 821 in step S21, and reads each abrasive grain 12 included in the image data. , 12 and the distribution state thereof are calculated. This feature amount calculation process can be performed in the same manner as in the case where the feature amount is calculated from the image data of the grinding surface before machining of the grinding tool 1A in the learning phase. As a result, with respect to the grinding tool 1A to be evaluated, the characteristic amount of each of the abrasive grains 12, 12 on the abrasive surface and the characteristic amount indicating the distribution state of the abrasive grains 12, 12 are obtained.

(2−3)学習済の学習器(CNN)を用いた評価ルーチン
制御ユニット81は、研削性能低下要因評価部818の制御の下、ステップS22において以下のように研削工具1Aの砥面評価を行う。図8はその処理手順と処理内容を示すフローチャートである。
(2-3) Evaluation Routine Using Learned Learning Unit (CNN) The control unit 81 performs the evaluation of the grinding surface of the grinding tool 1A in step S22 as described below under the control of the grinding performance reduction factor evaluation unit 818. Do. FIG. 8 is a flowchart showing the processing procedure and processing contents.

研削性能低下要因評価部818は、先ずステップS221により学習済データ記憶部825から学習済CNNを読み出して制御ユニット81のRAM上に展開する。そして、ステップS222により研削工具1Aの砥面撮像領域のXYZθ座標の初期値を指定して、ステップS223により画像データ記憶部821から該当する撮像領域の画像データを読み出し、当該画像と上記特徴量算出部815により算出された対応する特徴量を、評価対象データとして上記学習済CNNに入力する。そして研削性能低下要因評価部818は、上記学習済CNNの出力データを、上記評価対象データに対する評価結果データとして、上記XYZθ座標と紐づけて評価データ記憶部826に記憶させる。   The grinding performance reduction factor evaluation unit 818 first reads the learned CNN from the learned data storage unit 825 in step S221 and expands the learned CNN on the RAM of the control unit 81. Then, in step S222, an initial value of the XYZθ coordinates of the grinding surface imaging region of the grinding tool 1A is designated, and in step S223, the image data of the corresponding imaging region is read from the image data storage unit 821, and the image and the feature amount calculation are performed. The corresponding feature amount calculated by the unit 815 is input to the learned CNN as evaluation target data. Then, the grinding performance reduction factor evaluation unit 818 stores the output data of the learned CNN in the evaluation data storage unit 826 in association with the XYZθ coordinates as evaluation result data for the evaluation target data.

研削性能低下要因評価部818は、全撮像領域のXYZθ座標の指定終了がステップS225で判定されるまで、上記ステップS222〜S224による、学習済CNNを用いた各撮像領域についての評価処理を繰り返す。   The grinding performance reduction factor evaluation unit 818 repeats the evaluation processing for each imaging region using the learned CNN in steps S222 to S224 until the end of the designation of the XYZθ coordinates of all the imaging regions is determined in step S225.

図14は、上記学習済CNNを使用した評価処理動作の一例を示すものである。図14(a)は、目詰まりまたは目毀れの発生要因となり得る砥粒12,12を含む撮像領域の画像と特徴量を学習済CNNに入力した場合に、上記目詰まりまたは目毀れが発生した状態の推測画像が学習済CNNから出力された例を示す。   FIG. 14 shows an example of an evaluation processing operation using the learned CNN. FIG. 14A shows the case where the clogging or the clogging occurs when the image and the feature amount of the imaging region including the abrasive grains 12 and 12 that may cause the clogging or the clogging are input to the learned CNN. An example in which a state estimation image is output from a learned CNN is shown.

また図14(b)は、同様の画像と特徴量を学習済CNNに入力した場合に、上記目詰まりまたは目毀れが発生し得る砥粒12,12の画像のみが出力された例を示す。さらに図14(c)は、同様の画像と特徴量を学習済CNNに入力した場合に、目詰まりまたは目毀れの要因になり得る砥粒12,12の存在に応じて、CLASSごとに上記低下要因の発生度合いを表す数値データが学習済CNNから出力された例を示す。なお、上滑り発生部位についても同様に学習済CNNから出力させることができる。   FIG. 14B shows an example in which, when similar images and feature amounts are input to the learned CNN, only the images of the abrasive grains 12 and 12 that may cause the clogging or damage are output. Further, FIG. 14C shows that when the same image and feature amount are input to the learned CNN, the above-described reduction is performed for each CLASS according to the presence of the abrasive grains 12 that can cause clogging or damage. An example is shown in which numerical data indicating the degree of occurrence of a factor is output from a learned CNN. In addition, it is possible to similarly output from the learned CNN the upper slip occurrence portion.

上記研削工具1Aの砥面の全領域についての評価結果が得られると、制御ユニット81は評価データ出力部819の制御の下、ステップS23において上記評価結果を出力する処理を行う。例えば、図8に示すようにステップS226において、上記評価結果とそれに紐づけられている位置座標をもとに、目詰まり、目毀れまたは上滑り現象の発生要因となり得る部位の位置を、砥面の全領域に渡って表示した可視化データを生成する。そして、この可視化データを入出力インタフェースユニット83から表示デバイス26へ出力し表示させる。図15は上記可視化データの一例を示すものである。   When the evaluation results for the entire area of the grinding surface of the grinding tool 1A are obtained, the control unit 81 performs a process of outputting the evaluation results in step S23 under the control of the evaluation data output unit 819. For example, as shown in FIG. 8, in step S226, based on the above-described evaluation result and the position coordinates associated with the evaluation result, the position of a part that can cause clogging, damage, or an upper slip phenomenon is determined based on the grinding surface. Generates visualization data displayed over the entire area. Then, the visualization data is output from the input / output interface unit 83 to the display device 26 and displayed. FIG. 15 shows an example of the visualization data.

また評価データ出力部819は、ステップS227において、例えば、研削工具1Aの砥面の全領域における研削性能低下要因となる部位の面積または個数を算出する。そして、算出された研削性能低下要因となる部位の面積または個数を入出力インタフェースユニット83から表示デバイス26へ出力し表示させる。   Further, in step S227, the evaluation data output unit 819 calculates, for example, the area or the number of the parts that cause the deterioration of the grinding performance in the entire area of the grinding surface of the grinding tool 1A. Then, the calculated area or number of the portion that causes the reduction of the grinding performance is output from the input / output interface unit 83 to the display device 26 and displayed.

さらに評価データ出力部819は、ステップS228において、例えば、上記ステップS227において算出された研削性能低下要因となる部位の面積または個数を、あらかじめ記憶されているドレッシング時期判定テーブルに照らして、上記研削性能低下要因となり得る部位の面積または個数に対応するドレッシング時期を判定する。そして、この判定されたドレッシング時期を表す情報を入出力インタフェースユニット83から表示デバイス26へ出力し表示させる。   Further, in step S228, the evaluation data output unit 819 compares the area or the number of the parts, which are factors causing a decrease in the grinding performance, calculated in step S227 with reference to the dressing timing determination table stored in advance to determine the grinding performance. The dressing time corresponding to the area or the number of the parts that may be the cause of the decrease is determined. Then, information representing the determined dressing time is output from the input / output interface unit 83 to the display device 26 and displayed.

最後に評価データ出力部819は、ステップS229において、上記生成された研削性能低下要因となり得る部位の砥面全領域における位置を示す可視化データ、上記算出された研削性能低下要因となる部位の面積または個数、および上記判定されたドレッシング時期を表す情報を、研削工具1Aの製品番号等に紐づけて評価データ記憶部826に記憶させる。   Finally, in step S229, the evaluation data output unit 819 displays the generated visualization data indicating the position of the part that can be a factor of lowering the grinding performance in the entire area of the grinding surface, the area of the calculated part that is a factor of lowering the grinding performance or The number and the information indicating the determined dressing time are stored in the evaluation data storage unit 826 in association with the product number or the like of the grinding tool 1A.

なお、以上の説明では、研削性能低下要因となり得る部位の位置を示す可視化データ、研削性能低下要因となる部位の面積または個数を示す情報、およびドレッシング時期を表す情報を、評価データ出力部819により生成または算出するようにした。しかし、それに限らず、上記各データおよび情報を研削性能低下要因評価部818により生成または算出するようにしてもよい。   In the above description, the evaluation data output unit 819 outputs the visualization data indicating the position of the part that may cause the grinding performance deterioration, the information indicating the area or the number of the part that may cause the grinding performance deterioration, and the information indicating the dressing time by the evaluation data output unit 819. Generated or calculated. However, the present invention is not limited thereto, and the above-described data and information may be generated or calculated by the grinding performance reduction factor evaluation unit 818.

(効果)
以上詳述したように一実施形態では、学習フェーズにおいて、研削工具1Aの加工前の砥面画像データを取得して記憶すると共に、上記研削工具1Aの加工に使用した後の砥面の画像データを取得してこの画像データから目詰まりや目毀れ、上滑り現象が発生する部位等の劣化部位を検出し、これらの劣化部位と位置が対応する加工前の画像を上記記憶された加工前の画像データから抽出する。そして、この抽出された加工前の画像と、当該画像に含まれる個々の砥粒12,12の特徴量およびその分布状態を示す特徴量を、研削性能低下要因を表す情報としてCNNに入力し、かつ上記研削性能低下要因を表す情報に対する評価結果を表す情報を教師データとして上記CNNに与え、これによりCNNを学習させて砥面評価用のCNNを生成している。
(effect)
As described above in detail, in one embodiment, in the learning phase, while acquiring and storing the grinding surface image data before machining of the grinding tool 1A, the image data of the grinding surface after being used for machining of the grinding tool 1A is obtained. From the image data to detect a deteriorated portion such as a portion in which clogging, clogging, and an upper sliding phenomenon occurs, and to store the unprocessed image corresponding to the deteriorated portion and position in the stored unprocessed image. Extract from data. Then, the extracted unprocessed image and the characteristic amount of each of the abrasive grains 12 and 12 included in the image and the characteristic amount indicating the distribution state thereof are input to the CNN as information indicating a factor for reducing the grinding performance. In addition, information indicating an evaluation result with respect to the information indicating the cause of the decrease in the grinding performance is given to the CNN as teacher data, whereby the CNN is learned to generate a CNN for grinding surface evaluation.

従って、実際の加工により求めた、砥粒の目詰まりや目毀れ、上滑り発生部位等の研削性能低下要因を表す情報を学習データ(説明変数)とし、かつ上記研削性能低下要因に対応する評価結果を表す情報を教師データ(目的変数)としてCNNを学習させることができる。このため、砥面について詳細な解析処理を行うことなく、実際の加工データに基づいた評価性能の高い学習済CNNを生成することができる。   Therefore, information representing the cause of grinding performance deterioration such as clogging or damage of abrasive grains, the occurrence of slippage, etc., obtained by actual processing is used as learning data (explanatory variable), and the evaluation result corresponding to the above-described grinding performance deterioration factor Can be made to learn CNN by using the information representing as the teacher data (objective variable). Therefore, a learned CNN with high evaluation performance based on actual machining data can be generated without performing detailed analysis processing on the grinding surface.

そして、評価フェーズにおいて、上記学習済CNNを用い、評価対象となる研削工具1Aの砥面の画像データと、当該画像データに含まれる砥粒12,12の個々の特徴量およびその分布状態を示す特徴量を、学習データとして上記学習済CNNに入力し、学習済CNNの出力データを上記研削工具1Aの砥面の評価データとして出力するようにしている。   In the evaluation phase, the learned CNN is used to show image data of the grinding surface of the grinding tool 1A to be evaluated, individual feature amounts of the abrasive grains 12 included in the image data, and a distribution state thereof. The feature amount is input to the learned CNN as learning data, and output data of the learned CNN is output as evaluation data of the grinding surface of the grinding tool 1A.

従って、研削工具1Aの加工開始前または加工開始後において取得された画像データを学習済CNNに入力するだけで、砥面の評価結果を表す情報が出力される。すなわち、学習済CNNを使用することで、研削工具1Aの加工開始前または加工開始後において、砥面の研削性能低下要因となる表面性状を、短時間にかつ精度良く事前に評価することができる。このため、評価者は上記出力された評価データをもとに上記研削工具1Aの出荷前又は使用開始後の品質管理を行うことが可能となる。   Therefore, simply by inputting the image data acquired before or after the processing of the grinding tool 1A to the learned CNN, information representing the evaluation result of the grinding surface is output. That is, by using the learned CNN, it is possible to preliminarily evaluate, in a short time and with high accuracy, a surface property which is a cause of a decrease in the grinding performance of the grinding surface before or after the processing of the grinding tool 1A. . For this reason, the evaluator can perform quality control before shipping or after starting use of the grinding tool 1A based on the output evaluation data.

また、一実施形態ではCNNに入力するための学習データとして、研削性能低下要因となり得る砥面の加工前の画像に加えて、当該画像に含まれる砥粒12,12の個々の特徴量とその分布状態を示す特徴量を入力し、CNNを学習させるようにしている。このため、評価対象の研削工具の砥面画像のみを学習データとする場合に比べ、分類またはクラス分けの性能が高いCNNを生成することができる。さらに、この学習済CNNを使用して砥面の評価を行うことで、より正確な評価結果を得ることができる。   Further, in one embodiment, as learning data to be input to the CNN, in addition to an image of the abrasive surface before machining which may be a factor of reducing the grinding performance, individual feature amounts of the abrasive grains 12 and 12 included in the image and the feature amount thereof are included. A feature quantity indicating a distribution state is input, and CNN is learned. For this reason, compared with the case where only the grinding surface image of the grinding tool to be evaluated is used as the learning data, it is possible to generate a CNN having higher classification or classification performance. Further, a more accurate evaluation result can be obtained by evaluating the grinding surface using the learned CNN.

さらに、研削性能低下要因となり得る部位の砥面全領域における位置を示す可視化データ、研削性能低下要因となる部位の面積または個数を示す情報、およびドレッシング時期を表す情報を、評価データ出力部819により生成または算出し、出力するようにしている。このため、評価者は研削工具1Aの評価結果を視覚的にまたは数値として正確に把握することが可能となる。   Further, the evaluation data output unit 819 outputs visualization data indicating the position of the part that can be a factor of reducing the grinding performance in the entire area of the grinding surface, information indicating the area or number of the part that causes the reduction of the grinding performance, and information indicating the dressing time. Generate or calculate and output. Therefore, the evaluator can grasp the evaluation result of the grinding tool 1A visually or accurately as a numerical value.

特に、出荷前の研削工具の砥面を評価することで、研削性能の低下につながる要因(例えば、目詰まりや目毀れ、上滑りの発生部位、基材の結合剤11の最外周面の露出状態、砥粒の切れ刃の逃げ面の大きさ等)を出荷前に予測でき、これにより研削工具の品質保証の信頼性を高めることができる。また、固定砥粒加工において性能低下が発生しない適切な砥粒分布・形状の制御指針を確立することが可能となる。その結果、上記データを蓄積して当該データを基礎データとして利用することで、さらに高精度な研削工具の開発や新しい視点での研削工具の開発に生かすことができる。   In particular, by evaluating the grinding surface of the grinding tool before shipping, factors that lead to a decrease in grinding performance (for example, clogging or damage, a site where slippage occurs, an exposed state of the outermost peripheral surface of the binder 11 of the base material) , The size of the flank of the cutting edge of the abrasive grains, etc.) can be predicted before shipment, thereby improving the reliability of quality assurance of the grinding tool. In addition, it is possible to establish a control guideline for an appropriate abrasive grain distribution and shape that does not cause performance degradation in fixed abrasive processing. As a result, by accumulating the above data and using the data as basic data, it can be utilized for development of a more accurate grinding tool and development of a grinding tool from a new viewpoint.

また、本実施形態の研削工具砥面評価装置8の機能をNC工作機に追加して機上計測を可能にした場合には、加工中または加工後の研削工具についてのドレッシング時期を推定することで、最適なタイミングでのドレッシングや砥石交換が実現でき、生産性の大幅な向上が期待できる。   When the function of the grinding tool grinding surface evaluation device 8 of the present embodiment is added to the NC machine tool to enable on-machine measurement, it is necessary to estimate the dressing time of the grinding tool during or after machining. Thus, dressing and whetstone replacement at the optimal timing can be realized, and a significant improvement in productivity can be expected.

さらに、CNNの学習フェーズの処理手順および処理内容をユーザに開放することで、ユーザのノウハウをAIとして付加できるので、ユーザ個有のAI加工技術を採用したNC工作機械を開発することを可能になる。   Further, since the know-how of the user can be added to the AI by opening the processing procedure and processing contents of the learning phase of the CNN to the user, it is possible to develop an NC machine tool employing the AI processing technology unique to the user. Become.

一般に、研削工具1Aの砥面に目詰まりが発生し易い砥粒の分布は、例えば図18(a)に示すように研削工具1Aの回転方向Mに複数の砥粒12,12が近接して密集している状態である。この状態では、工具の回転方向Mに対し先頭に位置する1番目の砥粒による切り屑が、回転方向Mの後方に近接して位置する2番目および3番目の砥粒による切り屑に重なり合ってしまい、その結果目詰まりが発生するものと推定される。   In general, the distribution of abrasive grains in which clogging is likely to occur on the abrasive surface of the grinding tool 1A is, for example, such that a plurality of abrasive grains 12, 12 are close to each other in the rotation direction M of the grinding tool 1A as shown in FIG. It is in a dense state. In this state, the chips by the first abrasive grains positioned at the head with respect to the rotation direction M of the tool overlap with the chips by the second and third abrasive grains located close to the rear in the rotation direction M. It is presumed that clogging occurs as a result.

これに対し、複数の砥粒12,12が研削工具の回転方向Mに近接して密集している状態であっても、例えば図18(b)に示すように、密集の先頭に位置する1番目の砥粒の上流側に一定の距離内で0番目の砥粒が存在すると、1番目の砥粒は切れ刃としてほとんど作用しないため、1番目の砥粒による切り屑が2番目および3番目の砥粒の切り屑に重なり合わなくなり、この結果上記砥粒の密集部位では目詰まりが発生しない。   On the other hand, even in a state where the plurality of abrasive grains 12 and 12 are densely close to each other in the rotation direction M of the grinding tool, for example, as shown in FIG. If the 0-th abrasive grain is present within a certain distance upstream of the second abrasive grain, the first abrasive grain hardly acts as a cutting edge, so that chips from the first abrasive grain are second and third. No longer overlap with the chips of the abrasive grains, and as a result, clogging does not occur at the dense portion of the abrasive grains.

すなわち、複数の砥粒12,12が同様の分散状態で密集している部位であっても、工具の回転方向の上流側に存在する他の砥粒との位置関係によっては目詰まりが発生しないこともある。このように、砥面上における砥粒12,12の分散状態と目詰まりの発生との関係は複雑であり、個々の砥粒について解析しても目詰まりを起こす砥粒群をすべて把握することは困難である。   That is, even in a region where the plurality of abrasive grains 12 and 12 are densely dispersed in the same dispersion state, clogging does not occur depending on the positional relationship with other abrasive grains existing on the upstream side in the rotation direction of the tool. Sometimes. As described above, the relationship between the dispersion state of the abrasive grains 12 and 12 on the grinding surface and the occurrence of clogging is complicated, and it is necessary to grasp all the abrasive grains that cause clogging even when analyzing individual abrasive grains. It is difficult.

これに対しこの発明の一実施形態では、実際に目詰まりが発生した部位を検出して、それに対応する砥粒12,12の分布状態を研削性能低下要因として抽出し、この加工前の画像と当該画像に含まれる砥粒12,12およびその分散状態の特徴量を説明変数として学習器に学習させるようにしている。従って、この学習器を用いて研削工具の加工前または加工中の砥面を評価する際に、目詰まりの発生要因となる砥粒12,12の分布状態を簡単かつ漏れなく検出することが可能となる。   On the other hand, in one embodiment of the present invention, a portion where clogging actually occurs is detected, and the distribution state of the abrasive grains 12 and 12 corresponding thereto is extracted as a factor for lowering the grinding performance. The learning device learns the abrasive grains 12, 12 contained in the image and the feature amount of the dispersed state as explanatory variables. Therefore, when evaluating the grinding surface before or during machining of the grinding tool using this learning device, it is possible to easily and completely detect the distribution state of the abrasive grains 12, 12 which causes clogging. Becomes

一方、研削性能低下要因の一つとして、砥粒の突出高さが結合剤表面とほぼ同じ高さになって加工時に加工物表面が結合剤上を滑る、いわゆる上滑り現象を起こす部位がある。図19はその一例を示すもので、(a)は砥粒12,12の分散状態を示す平面図、(b)はその側面図である。   On the other hand, as one of the factors for reducing the grinding performance, there is a portion where the protrusion height of the abrasive grains becomes almost the same as the surface of the binder and the surface of the workpiece slides on the binder at the time of processing, which causes a so-called upward sliding phenomenon. FIGS. 19A and 19B show an example thereof, wherein FIG. 19A is a plan view showing a dispersion state of the abrasive grains 12, 12, and FIG. 19B is a side view thereof.

一般に、研削工具の砥面は、加工過程において削り屑等により結合剤11の表面が削り取られるため結合剤面に対する砥粒の突出高さが大きくなる。また、ドレッシングにより結合剤の表面を削ることでも砥粒の突出高さは大きくなる。しかし、例えば図19(a)に示すように砥面の砥粒分布が密な部位は、結合剤11が削り取られ難い。このため、ツル―イング等によって工具中心または基準面から砥粒最上面までの高さを一定に維持したとしても、例えば図19(b)に示すように結合剤11の表面からの砥粒12,12の突き出し量は小さくなる。この状態で、さらに加工を続け、砥粒12,12の摩耗が進行すると、砥粒12,12の最上面と結合剤11の表面との高さが例えば図20に示すようにほぼ同一になってしまい、この状態で加工を行うと、結合剤11が加工物表面を滑る上滑り現象が発生し、加工精度が著しく低下する。   In general, on the grinding surface of the grinding tool, since the surface of the binder 11 is scraped off by shavings or the like in a machining process, the protruding height of the abrasive grains with respect to the binder surface increases. Also, the protruding height of the abrasive grains is increased by shaving the surface of the binder by dressing. However, for example, as shown in FIG. 19 (a), the binder 11 is hard to be scraped off at a portion where the abrasive grain distribution on the abrasive surface is dense. For this reason, even if the height from the tool center or the reference plane to the uppermost surface of the abrasive grains is kept constant by tooling or the like, the abrasive grains 12 from the surface of the binder 11 as shown in FIG. , 12 are small. In this state, further processing is continued, and as the wear of the abrasive grains 12, 12 progresses, the height of the uppermost surface of the abrasive grains 12, 12 and the surface of the binder 11 become substantially the same as shown in FIG. 20, for example. If processing is performed in this state, the binder 11 slips on the surface of the workpiece, causing a slip phenomenon, and the processing accuracy is significantly reduced.

これに対しこの発明の一実施形態では、学習フェーズにおいて、上記砥面12,12の上滑り発生部位を劣化部位として検出し、この劣化部位に対応する加工前の部位の画像を抽出して、この加工前の画像と当該画像に含まれる砥粒12,12およびその分散状態の特徴量を学習器に説明変数の一つとして与え学習を行わせている。従って、この学習器を用いて加工前または加工中の研削工具の砥面を評価することで、上記研削工具の砥面の上滑り発生部位を漏れなく検出することが可能となる。   On the other hand, in the embodiment of the present invention, in the learning phase, the upper slip occurrence portion of the grinding surfaces 12 and 12 is detected as a deteriorated portion, and an image of a portion before machining corresponding to the deteriorated portion is extracted. The image before processing, the abrasive grains 12, 12 contained in the image, and the feature amount of the dispersed state are given to the learning device as one of explanatory variables, and learning is performed. Therefore, by evaluating the grinding surface of the grinding tool before or during machining by using the learning device, it is possible to detect the occurrence of slippage of the grinding tool on the grinding surface without omission.

[他の実施形態]
前記一実施形態では、研削工具としてリング状円盤型砥石を適用した場合を例にとって説明したが、図17に示すように円筒または円柱体の周面に砥粒12,12を散設した円筒状砥石にもこの発明は適用可能である。また、研削工具の別の例として、図16に示すようなワイヤ型砥石にこの発明を適用してもよい。図16に例示したワイヤ型砥石はダイヤモンドワイヤの例であり、(a)は砥粒の分散が粗なワイヤ表面を、(b)は砥粒の分散が密なワイヤ表面をそれぞれ示す。なお、ワイヤ型砥石の砥面の画像データを取得する場合には、ワイヤ型砥石を直線状に移動させながらカメラで砥面を撮像する。この場合、ワイヤ型砥石を固定しカメラの位置を移動させることで砥面を撮像することも可能である。
[Other embodiments]
In the above-described embodiment, a case where a ring-shaped disc-type grindstone is applied as a grinding tool has been described as an example. However, as shown in FIG. The present invention is also applicable to grinding wheels. Further, as another example of the grinding tool, the present invention may be applied to a wire-type grindstone as shown in FIG. The wire-type grindstone illustrated in FIG. 16 is an example of a diamond wire, in which (a) shows a wire surface with coarse abrasive grains dispersed, and (b) shows a wire surface with fine abrasive grains dispersed. When acquiring the image data of the grinding surface of the wire grindstone, the camera captures an image of the grinding surface while moving the wire grindstone linearly. In this case, it is also possible to image the grinding surface by fixing the wire-type grindstone and moving the position of the camera.

また、学習器としては、畳込みニューラルネットワーク(CNN)の他に、多層構造を有する一般的な順伝播型ニューラルネットワークや、サポートベクタマシン、自己組織型マップ、強化学習により学習を行う学習器、再起型ニューラルネットワークを用いることが可能である。また、いずれの学習器であっても、中間層の数や各層におけるニューロンの個数、ニューロン同士の結合関係、およびニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。   In addition to the convolutional neural network (CNN), a general forward-propagation type neural network having a multilayer structure, a support vector machine, a self-organizing map, a learning device for learning by reinforcement learning, It is possible to use a recurrent neural network. In any learning device, the number of hidden layers, the number of neurons in each layer, the connection relationship between neurons, and the transfer function of neurons may be appropriately determined according to the embodiment.

また、一実施形態では、学習器の学習を実行するための機能と、学習済の学習器を用いて研削工具の砥面の評価を行う機能を、1台の研削工具砥面評価装置内に設けた場合を例にとって説明した。しかしこれに限らず、例えば学習器の学習を実行するための機能をクラウド上のコンピュータに設け、研削工具の砥面の評価を行う機能を工場等の現場に配置された制御装置等に設け、クラウド上のコンピュータにより学習された学習器の学習用パラメータを、制御装置に伝送してその学習器に設定するように構成してもよい。   In one embodiment, a function for executing learning of the learning device and a function of evaluating the grinding surface of the grinding tool using the learned learning device are provided in one grinding tool grinding surface evaluation device. The description has been made by taking the case of providing as an example. However, the invention is not limited to this.For example, a function for performing learning of a learning device is provided in a computer on a cloud, and a function of evaluating a grinding surface of a grinding tool is provided in a control device or the like disposed on a site such as a factory, The learning parameter of the learning device learned by the computer on the cloud may be transmitted to the control device and set in the learning device.

その他、学習器に教師データとして与えるデータの種類や構成、学習器に学習データとして与える砥面画像や砥粒の特徴量等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。   In addition, the type and configuration of data to be provided as learning data to the learning device, and the characteristics of the abrasive surface image and abrasive grains to be provided to the learning device as learning data can be variously modified without departing from the gist of the present invention. .

以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。   As described above, the embodiments of the present invention have been described in detail. However, the above description is merely an example of the present invention in every respect. It goes without saying that various improvements and modifications can be made without departing from the scope of the invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be appropriately adopted.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements in an implementation stage without departing from the scope of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.

1…研削工具、2…回転機構、3,4…XYテーブル、5…支柱、6…アーム、7…カメラ、8…研削工具砥面評価装置、11…結合剤、12…砥粒、21…θ軸駆動部、22…X軸駆動部、23…Y軸駆動部、24…Z軸駆動部、25…入力デバイス、26…表示デバイス、81…制御ユニット、82…記憶ユニット、83…入出力インタフェースユニット、811…位置座標制御部、812…画像データ取得部、813…劣化部位検出部、814…研削性能低下要因抽出部、815…特徴量算出部、816…教師データ生成部、817…学習器生成部、818…研削性能低下要因評価部、819…評価データ出力部、821…画像データ記憶部、822…劣化情報記憶部、823…低下要因情報記憶部、824…教師データ記憶部、825…学習済データ記憶部、826…評価データ記憶部。   DESCRIPTION OF SYMBOLS 1 ... Grinding tool, 2 ... Rotating mechanism, 3, 4 ... XY table, 5 ... Support, 6 ... Arm, 7 ... Camera, 8 ... Grinding tool grinding surface evaluation device, 11 ... Binder, 12 ... Abrasives, 21 ... θ-axis drive unit, 22: X-axis drive unit, 23: Y-axis drive unit, 24: Z-axis drive unit, 25: input device, 26: display device, 81: control unit, 82: storage unit, 83: input / output Interface unit, 811: Position coordinate control unit, 812: Image data acquisition unit, 813: Degraded site detection unit, 814: Grinding performance reduction factor extraction unit, 815: Feature amount calculation unit, 816: Teacher data generation unit, 817: Learning Generator generation unit, 818: grinding performance reduction factor evaluation unit, 819 ... evaluation data output unit, 821 ... image data storage unit, 822 ... deterioration information storage unit, 823 ... reduction factor information storage unit, 824 ... teacher data storage unit, 82 ... learned data storage unit, 826 ... evaluation data storage unit.

上記課題を解決するためにこの発明に係る研削工具砥面評価装置の第1の態様は、研削工具を予め定められた方向へ移動させながら、前記研削工具の複数の砥粒が分散された状態で結合剤により固着された砥面を撮像して得られる画像データを取得する画像取得部と、前記画像取得部により、前記研削工具の加工開始前に取得された画像データを記憶媒体に記憶させる記憶制御部と、前記画像取得部により前記研削工具の加工開始後に取得された画像データから前記研削工具の前記砥面における劣化部位を表す情報を検出する検出部と、前記記憶媒体に記憶された加工開始前の画像データから前記劣化部位と位置が対応する加工前の部位の画像を研削性能低下要因を表す情報として抽出する抽出部とを備え、前記抽出部において、前記研削性能低下要因を表す情報として抽出された、前記劣化部位と位置が対応する加工前の部位の画像から当該画像に含まれる砥粒の前記研削工具の移動方向が反映された特徴量を算出し、算出された前記特徴量を前記研削性能低下要因を表す情報に含めるようにしたものである。 In order to solve the above-mentioned problems, a first aspect of a grinding tool grinding surface evaluation device according to the present invention is a state in which a plurality of abrasive grains of the grinding tool are dispersed while moving the grinding tool in a predetermined direction. And an image acquisition unit that acquires image data obtained by imaging the grinding surface fixed by the binder, and stores the image data acquired before the start of machining of the grinding tool by the image acquisition unit in a storage medium. A storage control unit, a detection unit that detects information indicating a deteriorated portion on the grinding surface of the grinding tool from image data acquired after the processing of the grinding tool by the image acquisition unit, and a storage unit that is stored in the storage medium. a extraction unit for extracting an image of a site before machining position and the deteriorated portion from image data before processing starts corresponding as information representing the grinding performance degradation factor in the extraction section, the grindability From the image of the unprocessed part corresponding to the deteriorated part and the position extracted as information representing the cause of the decrease, a feature amount in which the moving direction of the grinding tool of the abrasive contained in the image is reflected is calculated and calculated. The obtained feature amount is included in the information representing the grinding performance reduction factor .

また、第1および第2の態様によれば、研削性能低下要因となる砥粒の研削工具の移動方向が反映された特徴量が算出され、この特徴量が上記研削性能低下要因を表す情報に追加される。このため、研削性能低下要因となる砥粒の分布状態を、画像だけでなくその特徴量によっても表すことができ、これにより研削性能低下要因をさらに精度良く表すことが可能となる。 Further , according to the first and second aspects, a feature amount reflecting the moving direction of the grinding tool of the abrasive grain, which is a factor of reducing the grinding performance, is calculated. Will be added. For this reason, the distribution state of the abrasive grains, which is a cause of the decrease in the grinding performance, can be represented not only by the image but also by the feature amount thereof, whereby the cause of the decrease in the grinding performance can be represented with higher accuracy.

この発明に係る研削工具砥面評価装置の第3の態様は、学習器に、前記研削性能低下要因を表す情報を学習データとしかつ前記砥面の劣化部位を表す情報を教師データとして与えることで前記学習器を学習させる学習器生成部を、さらに具備するものである。 A third aspect of the grinding tool grinding surface evaluation device according to the present invention is to provide a learning device with information representing the grinding performance degradation factor as learning data and information representing a deteriorated portion of the grinding surface as teacher data. The apparatus further includes a learning device generation unit for learning the learning device.

第3の態様によれば、前記研削性能低下要因を表す情報を学習データ(説明変数)としかつ前記砥面の劣化部位の状態を表す情報を教師データ(目的変数)として学習器で学習処理が行われる。このため、研削性能低下要因を表す情報を入力すると、砥面の劣化部位の状態を表す情報を出力する学習器を生成することができる。 According to the third aspect, the learning processing is performed by the learning device using the information indicating the grinding performance deterioration factor as learning data (explanatory variable) and the information indicating the state of the deteriorated portion of the grinding surface as teacher data (objective variable). Done. For this reason, when the information indicating the grinding performance deterioration factor is input, a learning device that outputs information indicating the state of the deteriorated portion of the grinding surface can be generated.

上記学習器生成部として、この発明では例えば以下の第4、第5及び第6の態様が考えられる。
第4の態様は、前記学習器に、前記砥面の劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして与え、かつ前記劣化部位を表す画像を前記教師データとして与えることにより、前記学習器を学習させるものである。
In the present invention, for example, the following fourth, fifth, and sixth aspects can be considered as the learning unit generation unit.
A fourth aspect is to provide the learning device with, as the learning data, an image including an unprocessed part corresponding to a deteriorated part and a position of the grinding surface, and the feature amount of abrasive grains included in the image, and The learning device is made to learn by giving an image representing the deteriorated part as the teacher data.

第4の態様によれば、砥面の劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の特徴量を入力すると、上記加工前の部位が劣化した状態を示す画像を出力する学習器を生成することができる。 According to the fourth aspect, when the image including the unprocessed portion whose position corresponds to the deteriorated portion of the grinding surface and the feature amount of the abrasive grains included in the image are input, the state in which the unprocessed portion is deteriorated is input. It is possible to generate a learning device that outputs the image shown.

第5の態様は、前記学習器に、前記劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして与え、かつ前記劣化部位と位置が対応する加工前の部位を表す画像を前記教師データとして与えることにより、前記学習器を学習させるものである。 In a fifth aspect, the learning device is configured to provide, as the learning data, an image including a part before processing whose position corresponds to the deteriorated part and the feature amount of abrasive grains included in the image, and The learning device is made to learn by giving, as the teacher data, an image representing a part before processing corresponding to a position.

第5の態様によれば、砥面の劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の特徴量を入力すると、上記劣化部位と位置が対応する加工前の部位を表す画像を出力する学習器を生成することができる。 According to the fifth aspect, when the image including the unprocessed portion corresponding to the deteriorated portion and the position of the abrasive surface and the feature amount of the abrasive grains included in the image are input, the unprocessed portion corresponds to the deteriorated portion and the position. Can be generated.

第6の態様は、前記学習器に、前記劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして与え、かつ前記劣化部位と位置が対応する加工前の部位が研削性能低下要因となる度合いを示す数値データを前記教師データとして与えることにより、前記学習器を学習させるものである。 In a sixth aspect, the learning device is configured to provide, as the learning data, an image including a part before processing whose position corresponds to the deteriorated part and the feature amount of abrasive grains included in the image, and The learning device is made to learn by giving, as the teacher data, numerical data indicating the degree to which the portion before processing corresponding to the position causes the grinding performance to be reduced.

第6の態様によれば、劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量を前記学習データとして入力すると、前記加工前の部位が研削性能低下要因となる度合いを示す数値データを出力する学習器を生成することができる。 According to the sixth aspect, when the image including the unprocessed part corresponding to the deteriorated part and the position and the feature amount of the abrasive grains included in the image are input as the learning data, the part before the processing becomes the grinding performance. It is possible to generate a learning device that outputs numerical data indicating the degree of reduction.

この発明に係る研削工具砥面評価装置の第7の態様は、前記研削工具の加工開始前または加工開始後において前記画像取得部により取得された画像データを前記学習器に入力し、このとき当該学習器から出力される前記砥面の劣化部位を表す情報を、前記研削工具の砥面の評価結果を表す情報として出力する評価部を、さらに具備するものである。 In a seventh aspect of the grinding tool grinding surface evaluation device according to the present invention, the image data acquired by the image acquisition unit is input to the learning device before or after the machining of the grinding tool is started. The information processing apparatus further includes an evaluation unit that outputs information representing a deteriorated portion of the grinding surface output from the learning device as information representing an evaluation result of the grinding surface of the grinding tool.

第7の態様によれば、研削工具の加工開始前または加工開始後において取得された画像データを前記学習器に入力するだけで、当該学習器から前記砥面の劣化部位を表す情報が前記研削工具の砥面の評価結果を表す情報として出力される。すなわち、学習器を使用することで、加工開始前または加工開始後において砥面の研削性能低下要因となる表面性状を、短時間にかつ精度良く事前に評価することが可能となる。このため、評価担当者は、上記出力された評価結果をもとに上記研削工具の出荷前又は使用開始後の品質管理を行うことが可能となる。 According to the seventh aspect, just by inputting the image data acquired before or after the processing of the grinding tool to the learning device, the information indicating the deteriorated portion of the grinding surface is obtained from the learning device by the grinding device. The information is output as information indicating the evaluation result of the grinding surface of the tool. In other words, by using the learning device, it is possible to evaluate the surface texture that is a cause of a decrease in the grinding performance of the grinding surface before and after the processing is started in a short time and with high accuracy. For this reason, the person in charge of evaluation can perform quality control before shipping or after starting use of the grinding tool based on the output evaluation result.

この発明に係る研削工具砥面評価装置の第8の態様は、前記評価部において、前記学習器から出力される前記砥面の劣化部位を表す情報をもとに、当該劣化部位の、前記研削工具の砥面の全領域における前記研削工具の移動方向の分布状態を表す可視化画像を生成して出力するようにしたものである。 An eighth aspect of the grinding tool grinding surface evaluation apparatus according to the present invention, in the evaluation unit, based on the information representing the deteriorated portion of the grinding surface output from the learning device, the grinding portion of the deteriorated portion, A visualized image representing the distribution of the moving direction of the grinding tool in the entire area of the grinding surface of the tool is generated and output.

第8の態様によれば、研削性能の低下要因となることが予想される部位の砥面全領域における移動方向の分布状態を表す可視化画像が生成され出力される。このため、研削工具の製造管理者又は研削工具の使用管理者は、研削工具ごとにその砥面の研削性能低下要因となる部位の分布状態を、砥面の全領域に渡りかつ研削工具の移動方向に沿って容易にかつ短時間に把握することが可能となる。 According to the eighth aspect, a visualized image representing the distribution state of the movement direction in the entire area of the grinding surface of the portion expected to be a cause of deterioration in grinding performance is generated and output. For this reason, the production manager of the grinding tool or the manager of the use of the grinding tool determines, for each grinding tool, the distribution state of the portion that causes a reduction in the grinding performance of the grinding surface over the entire area of the grinding surface and moves the grinding tool. It is possible to easily and quickly grasp along the direction.

この発明に係る研削工具砥面評価装置の第9の態様は、前記評価部において、前記学習器から出力される前記砥面の劣化部位を表す情報をもとに、前記研削工具のドレッシングの時期を推定し、その推定結果を表す情報を出力するようにしたものである。 In a ninth aspect of the grinding tool grinding surface evaluation device according to the present invention, in the evaluation unit, the dressing time of the grinding tool is determined based on information indicating a deteriorated portion of the grinding surface output from the learning device. Is estimated, and information representing the estimation result is output.

第9の態様によれば、評価部から研削工具のドレッシングの時期の推定情報が出力される。このため、例えば、研削工具の製造管理者又は研削工具の使用管理者は、上記推定情報をもとに研削工具の出荷検定を行ったり、研削工具のドレッシング時期を管理することが可能となる。 According to the ninth aspect, the estimation unit outputs the estimation information of the dressing time of the grinding tool. For this reason, for example, the manufacturing manager of the grinding tool or the manager of the use of the grinding tool can perform the shipping verification of the grinding tool and manage the dressing time of the grinding tool based on the estimated information.

Claims (13)

研削工具を予め定められた方向へ移動させながら、前記研削工具の複数の砥粒が分散された状態で結合剤により固着された砥面を撮像して得られる画像データを取得する画像取得部と、
前記画像取得部により前記研削工具の加工前に取得された画像データを記憶媒体に記憶させる記憶制御部と、
前記画像取得部により前記研削工具の加工後に取得された画像データから、前記研削工具の前記砥面における劣化部位の状態を表す情報を検出する検出部と、
前記記憶媒体に記憶された加工前の画像データから、前記劣化部位と位置が対応する加工前の画像を研削性能低下要因を表す情報として抽出する抽出部と
を具備する研削工具砥面評価装置。
While moving the grinding tool in a predetermined direction, an image acquisition unit that acquires image data obtained by imaging a grinding surface fixed by a binder in a state where a plurality of abrasive grains of the grinding tool are dispersed. ,
A storage control unit that stores image data acquired before the grinding tool is processed by the image acquisition unit in a storage medium,
From the image data acquired after the processing of the grinding tool by the image acquisition unit, a detection unit that detects information indicating a state of a deteriorated portion on the grinding surface of the grinding tool,
An extraction unit configured to extract, from the image data before processing stored in the storage medium, an image before processing corresponding to the deteriorated portion and the position as information indicating a factor of a decrease in grinding performance, a grinding tool grinding surface evaluation apparatus.
前記検出部は、前記研削工具の加工後に取得された画像データから、前記砥面における砥粒の目詰まり、砥粒の目毀れ、および結合剤からの砥粒の突出量が閾値以下となる上滑り発生部位の少なくとも一つを表す画像を、前記劣化部位の状態を表す情報として検出する、請求項1に記載の研削工具砥面評価装置。   The detection unit detects, from the image data obtained after the processing of the grinding tool, clogging of the abrasive grains on the grinding surface, damage of the abrasive grains, and slippage of the projection of the abrasive grains from the binder below a threshold value. The grinding tool grinding surface evaluation device according to claim 1, wherein an image representing at least one of the occurrence sites is detected as information indicating a state of the deteriorated site. 前記抽出部は、前記研削性能低下要因を表す情報として抽出された、前記劣化部位と位置が対応する加工前の画像から、当該加工前の画像に含まれる砥粒の前記研削工具の移動方向が反映された特徴量を算出し、当該特徴量を前記研削性能低下要因を表す情報に含める、請求項1又は2に記載の研削工具砥面評価装置。   The extraction unit, extracted as information representing the grinding performance reduction factor, from the image before processing corresponding to the deteriorated site and position, the moving direction of the grinding tool of the abrasive grains included in the image before processing is The grinding tool grinding surface evaluation device according to claim 1, wherein the reflected feature amount is calculated, and the calculated feature amount is included in the information indicating the grinding performance reduction factor. 学習器に、前記研削性能低下要因を表す情報を学習データとして与えると共に前記砥面の劣化部位の状態を表す情報を教師データとして与えることで前記学習器を学習させる学習器生成部を、さらに具備する請求項1乃至3のいずれかに記載の研削工具砥面評価装置。   The learning device further includes a learning device generation unit that learns the learning device by providing information representing the grinding performance deterioration factor as learning data and providing information representing the state of the deteriorated portion of the grinding surface as teacher data to the learning device. The grinding tool grinding surface evaluation device according to any one of claims 1 to 3. 前記学習器生成部は、前記学習器に、前記劣化部位と位置が対応する加工前の画像および当該画像に含まれる砥粒の前記特徴量の少なくとも一方を前記学習データとして与え、かつ前記劣化部位を表す画像を前記教師データとして与えることにより、前記学習器を学習させる、請求項4に記載の研削工具砥面評価装置。   The learning device generation unit, to the learning device, at least one of an unprocessed image corresponding to the position of the degraded portion and the position and the feature amount of abrasive grains included in the image are provided as the learning data, and the degraded portion is provided. The grinding tool grinding surface evaluation device according to claim 4, wherein the learning device is made to learn by giving an image representing the following as the teacher data. 前記学習器生成部は、前記学習器に、前記劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量の少なくとも一方を前記学習データとして与え、かつ前記劣化部位と位置が対応する加工前の部位を表す画像を前記教師データとして与えることにより、前記学習器を学習させる、請求項4に記載の研削工具砥面評価装置。   The learning device generation unit, as the learning data, the learning device is provided with at least one of the image including the unprocessed part corresponding to the position of the deteriorated part and the position and the feature amount of the abrasive grains included in the image, and The grinding tool grinding surface evaluation device according to claim 4, wherein the learning device is made to learn by giving, as the teacher data, an image representing a part before processing in which the deteriorated part and the position correspond to each other. 前記学習器生成部は、前記学習器に、前記劣化部位と位置が対応する加工前の部位を含む画像および当該画像に含まれる砥粒の前記特徴量の少なくとも一方を前記学習データとして与え、かつ前記劣化部位と位置が対応する加工前の部位が研削性能低下要因となる度合いを示す数値データを前記教師データとして与えることにより、前記学習器を学習させる、請求項4に記載の研削工具砥面評価装置。   The learning device generation unit, as the learning data, the learning device is provided with at least one of the image including the unprocessed part corresponding to the position of the deteriorated part and the position and the feature amount of the abrasive grains included in the image, and The grinding tool grinding surface according to claim 4, wherein the learning device is made to learn by giving, as the teacher data, numerical data indicating a degree at which a part before processing corresponding to the deteriorated part and the position corresponds to a grinding performance reduction factor. Evaluation device. 前記研削工具の加工開始前または加工開始後において前記画像取得部により取得された画像データを前記学習器に入力し、このとき当該学習器から出力される前記砥面の劣化部位を表す情報を、前記研削工具の砥面の評価結果を表す情報として出力する評価部を、さらに具備する請求項4に記載の研削工具砥面評価装置。   Input the image data acquired by the image acquisition unit before or after machining of the grinding tool to the learning device, and at this time, information indicating the deteriorated portion of the grinding surface output from the learning device, The grinding tool grinding surface evaluation device according to claim 4, further comprising: an evaluation unit that outputs the information indicating the evaluation result of the grinding surface of the grinding tool. 前記評価部は、前記学習器から出力される前記砥面の劣化部位を表す情報をもとに、当該劣化部位の、前記研削工具の砥面の全領域における前記研削工具の移動方向の分布状態を表す可視化画像を生成して出力する、請求項8に記載の研削工具砥面評価装置。   The evaluation unit is based on information representing a deteriorated portion of the grinding surface output from the learning device, and the distribution of the deteriorated portion in the moving direction of the grinding tool in the entire area of the grinding surface of the grinding tool. The grinding tool grinding surface evaluation device according to claim 8, wherein a visualization image representing the is generated and output. 前記評価部は、前記学習器から出力される前記砥面の劣化部位を表す情報をもとに、前記研削工具のドレッシングの時期を推定し、その推定結果を表す情報を出力する、請求項8に記載の研削工具砥面評価装置。   The said evaluation part estimates the time of the dressing of the said grinding tool based on the information which shows the deterioration part of the said grinding surface output from the said learning device, and outputs the information showing the estimation result. A grinding tool abrasive surface evaluation device according to item 1. 請求項4乃至7のいずれかに記載の研削工具砥面評価装置が備える学習器生成部により生成された学習済の学習器。   A learned learning device generated by a learning device generation unit included in the grinding tool grinding surface evaluation device according to claim 4. 請求項1乃至請求項10のいずれかに記載の研削工具砥面評価装置が具備する前記各部の処理を、前記研削工具砥面評価装置が備えるプロセッサに実行させる研削工具砥面評価プログラム。   A grinding tool grinding surface evaluation program for causing a processor of the grinding tool grinding surface evaluation device to execute the processing of each of the units included in the grinding tool grinding surface evaluation device according to any one of claims 1 to 10. プロセッサおよび記憶媒体を備える情報処理装置が実行する研削工具砥面評価方法であって、
加工開始前の研削工具を予め定められた第1の方向へ移動させながら、前記研削工具の複数の砥粒が分散された状態で結合剤により固着された砥面を撮像して得られる第1の画像データを取得し、当該第1の画像データを前記記憶媒体に記憶させる第1の取得過程と、
加工開始後の前記研削工具を前記第1の方向へ移動させながら、前記研削工具の砥面を撮像して得られる第2の画像データを取得する第2の取得過程と、
取得された前記第2の画像データから、前記前記砥面における劣化部位を表す情報を検出する検出過程と、
前記記憶媒体に記憶された第1の画像データから、検出された前記劣化部位と位置が対応する加工前の部位の画像を研削性能低下要因を表す情報として抽出する抽出過程と、
前記研削性能低下要因を表す情報を学習データとし、前記砥面の劣化部位を表す情報を教師データとして学習器を学習させる学習器生成過程と、
前記研削工具の加工開始前または加工開始後において取得された画像データを前記学習器に入力し、このとき当該学習器から出力される前記砥面の劣化部位を表す情報を、前記研削工具の砥面の評価結果を表す情報として出力する評価過程と
を具備する研削工具砥面評価方法。
A grinding tool grinding surface evaluation method executed by an information processing device including a processor and a storage medium,
While moving the grinding tool in a predetermined first direction before the start of machining, a first surface obtained by imaging a grinding surface fixed by a binder in a state in which a plurality of abrasive grains of the grinding tool are dispersed is obtained. A first obtaining step of obtaining the image data of the first type and storing the first image data in the storage medium;
A second acquisition step of acquiring second image data obtained by imaging a grinding surface of the grinding tool while moving the grinding tool in the first direction after processing is started;
From the acquired second image data, a detection step of detecting information indicating a deteriorated portion on the grinding surface,
From the first image data stored in the storage medium, an extraction step of extracting an image of a part before processing corresponding to the detected deteriorated part and the position as information representing a grinding performance reduction factor,
A learning device generation step of learning a learning device using information representing the grinding performance reduction factor as learning data, and information indicating a deteriorated portion of the grinding surface as teacher data,
Image data obtained before or after processing of the grinding tool is input to the learning device, and at this time, information indicating a deteriorated portion of the grinding surface output from the learning device is used as the grinding tool of the grinding tool. An evaluation process of outputting as information representing the evaluation result of the surface.
JP2018143709A 2018-07-31 2018-07-31 Grinding tool grinding surface evaluation device and learning device thereof, evaluation program and evaluation method Active JP6660636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018143709A JP6660636B2 (en) 2018-07-31 2018-07-31 Grinding tool grinding surface evaluation device and learning device thereof, evaluation program and evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143709A JP6660636B2 (en) 2018-07-31 2018-07-31 Grinding tool grinding surface evaluation device and learning device thereof, evaluation program and evaluation method

Publications (2)

Publication Number Publication Date
JP2020019087A true JP2020019087A (en) 2020-02-06
JP6660636B2 JP6660636B2 (en) 2020-03-11

Family

ID=69587854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143709A Active JP6660636B2 (en) 2018-07-31 2018-07-31 Grinding tool grinding surface evaluation device and learning device thereof, evaluation program and evaluation method

Country Status (1)

Country Link
JP (1) JP6660636B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6887070B1 (en) * 2021-02-26 2021-06-16 Dmg森精機株式会社 Machine tools, display control methods, and display control programs
CN113369979A (en) * 2021-06-12 2021-09-10 杭州职业技术学院 Online monitoring numerical control lathe cooling system based on cloud computing
WO2021200654A1 (en) * 2020-04-02 2021-10-07 ファナック株式会社 Tool state learning device, tool state estimation device, control device, tool state learning method, and tool state estimation method
CN114227379A (en) * 2021-12-14 2022-03-25 东莞市巨冈机械工业有限公司 Five-axis numerical control machine tool intelligent monitoring system based on convolutional neural network
CN114239188A (en) * 2021-12-31 2022-03-25 华侨大学 Cut-in grinding theoretical model simulation prediction method
CN114491836A (en) * 2021-12-30 2022-05-13 华侨大学 Virtual diamond tool generation method based on image processing and data driving
CN114871887A (en) * 2021-12-21 2022-08-09 华海清科股份有限公司 Grinding surface shape prediction method and system using mixed kernel function and terminal equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220270939A1 (en) * 2021-02-25 2022-08-25 Taiwan Semiconductor Manufacturing Co., Ltd. System and method for controlling chemical mechanical planarization

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03239469A (en) * 1990-02-16 1991-10-25 Matsushita Electric Works Ltd Grinding device
JPH09253979A (en) * 1996-03-25 1997-09-30 Okuma Mach Works Ltd Tool edge position measuring device
JP2008122273A (en) * 2006-11-14 2008-05-29 Nikon Corp Grinding stone inspection apparatus
JP2013002810A (en) * 2011-06-10 2013-01-07 Institute Of National Colleges Of Technology Japan System and method for checking abrasive plane of abrasive tool
JP2016191648A (en) * 2015-03-31 2016-11-10 シャープ株式会社 Measuring device and measurement method
JP2018062052A (en) * 2016-10-14 2018-04-19 株式会社ディスコ Cutting method and cutting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03239469A (en) * 1990-02-16 1991-10-25 Matsushita Electric Works Ltd Grinding device
JPH09253979A (en) * 1996-03-25 1997-09-30 Okuma Mach Works Ltd Tool edge position measuring device
JP2008122273A (en) * 2006-11-14 2008-05-29 Nikon Corp Grinding stone inspection apparatus
JP2013002810A (en) * 2011-06-10 2013-01-07 Institute Of National Colleges Of Technology Japan System and method for checking abrasive plane of abrasive tool
JP2016191648A (en) * 2015-03-31 2016-11-10 シャープ株式会社 Measuring device and measurement method
JP2018062052A (en) * 2016-10-14 2018-04-19 株式会社ディスコ Cutting method and cutting device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山田 真善: ""AIを活用したリアルタイム内視鏡診断サポートシステムの開発と期待される臨床効果"", 月刊新医療, vol. 第45巻第3号, JPN6019037508, 1 March 2018 (2018-03-01), JP, pages 130 - 133, ISSN: 0004124032 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200654A1 (en) * 2020-04-02 2021-10-07 ファナック株式会社 Tool state learning device, tool state estimation device, control device, tool state learning method, and tool state estimation method
JP6887070B1 (en) * 2021-02-26 2021-06-16 Dmg森精機株式会社 Machine tools, display control methods, and display control programs
WO2022180907A1 (en) * 2021-02-26 2022-09-01 Dmg森精機株式会社 Machine tool, display control method, and display control program
JP2022131366A (en) * 2021-02-26 2022-09-07 Dmg森精機株式会社 Machine tool, display control method, and display control program
CN113369979A (en) * 2021-06-12 2021-09-10 杭州职业技术学院 Online monitoring numerical control lathe cooling system based on cloud computing
CN113369979B (en) * 2021-06-12 2022-05-17 杭州职业技术学院 Online monitoring numerically controlled lathe cooling system based on cloud computing
CN114227379A (en) * 2021-12-14 2022-03-25 东莞市巨冈机械工业有限公司 Five-axis numerical control machine tool intelligent monitoring system based on convolutional neural network
CN114871887A (en) * 2021-12-21 2022-08-09 华海清科股份有限公司 Grinding surface shape prediction method and system using mixed kernel function and terminal equipment
CN114871887B (en) * 2021-12-21 2024-01-30 华海清科股份有限公司 Grinding surface shape prediction method and system using mixed kernel function and terminal equipment
CN114491836A (en) * 2021-12-30 2022-05-13 华侨大学 Virtual diamond tool generation method based on image processing and data driving
CN114239188A (en) * 2021-12-31 2022-03-25 华侨大学 Cut-in grinding theoretical model simulation prediction method

Also Published As

Publication number Publication date
JP6660636B2 (en) 2020-03-11

Similar Documents

Publication Publication Date Title
JP6660636B2 (en) Grinding tool grinding surface evaluation device and learning device thereof, evaluation program and evaluation method
CN108500736B (en) Tool state estimation device and machine tool
US20190080446A1 (en) System and method for automated defect detection
CN109799784A (en) Cutter Abrasion detecting device, its detection method and cutter wear compensation method
Segreto et al. Machine learning for in-process end-point detection in robot-assisted polishing using multiple sensor monitoring
JP4024832B1 (en) Drill inspection apparatus, drill inspection method, and program thereof
Adibi et al. Grinding wheel loading evaluation using digital image processing
CN114571326B (en) Method, device and system for grinding deformed curved surface based on computer vision
Oo et al. Tool wear monitoring system in belt grinding based on image-processing techniques
Ismail et al. Characterization of geometrical properties of electroplated diamond tools and estimation of its grinding performance
Pilný et al. Development of on the machine process monitoring and control strategy in Robot Assisted Polishing
KR20190027741A (en) Device for machining a work-piece with a tool
JP2014113675A (en) Lens processing system, detecting method of tool replacement time, and manufacturing method of spectacle lens
CN107398778A (en) HSC Milling Tools wear vision in-situ monitor system and method
Pimenov et al. State-of-the-art review of applications of image processing techniques for tool condition monitoring on conventional machining processes
Hashmi et al. Surface Characteristics Measurement Using Computer Vision: A Review.
McDonald et al. Design and validation of a grinding wheel optical scanner system to repeatedly measure and characterize wheel surface topography
Agarwal et al. Analyzing the evolution of tool wear area in trochoidal milling of Inconel 718 using image processing methodology
Póka et al. A robust digital image processing method for measuring the planar burr length at milling
Karasawa et al. Analysis of chip shape distribution using image processing technology to estimate wearing condition of gear grinding wheel
Roberson III Sensor-based online process monitoring in advanced manufacturing
Chen et al. A new strategy for measuring the grain height uniformity of a grinding wheel
JP7345867B2 (en) Abrasive surface determination device, learning device, determination program, and abrasive surface determination method
Patel et al. Integrating intelligent machine vision techniques to advance precision manufacturing: a comprehensive survey in the context of mechatronics and beyond
Drazumeric et al. Modelling of grinding gap macro geometry and workpiece kinematics in throughfeed centreless grinding

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6660636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250