JP7356962B2 - Machine learning device and method, and film thickness measuring device and method - Google Patents

Machine learning device and method, and film thickness measuring device and method Download PDF

Info

Publication number
JP7356962B2
JP7356962B2 JP2020207587A JP2020207587A JP7356962B2 JP 7356962 B2 JP7356962 B2 JP 7356962B2 JP 2020207587 A JP2020207587 A JP 2020207587A JP 2020207587 A JP2020207587 A JP 2020207587A JP 7356962 B2 JP7356962 B2 JP 7356962B2
Authority
JP
Japan
Prior art keywords
film
film thickness
machine learning
image
polishing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020207587A
Other languages
Japanese (ja)
Other versions
JP2022094610A (en
Inventor
浩介 梅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP2020207587A priority Critical patent/JP7356962B2/en
Publication of JP2022094610A publication Critical patent/JP2022094610A/en
Application granted granted Critical
Publication of JP7356962B2 publication Critical patent/JP7356962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)
  • Image Analysis (AREA)

Description

本発明は、膜に形成された研磨痕を認識する機械学習モデルを機械学習する機械学習装置および機械学習方法ならびにこの機械学習装置および機械学習方法を用いた、膜厚を測定する膜厚測定装置および膜厚測定方法に関する。 The present invention provides a machine learning device and a machine learning method for machine learning a machine learning model for recognizing polishing marks formed on a film, and a film thickness measuring device for measuring film thickness using the machine learning device and machine learning method. and a method for measuring film thickness.

部材に膜を付けた場合、所定の膜厚で形成されていないと、部材に膜を付けた目的が果たせなくなる。このため、膜厚が測定される。この膜厚を測定する方法の1つとして、例えば、非特許文献1に開示された膜厚測定方法がある。この非特許文献1には、膜にボールによって形成された研磨痕から膜厚を求める、いわゆるカロテストが開示されている。 When a film is attached to a member, if the film is not formed to a predetermined thickness, the purpose of attaching the film to the member will not be achieved. Therefore, the film thickness is measured. One method for measuring this film thickness is, for example, a film thickness measuring method disclosed in Non-Patent Document 1. This non-patent document 1 discloses a so-called calo test in which the film thickness is determined from polishing marks formed on the film by a ball.

M G Gee、et al.、“Ball Createring or Micro-Abrasion Wear Testing of Coatings”、Measurement Good Practice Guide No 57、[令和2年9月15日検索]、インターネット<URL:http://eprintsublications.npl.co.uk/2545/1/mgpg57.pdf>M. G. Gee, et al. , “Ball Creating or Micro-Abrasion Wear Testing of Coatings”, Measurement Good Practice Guide No. 57, [Searched on September 15, 2020], Internet < URL: ht tp://eprintsubscriptions. npl. co. uk/2545/1/mgpg57. pdf>

ところで、前記非特許文献1に開示された膜厚測定方法では、研磨痕が必ずしも真円ではなく歪む等の様々なケースがあるため、光学顕微鏡を用いて得られた研磨痕の画像を参照しながら前記研磨痕における外円(膜表面と研磨痕との境界線)および内円(部材と研磨痕との境界線(膜と部材との界面線))を人手によって設定し、膜厚が測定されている。このため、前記非特許文献1に開示された膜厚測定方法では、自動化が難しい。特に、生産ラインで膜厚を測定する場合、その自動化が要望されている。 By the way, in the film thickness measurement method disclosed in the above-mentioned Non-Patent Document 1, there are various cases in which the polishing marks are not necessarily perfect circles and are distorted. The outer circle (the boundary line between the film surface and the polishing marks) and the inner circle (the boundary line between the member and the polishing marks (the interface line between the film and the member)) of the polishing marks were manually set, and the film thickness was measured. has been done. For this reason, automation is difficult with the film thickness measuring method disclosed in Non-Patent Document 1. In particular, when measuring film thickness on a production line, automation is desired.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、膜厚測定の自動化を可能とする機械学習装置および機械学習方法、ならびに、機械学習装置および機械学習方法を備えた、膜厚を測定する膜厚測定装置および膜厚測定方法を提供することである。 The present invention was made in view of the above-mentioned circumstances, and its purpose is to provide a machine learning device and a machine learning method that enable automation of film thickness measurement, and a machine learning device and a machine learning method equipped with the machine learning device and the machine learning method. An object of the present invention is to provide a film thickness measuring device and a film thickness measuring method for measuring film thickness.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる機械学習装置は、学習データを取得する学習データ取得部と、前記学習データ取得部で取得した学習データに基づいて機械学習モデルを機械学習する機械学習実施部とを備え、前記機械学習モデルは、所定の部材の表面上に形成された膜の表面に球面研磨法によって研磨痕を形成した後における、前記研磨痕における膜部分および前記研磨痕における部材部分を識別し、前記学習データは、前記研磨痕を含むように前記膜を撮像した膜画像と、前記膜画像の画素ごとに対応付けられた教師データとを含み、前記教師データは、前記研磨痕における膜部分であることを表す第1解答、および、前記研磨痕における部材部分であることを表す第2解答を含む。 As a result of various studies, the present inventors have found that the above object can be achieved by the following present invention. That is, a machine learning device according to one aspect of the present invention includes a learning data acquisition unit that acquires learning data, and a machine learning implementation unit that performs machine learning on a machine learning model based on the learning data acquired by the learning data acquisition unit. The machine learning model identifies a film part in the polishing mark and a member part in the polishing mark after the polishing mark is formed on the surface of a film formed on the surface of a predetermined member by a spherical polishing method. The learning data includes a film image obtained by capturing the film to include the polishing marks, and teacher data associated with each pixel of the film image, and the training data includes a film image in the polishing marks. It includes a first answer indicating that it is a part, and a second answer indicating that it is a part of the member in the polishing mark.

このような機械学習装置は、研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを生成する。このため、膜厚測定装置がこの機械学習装置を備えることによって、研磨痕を含むように、測定対象の膜を撮像した対象画像から、前記機械学習装置で機械学習された機械学習モデルを用いることにより、研磨痕における膜部分および前記研磨痕における部材部分を自動的に識別でき、この識別結果に基づいて、例えばいわゆるカロテストの膜厚演算方法によって膜厚を演算できる。したがって、上記機械学習装置は、膜厚測定の自動化を可能とする。 Such a machine learning device generates a machine learning model that identifies a film part in a polishing mark and a member part in the polishing mark. For this reason, by including the machine learning device in the film thickness measuring device, it is possible to use a machine learning model machine learned by the machine learning device from a target image taken of the film to be measured so as to include polishing marks. Accordingly, the film portion in the polishing mark and the member part in the polishing mark can be automatically identified, and based on the identification result, the film thickness can be calculated by, for example, the so-called Calotest film thickness calculation method. Therefore, the machine learning device described above enables automation of film thickness measurement.

他の一態様では、上述の機械学習装置において、前記機械学習モデルは、前記膜画像の画素ごとに対応付けられた複数の画素を備え、前記研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示した識別結果画像を出力する。好ましくは、上述の機械学習装置において、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率および前記研磨痕における部材部分の第2正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 In another aspect, in the above machine learning device, the machine learning model includes a plurality of pixels associated with each pixel of the film image, and the machine learning model includes a plurality of pixels associated with each pixel of the film image, and a film portion in the polishing mark and a member part in the polishing mark. Identification result images displayed in mutually different manners are output. Preferably, in the above-mentioned machine learning device, the machine learning model uses a first correct probability of a film portion in the polishing mark and a second correct probability of a member part in the polishing mark as a label, as the identification result. By determining each of a plurality of pixels associated with each pixel of an image, determining the maximum label at the pixel for each of the plurality of pixels, and displaying the pixel in a manner corresponding to the determined maximum label. , generate and output the identification result image.

このような機械学習装置は、研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示するので、識別結果画像を参照することで、視覚的に、前記膜部分と前記部材部分とを識別できる。 Such a machine learning device displays the film part in the polishing mark and the member part in the polishing mark in different ways, so by referring to the identification result image, it is possible to visually distinguish between the film part and the member part. can be identified.

他の一態様では、上述の機械学習装置において、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに識別し、前記教師データは、前記部材の表面から剥離した膜の剥離部分であることを表す第3解答をさらに含み、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに異なる態様で表示した識別結果画像を出力する。好ましくは、上述の機械学習装置において、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率および前記部材の表面から剥離した膜の剥離部分の第3正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。好ましくは、上述の機械学習装置において、前記機械学習モデルは、前記膜の表面部分をさらに識別し、前記教師データは、前記膜の表面部分であることを表す第4解答をさらに含み、前記機械学習モデルは、前記膜の表面部分をさらに異なる態様で表示した識別結果画像を出力する。好ましくは、上述の機械学習装置において、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率、前記部材の表面から剥離した膜の剥離部分の第3正解確率および前記膜の表面部分の第4正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。好ましくは、上述の機械学習装置において、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分を、前記研磨痕の外側に形成された外側隔離部分と前記研磨痕内に形成された内側隔離部分とにさらに識別し、前記第3解答は、前記外側剥離部分であることを表す第3A解答および前記内側剥離部分であることを表す第3B解答を備え、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに異なる態様で表示する際に、前記外側剥離部分および前記内側剥離部分をさらに異なる態様で表示した識別結果画像を出力する。好ましくは、上述の機械学習装置において、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率、前記部材の表面から剥離した膜の剥離部分における前記外側剥離部分の第3A正解確率、前記部材の表面から剥離した膜の剥離部分における前記内側剥離部分の第3B正解確率、および、前記膜の表面部分の第4正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 In another aspect, in the above-described machine learning device, the machine learning model further identifies a peeled portion of the film peeled from the surface of the member, and the training data further identifies a peeled portion of the film peeled from the surface of the member. The machine learning model outputs an identification result image in which the peeled part of the film peeled off from the surface of the member is displayed in a further different manner. Preferably, in the above-mentioned machine learning device, the machine learning model includes, as identification results, a first correct probability of a film portion in the polishing marks, a second correct probability of a member part in the polishing marks, and peeling from the surface of the member. The third correct probability of the peeled part of the film is obtained as a label for each of the plurality of pixels associated with each pixel of the film image, and for each of the plurality of pixels, the maximum label at the pixel is obtained, By displaying the pixel in a manner corresponding to the obtained maximum label, the identification result image is generated and output. Preferably, in the machine learning device described above, the machine learning model further identifies a surface portion of the membrane, the training data further includes a fourth answer indicating that the surface portion of the membrane The learning model outputs identification result images that display the surface portion of the membrane in further different ways. Preferably, in the above machine learning device, the machine learning model includes, as identification results, a first correct probability of a film portion in the polishing mark, a second correct probability of a member part in the polishing mark, and a separation probability from the surface of the member. A third correct probability for the peeled part of the film and a fourth correct probability for the surface part of the film are obtained as labels for each of the plurality of pixels associated with each pixel of the film image, and for each of the plurality of pixels. , the maximum label for the pixel is determined, and the pixel is displayed in a manner corresponding to the determined maximum label, thereby generating and outputting the identification result image. Preferably, in the above-mentioned machine learning device, the machine learning model divides the peeled part of the film peeled from the surface of the member into an outer isolated part formed outside the polishing mark and an outer isolation part formed inside the polishing mark. and the third answer includes a 3A answer representing the outer peeled portion and a 3B answer representing the inner peeled portion, and the machine learning model further identifies the inner isolated portion. When displaying the peeled portion of the film peeled off from the surface of the member in a further different manner, an identification result image in which the outer peeled portion and the inner peeled portion are displayed in a further different manner is output. Preferably, in the above machine learning device, the machine learning model includes, as identification results, a first correct probability of a film portion in the polishing mark, a second correct probability of a member part in the polishing mark, and a separation probability from the surface of the member. 3A correct answer probability of the outer peeled part in the peeled part of the film peeled off from the surface of the member, 3B correct answer probability of the inner peeled part in the peeled part of the film peeled from the surface of the member, and 4th correct answer probability of the surface part of the film. is obtained as a label for each of a plurality of pixels associated with each pixel of the film image, and for each of the plurality of pixels, the maximum label at that pixel is obtained, and in a manner corresponding to the obtained maximum label. By displaying the pixels, the identification result image is generated and output.

このような機械学習装置では、機械学習モデルは、部材の表面から剥離した膜の剥離部分をさらに識別するので、研磨痕における膜部分および前記研磨痕における部材部分をより適切に識別できるようになる。 In such a machine learning device, the machine learning model further identifies the peeled portion of the film that has peeled off from the surface of the member, so that the film portion in the polishing trace and the member portion in the polishing trace can be more appropriately identified. .

本発明の他の一態様にかかる機械学習方法は、学習データを取得する学習データ取得工程と、前記学習データ取得工程で取得した学習データに基づいて機械学習モデルを機械学習する機械学習実施工程とを備え、前記機械学習モデルは、所定の部材の表面上に形成された膜の表面に球面研磨法によって研磨痕を形成した後における、前記研磨痕における膜部分および前記研磨痕における部材部分を識別し、前記学習データは、前記研磨痕を含むように前記膜を撮像した膜画像と、前記膜画像の画素ごとに対応付けられた教師データとを含み、前記教師データは、前記研磨痕における膜部分であることを表す第1解答、および、前記研磨痕における部材部分であることを表す第2解答を含む。 A machine learning method according to another aspect of the present invention includes a learning data acquisition step of acquiring learning data, and a machine learning implementation step of machine learning a machine learning model based on the learning data acquired in the learning data acquisition step. The machine learning model identifies a film part in the polishing mark and a member part in the polishing mark after the polishing mark is formed on the surface of a film formed on the surface of a predetermined member by a spherical polishing method. The learning data includes a film image obtained by capturing the film to include the polishing marks, and teacher data associated with each pixel of the film image, and the training data includes a film image in the polishing marks. It includes a first answer indicating that it is a part, and a second answer indicating that it is a part of the member in the polishing mark.

このような機械学習方法は、研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを生成する。このため、膜厚測定方法がこの機械学習方法を備えることによって、研磨痕を含むように、測定対象の膜を撮像した対象画像から、前記機械学習装置で機械学習された機械学習モデルを用いることにより、研磨痕における膜部分および前記研磨痕における部材部分を自動的に識別でき、この識別結果に基づいて、例えばいわゆるカロテストの膜厚演算方法によって膜厚を演算できる。したがって、上記機械学習方法は、膜厚測定の自動化を可能とする。 Such a machine learning method generates a machine learning model that identifies a film part in a polishing mark and a member part in the polishing mark. Therefore, by including this machine learning method in the film thickness measurement method, it is possible to use a machine learning model machine learned by the machine learning device from a target image taken of the film to be measured so as to include polishing marks. Accordingly, the film portion in the polishing mark and the member part in the polishing mark can be automatically identified, and based on the identification result, the film thickness can be calculated by, for example, the so-called Calotest film thickness calculation method. Therefore, the machine learning method described above enables automation of film thickness measurements.

本発明の他の一態様にかかる膜厚測定装置は、これら上述のいずれかの機械学習装置を備える、膜厚を測定する膜厚測定装置であって、前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得部と、前記画像取得部で取得した対象画像に対する識別結果画像を、前記機械学習実施部で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理部とを備える。好ましくは、上述の膜厚測定装置において、前記膜厚処理部は、カロテストの膜厚演算方法によって前記膜厚を求める。 A film thickness measuring device according to another aspect of the present invention is a film thickness measuring device that measures a film thickness and includes one of the above-mentioned machine learning devices, and is configured to an image acquisition unit that acquires a target image obtained by imaging the membrane of and a film thickness processing section that calculates the film thickness based on the identification result image. Preferably, in the above-mentioned film thickness measuring device, the film thickness processing section calculates the film thickness using a Calotest film thickness calculation method.

これによれば、上述のいずれかの機械学習装置を備えた膜厚測定装置が提供できる。このような膜厚測定装置は、研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを備えるので、膜厚の測定を自動的に実施できる。 According to this, it is possible to provide a film thickness measuring device equipped with any of the above-mentioned machine learning devices. Such a film thickness measuring device is equipped with a machine learning model that identifies a film portion in a polishing mark and a member part in the polishing mark, and therefore can automatically measure the film thickness.

他の一態様では、上述の膜厚測定装置において、前記膜厚処理部は、前記求めた識別結果画像に基づいて、研磨痕の形状に関する異常の程度を表す異常度を求め、前記求めた異常度が所定の条件を満たす場合に、前記求めた識別結果画像に基づいて前記膜厚を求める。好ましくは、上述の膜厚測定装置において、前記膜厚処理部は、前記求めた識別結果画像に基づいて、前記測定対象の膜における研磨痕に対する真円の程度を表す真円度を前記異常度として求める。好ましくは、前記膜厚処理部は、前記求めた識別結果画像における前記研磨痕の外周輪郭(膜部分の外周輪郭)および前記研磨痕の重心の位置に基づいて前記真円度を求める。 In another aspect, in the above-mentioned film thickness measuring device, the film thickness processing unit determines an abnormality degree representing the degree of abnormality regarding the shape of the polishing mark based on the determined identification result image, and When the film thickness satisfies a predetermined condition, the film thickness is determined based on the determined identification result image. Preferably, in the above-mentioned film thickness measuring device, the film thickness processing section calculates the degree of circularity representing the degree of perfect circularity with respect to polishing marks in the film to be measured based on the determined identification result image. Find it as. Preferably, the film thickness processing unit determines the roundness based on the outer peripheral contour of the polishing mark (outer peripheral contour of the film portion) and the position of the center of gravity of the polishing mark in the determined identification result image.

このような膜厚測定装置は、研磨痕の形状に関する異常の程度を表す異常度が所定の条件を満たす場合に、識別結果画像に基づいて膜厚を求めるので、演算可能な程度に適切に実施された研磨痕に対して膜厚を測定するから、信頼性の有る測定値を求めることができる。 Such a film thickness measuring device calculates the film thickness based on the identification result image when the degree of abnormality representing the degree of abnormality regarding the shape of the polishing mark satisfies a predetermined condition. Since the film thickness is measured with respect to the polishing marks, a reliable measurement value can be obtained.

他の一態様では、上述の膜厚測定装置において、前記膜厚処理部は、さらに、前記求めた異常度が所定の条件を満たさない場合に、前記求めた識別結果画像に基づいて前記膜厚を求めることができないことを外部に報知する。 In another aspect, in the above-mentioned film thickness measuring device, the film thickness processing unit further determines the film thickness based on the obtained identification result image when the obtained degree of abnormality does not satisfy a predetermined condition. inform the outside that it is not possible to request

このような膜厚測定装置は、異常度が所定の条件を満たさない場合に膜厚を求めることができないことを外部に報知するので、例えば人手で膜厚を求めることや研磨痕を再形成すること等によって、信頼性のある測定値を求めることができる。 Such a film thickness measuring device notifies the outside that the film thickness cannot be determined if the degree of abnormality does not meet a predetermined condition. Therefore, reliable measurement values can be obtained.

本発明の他の一態様にかかる膜厚測定装置は、上述の機械学習装置を備える、膜厚を測定する膜厚測定装置であって、前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得部と、前記画像取得部で取得した対象画像に対する識別結果画像を、前記機械学習実施部で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理部とを備え、前記膜厚処理部は、前記求めた識別結果画像に基づいて、前記測定対象の膜における剥離の程度を表す剥離度を求め、前記求めた剥離度が所定の第2条件を満たす場合に、前記求めた識別結果画像に基づいて前記膜厚を求める。好ましくは、上述の膜厚測定装置において、前記膜厚処理部は、前記求めた識別結果画像における剥離部分の面積、高さおよび広がりのうちの1または複数に基づいて前記剥離度を求める。好ましくは、前記膜厚処理部は、前記求めた識別結果画像における剥離部分の画素数に基づいて前記面積を求める。好ましくは、前記膜厚処理部は、前記求めた識別結果画像における研磨痕の重心の位置から、前記求めた識別結果画像における剥離部分の前記重心の位置から最も離れた画素の位置まで長さに基づいて前記高さを求める。好ましくは、前記膜厚処理部は、前記求めた識別結果画像の剥離部分における周方向での一方端の画素の位置と前記求めた識別結果画像における研磨痕の重心の位置とを結ぶ第1線分と、前記求めた識別結果画像の剥離部分における周方向での他方端の画素の位置と前記重心の位置とを結ぶ第2線分とのなす角度を、前記広がりとして求める。 A film thickness measuring device according to another aspect of the present invention is a film thickness measuring device that measures a film thickness and includes the above-mentioned machine learning device, and which images a film to be measured so as to include the polishing marks. an image acquisition unit that acquires the target image obtained by the image acquisition unit, and a recognition result image for the target image acquired by the image acquisition unit, which is obtained by using a machine learning model machine learned by the machine learning implementation unit, and a film thickness processing unit that calculates the film thickness based on the determined identification result image, and the film thickness processing unit calculates a peeling degree representing the degree of peeling in the film to be measured based on the determined identification result image, and When the obtained peeling degree satisfies a predetermined second condition, the film thickness is obtained based on the obtained identification result image. Preferably, in the film thickness measuring device described above, the film thickness processing unit determines the degree of peeling based on one or more of the area, height, and spread of the peeled portion in the determined identification result image. Preferably, the film thickness processing unit calculates the area based on the number of pixels of the peeled portion in the determined identification result image. Preferably, the film thickness processing section calculates a length from the center of gravity of the polishing mark in the obtained identification result image to the position of a pixel farthest from the center of gravity of the peeled part in the obtained identification result image. The height is determined based on the above. Preferably, the film thickness processing unit generates a first line connecting the position of a pixel at one end in the circumferential direction of the peeled portion of the determined identification result image and the position of the center of gravity of the polishing mark in the determined identification result image. and a second line segment connecting the position of the other end pixel in the circumferential direction of the peeled portion of the identified identification result image and the position of the center of gravity is determined as the spread.

このような膜厚測定装置は、測定対象の膜における剥離の程度を表す剥離度が所定の第2条件を満たす場合に、識別結果画像に基づいて膜厚を求めるので、演算可能な程度に適切に実施された研磨痕や、部材の表面上に適切に形成された膜に対して膜厚を測定するから、信頼性のある測定値を求めることができる。 Such a film thickness measuring device calculates the film thickness based on the identification result image when the degree of peeling, which represents the degree of peeling in the film to be measured, satisfies a predetermined second condition. Since the film thickness is measured on polishing marks that were previously performed or on a film that has been appropriately formed on the surface of the member, reliable measured values can be obtained.

本発明の他の一態様にかかる膜厚測定方法は、上述の機械学習方法を備える、膜厚を測定する膜測定方法であって、前記機械学習モデルは、前記膜画像の画素ごとに対応付けられた複数の画素を備え、前記研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示した識別結果画像を出力し、前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得工程と、前記画像取得工程で取得した対象画像に対する識別結果画像を、前記機械学習実施工程で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理工程とを備える。 A film thickness measuring method according to another aspect of the present invention is a film measuring method for measuring film thickness, comprising the above-mentioned machine learning method, wherein the machine learning model is configured to correlate each pixel of the film image. outputting an identification result image in which the film part in the polishing mark and the member part in the polishing mark are displayed in mutually different manners, and the film to be measured is imaged so as to include the polishing mark. an image acquisition step of acquiring a target image; and a classification result image for the target image acquired in the image acquisition step, which is obtained using a machine learning model machine learned in the machine learning implementation step, and based on the determined classification result image. and a film thickness processing step of determining the film thickness.

これによれば、上述の機械学習方法を備えた膜厚測定方法が提供できる。このような膜厚測定方法は、研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを備えるので、膜厚の測定を自動的に実施できる。 According to this, a film thickness measuring method including the above-described machine learning method can be provided. Such a film thickness measurement method includes a machine learning model that identifies a film part in a polishing mark and a member part in the polishing mark, so that the film thickness can be automatically measured.

本発明にかかる機械学習装置および機械学習方法は、膜厚測定の自動化を可能とする。本発明によれば、機械学習装置および機械学習方法を備えた、膜厚を測定する膜厚測定装置および膜厚測定方法が提供できる。 The machine learning device and machine learning method according to the present invention enable automation of film thickness measurement. According to the present invention, it is possible to provide a film thickness measuring device and a film thickness measuring method for measuring film thickness, which are equipped with a machine learning device and a machine learning method.

実施形態における、機械学習装置を備える膜厚測定装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a film thickness measuring device including a machine learning device in an embodiment. 一例として、研磨痕の画像を示す図である。As an example, it is a diagram showing an image of polishing marks. 学習データを説明するための図である。FIG. 3 is a diagram for explaining learning data. 機械学習に関する、前記膜厚測定装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the film thickness measuring device regarding machine learning. 膜厚測定に関する、前記膜厚測定装置の動作を示すフローチャートである。2 is a flowchart showing the operation of the film thickness measuring device regarding film thickness measurement. 一例として、前記膜厚測定装置による測定結果を示す図である。It is a figure which shows the measurement result by the said film thickness measuring device as an example. 膜厚測定に関する、第1変形形態の膜厚測定装置の動作を示すフローチャートである。It is a flowchart which shows the operation|movement of the film thickness measuring device of a 1st modification regarding film thickness measurement. 前記第1変形形態における異常度の演算手法を説明するための図である。It is a figure for explaining the calculation method of the abnormality degree in the said 1st modification. 第2変形形態の膜厚測定装置における剥離度の演算手法を説明するための図である。It is a figure for explaining the calculation method of the degree of peeling in the film thickness measuring device of the 2nd modification. 第3変形形態の膜厚測定装置における識別結果画像の生成手法を説明するための図である。It is a figure for demonstrating the generation method of the identification result image in the film thickness measuring device of a 3rd modification.

以下、図面を参照して、本発明の1または複数の実施形態が説明される。しかしながら、発明の範囲は、開示された実施形態に限定されない。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, one or more embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the disclosed embodiments. It should be noted that structures with the same reference numerals in each figure indicate the same structure, and the description thereof will be omitted as appropriate. In this specification, when referring to a general term, a reference numeral without a subscript is used, and when referring to an individual configuration, a reference numeral with a suffix is used.

実施形態における機械学習装置は、学習データを取得する学習データ取得部と、前記学習データ取得部で取得した学習データで機械学習モデルを機械学習する機械学習実施部とを備える。前記機械学習モデルは、所定の部材の表面上に形成された膜の表面に球面研磨法によって研磨痕を形成した後における、前記研磨痕における膜部分および前記研磨痕における部材部分を識別する。前記学習データは、前記研磨痕を含むように前記膜を撮像した膜画像と、前記膜画像の画素ごとに対応付けられた教師データとを含む。そして、前記教師データは、前記研磨痕における膜部分であることを表す第1解答、および、前記研磨痕における部材部分であることを表す第2解答を含む。このような機械学習装置を備える、膜厚を測定する膜厚測定装置は、前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得部と、前記画像取得部で取得した対象画像に対する識別結果画像を、前記機械学習実施部で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理部とを備える。以下、実施形態を、機械学習装置を備える膜厚測定装置を例に、より具体的に説明する。 A machine learning device in an embodiment includes a learning data acquisition unit that acquires learning data, and a machine learning implementation unit that performs machine learning on a machine learning model using the learning data acquired by the learning data acquisition unit. The machine learning model identifies a film part in the polishing mark and a member part in the polishing mark after the polishing mark is formed on the surface of a film formed on the surface of a predetermined member by a spherical polishing method. The learning data includes a film image obtained by capturing the film so as to include the polishing marks, and teacher data associated with each pixel of the film image. The teacher data includes a first answer indicating that the polishing mark is a film portion, and a second answer indicating that the polishing mark is a member portion. A film thickness measurement device that measures film thickness and includes such a machine learning device includes an image acquisition unit that acquires a target image of a film to be measured so as to include the polishing marks, and A film thickness processing unit that obtains a classification result image for the obtained target image using a machine learning model machine-learned by the machine learning implementation unit and obtains the film thickness based on the obtained classification result image. Hereinafter, embodiments will be described in more detail using a film thickness measuring device including a machine learning device as an example.

図1は、実施形態における、機械学習装置を備える膜厚測定装置の構成を示すブロック図である。図2は、一例として、研磨痕の画像を示す図である。図3は、学習データを説明するための図である。図3Aは、剥離の無い膜の膜画像の一例を示し、図3Bは、図3Aの膜画像に対応付けられる教師データとしての塗分け膜画像を示す。図3Cは、研磨剤等による擦傷の有る膜の膜画像の一例を示し、図3Dは、図3Cの膜画像に対応付けられる教師データとしての塗分け膜画像を示す。図3Eは、剥離の有る膜の膜画像の一例を示し、図3Fは、図3Eの膜画像に対応付けられる教師データとしての塗分け膜画像を示す。 FIG. 1 is a block diagram showing the configuration of a film thickness measuring device including a machine learning device in an embodiment. FIG. 2 is a diagram showing an image of polishing marks as an example. FIG. 3 is a diagram for explaining learning data. FIG. 3A shows an example of a film image of a film without peeling, and FIG. 3B shows a painted film image as teacher data associated with the film image of FIG. 3A. FIG. 3C shows an example of a film image of a film with scratches caused by abrasives, etc., and FIG. 3D shows a painted film image as teacher data associated with the film image of FIG. 3C. FIG. 3E shows an example of a film image of a film with peeling, and FIG. 3F shows a painted film image as teacher data associated with the film image of FIG. 3E.

実施形態における膜厚測定装置は、所定の部材の表面上に形成された膜の膜厚を測定する装置であり、前記膜の表面に球面研磨法によって研磨痕を形成し、前記研磨痕における膜部分および前記研磨痕における部材部分を識別し、前記膜部分の外周輪郭の半径(外円の半径)および前記膜部分の内周輪郭の半径(内円の半径)に基づいて、例えばいわゆるカロテストの膜厚演算方法によって前記膜厚を求める。この膜厚測定装置は、研磨痕における膜部分および前記研磨痕における部材部分を自動的に識別するために、本実施形態では、膜画像から、前記研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを機械学習する機械学習装置を備えている。前記所定の部材(母材)は、任意であり、前記膜も任意である。 The film thickness measuring device in the embodiment is a device that measures the film thickness of a film formed on the surface of a predetermined member, and forms polishing marks on the surface of the film by a spherical polishing method, and measures the thickness of the film in the polishing marks. part and the component part in the polishing trace, and based on the radius of the outer circumferential contour of the membrane part (radius of the outer circle) and the radius of the inner circumferential contour of the membrane part (radius of the inner circle), for example, the so-called Calotest The film thickness is determined by a film thickness calculation method. In this embodiment, in order to automatically identify a film portion in a polishing mark and a member part in the polishing mark, this film thickness measuring device uses a film image to identify a film part in the polishing mark and a member part in the polishing mark from a film image. It is equipped with a machine learning device that performs machine learning to create a machine learning model that identifies. The predetermined member (base material) is arbitrary, and the film is also arbitrary.

このような機械学習装置を備える膜厚測定装置Dは、例えば、図1に示すように、学習データ取得部1と、画像取得部2と、制御処理部3と、入力部4と、出力部5と、インターフェース部(IF部)6と、記憶部7とを備える。 For example, as shown in FIG. 1, a film thickness measuring device D including such a machine learning device includes a learning data acquisition section 1, an image acquisition section 2, a control processing section 3, an input section 4, and an output section. 5, an interface section (IF section) 6, and a storage section 7.

学習データ取得部1は、制御処理部3に接続され、制御処理部3の制御に従って、学習データを取得する装置である。例えば、学習データ取得部1は、外部の機器との間でデータを入出力するインターフェース回路であり、前記外部の機器は、学習データを記憶した記憶媒体である。前記記憶媒体は、例えばUSB(Universal Serial Bus)メモリおよびSDカード(登録商標)等である。あるいは、例えば、学習データ取得部1は、学習データを記録した記録媒体からデータを読み込むドライブ装置である。前記記録媒体は、例えばCD-ROM(Compact Disc Read Only Memory)、CD-R(Compact Disc Recordable)、DVD-ROM(Digital Versatile Disc Read Only Memory)およびDVD-R(Digital Versatile Disc Recordable)等のである。あるいは、例えば、学習データ取得部1は、外部の機器と通信信号を送受信する通信インターフェース回路であり、前記外部の機器は、ネットワーク(WAN(Wide Area Network、公衆通信網を含む)やLAN(Local Area Network)等)を介して前記通信インターフェース回路に接続され、学習データを管理するサーバ装置である。 The learning data acquisition unit 1 is a device that is connected to the control processing unit 3 and acquires learning data under the control of the control processing unit 3. For example, the learning data acquisition unit 1 is an interface circuit that inputs and outputs data with an external device, and the external device is a storage medium that stores learning data. The storage medium is, for example, a USB (Universal Serial Bus) memory, an SD card (registered trademark), or the like. Alternatively, for example, the learning data acquisition unit 1 is a drive device that reads data from a recording medium on which learning data is recorded. Examples of the recording medium include a CD-ROM (Compact Disc Read Only Memory), a CD-R (Compact Disc Recordable), and a DVD-ROM (Digital Versatile Disc Read Only Memory). ) and DVD-R (Digital Versatile Disc Recordable), etc. . Alternatively, for example, the learning data acquisition unit 1 is a communication interface circuit that transmits and receives communication signals to and from an external device, and the external device is connected to a network (WAN (Wide Area Network), including a public communication network) or LAN (Local). This is a server device that is connected to the communication interface circuit via an area network (such as an area network) and manages learning data.

学習データは、研磨痕を含むように膜を撮像した膜画像と、前記膜画像の画素ごとに対応付けられた教師データとを含む。学習データは、作成者が膜画像を観察して教師データを付すことによって作成される。 The learning data includes a film image obtained by capturing a film so as to include polishing marks, and teacher data associated with each pixel of the film image. The learning data is created by the creator observing the film image and adding training data.

前記膜画像の一例が、図2に示されている。図2には、48枚の膜画像が例示されている。この例では、鋼材の表面に、ダイヤモンドライクカーボン(DLC、Diamond-Like Carbon)の膜が付けられた。研磨痕は、研磨剤としてダイヤモンドペーストを塗布した直径30[mm]の鋼球を用いた、いわゆる球面研磨法で前記部材(母材)が露出するまで研磨することで、膜の表面に形成された。 An example of the membrane image is shown in FIG. 2. In FIG. 2, 48 film images are illustrated. In this example, a diamond-like carbon (DLC) film was applied to the surface of the steel material. Polishing marks are formed on the surface of the film by polishing until the member (base material) is exposed using a so-called spherical polishing method using a steel ball with a diameter of 30 [mm] coated with diamond paste as an abrasive. Ta.

前記教師データは、前記研磨痕における膜部分であることを表す第1解答、および、前記研磨痕における部材部分であることを表す第2解答を含む。本実施形態では、膜が部材の表面から剥離するケースに対処し、前記研磨痕における膜部分と、前記研磨痕における部材部分とをより適切に識別するために、前記教師データは、前記部材の表面から剥離した膜の剥離部分であることを表す第3解答をさらに含む。本実施形態では、前記研磨痕における膜部分の外周輪郭および前記膜部分の内周輪郭をより適切に識別するために、前記第3解答は、前記研磨痕の外側に形成された外側剥離部分であることを表す第3A解答および前記研磨痕内に形成された内側剥離部分であることを表す第3B解答を備える。そして、本実施形態では、前記外周輪郭や前記外側剥離部分の輪郭を明瞭化するために、前記教師データは、研磨痕の形成されていない、前記膜の表面部分であることを表す第4解答をさらに含む。このような教師データは、本実施形態では、正解の種類ごとに互いに異なる態様で塗り分けられた塗分け画像で表される。前記正解の種類は、上述から、本実施形態では、第1解答(研磨痕における膜部分)、第2解答(研磨痕における部材部分)、第3解答(剥離部分、第3A解答(外側剥離部分)および第3B解答(内側剥離部分))、および、第4解答(膜の表面部分)である。前記互いに異なる態様は、例えば、互いに異なる色で実現される。あるいは、例えば、前記互いに異なる態様は、互いに異なるハッチングで実現される。あるいは、例えば、前記互いに異なる態様は、互いに異なる明るさで実現される。 The teacher data includes a first answer indicating that the polishing mark is a film part, and a second answer indicating that the polishing mark is a member part. In the present embodiment, in order to cope with a case where the film peels off from the surface of the member, and to more appropriately identify the film part in the polishing trace and the member part in the polishing trace, the teacher data is It further includes a third answer representing the peeled portion of the film peeled off from the surface. In this embodiment, in order to more appropriately identify the outer circumferential contour of the membrane portion and the inner circumferential contour of the membrane portion in the polishing trace, the third answer is an outer peeled portion formed outside the polishing trace. There are a 3rd A answer indicating that there is, and a 3rd B answer indicating that the inner peeled portion is formed within the polishing trace. In the present embodiment, in order to clarify the outer peripheral contour and the contour of the outer peeled portion, the teacher data is a fourth answer representing a surface portion of the film where no polishing marks are formed. further including. In this embodiment, such teacher data is represented by a colored image that is colored differently depending on the type of correct answer. As mentioned above, the types of correct answers are as follows: in this embodiment, the first answer (film part in the polishing mark), the second answer (member part in the polishing mark), the third answer (peeling part), and the third answer A (external peeling part). ), Answer 3B (inner peeled part)), and Answer 4 (surface part of the membrane). The mutually different aspects are realized, for example, in mutually different colors. Alternatively, for example, the mutually different aspects are realized by mutually different hatching. Alternatively, for example, the mutually different aspects are realized with mutually different brightnesses.

例えば、図3Aに示す膜画像IMaは、剥離の無い膜画像であり、この図3Aに示す膜画像IMaから、作成者によって第1解答(研磨痕における膜部分)と判定された画素に第1色(例えば緑色)の画素値を付与し、前記作成者によって第2解答(研磨痕における部材部分)と判定された画素に第2色(例えば青色)の画素値を付与し、作成者によって第4解答(膜の表面部分)と判定された画素に第4色(例えば黒色)の画素値を付与することによって、図3Bに示す、第1解答の画像領域AR1a、第2解答の画像領域AR2aおよび第4解答の画像領域AR4aを持つ塗分け画像PCaが生成される。なお、図3Cに示す、研磨剤等による擦傷の有る膜の膜画像IMbでは、前記擦傷を無視して正解の種類が判定され、例えば、図3Cに示す膜画像IMbから、作成者の判定によって、図3Dに示す、第1解答の画像領域AR1b、第2解答の画像領域AR2bおよび第4解答の画像領域AR4bを持つ塗分け画像PCbが生成される。また例えば、図3Eに示す膜画像IMcは、剥離の有る膜画像であり、この図3Eに示す膜画像IMcから、作成者によって第1解答(研磨痕における膜部分)と判定された画素に第1色(例えば緑色)の画素値を付与し、前記作成者によって第2解答(研磨痕における部材部分)と判定された画素に第2色(例えば青色)の画素値を付与し、作成者によって第3A解答(外側剥離部分)と判定された画素に第3A色(例えば赤色)の画素値を付与し、前記作成者によって第3B解答(内側剥離部分)と判定された画素に第3B色(例えば黄色)の画素値を付与し、作成者によって第4解答(膜の表面部分)と判定された画素に第4色(例えば黒色)の画素値を付与することによって、図3Fに示す、第1解答の画像領域AR1c、第2解答の画像領域AR2c、第3A解答の画像領域AR3Aa、第3B解答の画像領域AR3Bcおよび第4解答の画像領域AR4cを持つ塗分け画像PCcが生成される。なお、塗分けには、例えばMITで開発されたLabelme等の公知のアノテーションツール(Annotation Tool)が用いられてもよい。また、図示の都合上、図3では、第1色(例えば緑色)は、平面視にて相対的に狭間隔の左下がりの複数の直線から成るハッチングで表現され、第2色(例えば青色)は、平面視にて相対的に中間隔の右下がりの複数の直線から成るハッチングで表現され、第3A色(例えば赤色)は、平面視にて相対的に狭間隔の右下がりの複数の直線から成るハッチングで表現され、第3B色(例えば黄色)は、平面視にて相対的に中間隔の左下がりの複数の直線から成るハッチングで表現され、第4色(例えば黒色)は、平面視にて相対的に広間隔の左下がりの複数の直線から成るハッチングで表現されている。 For example, the film image IMa shown in FIG. 3A is a film image without peeling, and from the film image IMa shown in FIG. A pixel value of a color (for example, green) is assigned, and a pixel value of a second color (for example, blue) is assigned to the pixel determined by the creator to be the second answer (part of the member in the polishing mark). By assigning a pixel value of a fourth color (for example, black) to the pixels determined to be Answer 4 (surface portion of the film), the image area AR1a of the first answer and the image area AR2a of the second answer shown in FIG. 3B are created. A colored image PCa having the image area AR4a of the fourth answer is generated. In addition, in the film image IMb of a film with scratches caused by abrasives, etc., shown in FIG. 3C, the type of correct answer is determined while ignoring the scratches. For example, from the film image IMb shown in FIG. , a colored image PCb having an image area AR1b of the first answer, an image area AR2b of the second answer, and an image area AR4b of the fourth answer shown in FIG. 3D is generated. For example, the film image IMc shown in FIG. 3E is a film image with peeling, and from the film image IMc shown in FIG. A pixel value of one color (for example, green) is assigned, and a pixel value of a second color (for example, blue) is assigned to the pixel determined by the creator to be the second answer (part of the member in the polishing trace). A pixel value of the 3rd A color (for example, red) is given to the pixel determined to be the 3rd A answer (outer peeled part), and a 3rd B color (for example, red) is assigned to the pixel determined by the creator to be the 3rd B answer (inner peeled part). For example, by assigning a pixel value of yellow) and assigning a pixel value of a fourth color (for example, black) to the pixel determined by the creator to be the fourth answer (surface portion of the membrane), the fourth answer shown in FIG. A colored image PCc is generated having an image area AR1c for the first answer, an image area AR2c for the second answer, an image area AR3Aa for the third A answer, an image area AR3Bc for the third B answer, and an image area AR4c for the fourth answer. Note that a known annotation tool such as Labelme developed at MIT may be used for the color separation. Furthermore, for convenience of illustration, in FIG. 3, the first color (e.g., green) is represented by hatching consisting of a plurality of straight lines descending to the left at relatively narrow intervals in plan view, and the second color (e.g., blue) is expressed by hatching consisting of a plurality of straight lines sloping downward to the right at relatively medium intervals in plan view, and the 3rd A color (for example, red) is expressed by a plurality of straight lines sloping downward to the right at relatively narrow intervals in plan view. The third B color (e.g., yellow) is represented by a hatching consisting of a plurality of straight lines descending to the left at relatively intermediate intervals in plan view, and the fourth color (e.g., black) is expressed in plan view by It is expressed by hatching consisting of multiple straight lines slanting to the left at relatively wide intervals.

このような膜画像IMと教師データとしての塗分け画像PCとの組が複数作成され、学習データとされる。 A plurality of sets of such film images IM and coloring images PC as teacher data are created and used as learning data.

学習データとなる膜画像は、球面研磨法の実施により形成された研磨痕を撮像装置で撮像することによって生成した原画像だけであってもよいが、本実施形態では、原画像と、前記原画像に所定の画像処理を施すことによって生成された処理画像とを含む。前記画像処理は、例えば、例えば0から360°までの範囲の数値をランダム(無作為)に生成し、この生成したランダムな数値を回転角として原画像を前記回転角で回転する回転処理、例えば0.9から1.1までの範囲の数値をランダムに生成し、この生成したランダムな数値を倍率として原画像を前記倍率でズームするズーム処理(拡大縮小処理)、画素ごとに正規分布に従うノイズを生成し、原画像に加算するノイズ処理(ノイズ処理後の処理画像を原画像と見なしてノイズ処理が複数回実施されてもよい)、および、所定の範囲の数値をランダムに生成し、この生成したランダムな数値で原画像の輝度値を変更する輝度変更処理等である。なお、これらの各処理は、単独で、あるいは、複数を組み合わせて実施されてよい。そして、学習データの膜画像(原画像および処理画像)は、拡大処理または縮小処理によって、後述の機械学習モデルに応じた画像サイズに変更される。本実施形態では、学習データの膜画像は、縮小処理によって496×372の画像サイズに変更される。このように学習データの膜画像が原画像だけで無く処理画像を含むことで、学習データのデータ量が、かさ増しされる。 The film image serving as the learning data may be only the original image generated by capturing the polishing marks formed by performing the spherical polishing method with an imaging device, but in this embodiment, the original image and the original image are used. and a processed image generated by performing predetermined image processing on the image. The image processing may include, for example, a rotation process in which a numerical value in a range from 0 to 360° is randomly generated, and the original image is rotated by the rotation angle using the generated random numerical value as a rotation angle, for example. A zoom process (enlargement/reduction process) that randomly generates a numerical value in the range from 0.9 to 1.1 and uses the generated random numerical value as a magnification factor to zoom the original image by the magnification factor, and noise that follows a normal distribution for each pixel. and noise processing that generates and adds it to the original image (noise processing may be performed multiple times by considering the processed image after noise processing as the original image), and randomly generates a numerical value in a predetermined range and adds this This is a brightness change process that changes the brightness value of the original image using a generated random value. Note that each of these processes may be performed alone or in combination. Then, the film images (original images and processed images) of the learning data are changed to an image size according to the machine learning model described below by enlarging processing or reducing processing. In this embodiment, the film image of the learning data is changed to an image size of 496×372 by reduction processing. In this way, since the film image of the learning data includes not only the original image but also the processed image, the amount of the learning data is increased.

図1に戻って、画像取得部2は、制御処理部3に接続され、制御処理部3の制御に従って前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する装置である。画像取得部2は、例えば、被写体を撮像して前記被写体の画像を生成する装置であり、例えば、被写体の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記被写体の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記被写体の画像を表すデータである画像データを生成する画像処理部等を備えるデジタルカメラである。あるいは、例えば、画像取得部2は、外部の機器との間でデータを入出力するインターフェース回路であり、前記外部の機器は、対象画像を記憶した記憶媒体である。あるいは、例えば、画像取得部2は、対象画像を記録した記録媒体からデータを読み込むドライブ装置である。あるいは、例えば、画像取得部2は、外部の機器と通信信号を送受信する通信インターフェース回路であり、前記外部の機器は、ネットワークを介して前記通信インターフェース回路に接続され、対象画像を管理するサーバ装置である。 Returning to FIG. 1, the image acquisition unit 2 is connected to the control processing unit 3, and is a device that acquires a target image of the film to be measured so as to include the polishing marks under the control of the control processing unit 3. . The image acquisition unit 2 is, for example, a device that captures an image of a subject and generates an image of the subject, and includes, for example, an imaging optical system that forms an optical image of the subject on a predetermined imaging plane, and an imaging optical system that forms an optical image of the subject on a predetermined imaging plane. an image sensor arranged with a light-receiving surface aligned with the object, and converting an optical image of the object into an electrical signal; and an image sensor that processes the output of the image sensor to generate image data representing the image of the object. This is a digital camera equipped with an image processing unit and the like to generate images. Alternatively, for example, the image acquisition unit 2 is an interface circuit that inputs and outputs data with an external device, and the external device is a storage medium that stores a target image. Alternatively, for example, the image acquisition unit 2 is a drive device that reads data from a recording medium on which a target image is recorded. Alternatively, for example, the image acquisition unit 2 is a communication interface circuit that transmits and receives communication signals to and from an external device, and the external device is a server device that is connected to the communication interface circuit via a network and manages target images. It is.

なお、画像取得部2がインターフェース回路であって学習データ取得部1がインターフェース回路である場合に、画像取得部2と学習データ取得部1とは、1個のインターフェース回路を共用してよい。同様に、画像取得部2が通信インターフェース回路であって学習データ取得部1が通信インターフェース回路である場合に、画像取得部2と学習データ取得部1とは、1個の通信インターフェース回路を共用してよい。 Note that when the image acquisition section 2 is an interface circuit and the learning data acquisition section 1 is an interface circuit, the image acquisition section 2 and the learning data acquisition section 1 may share one interface circuit. Similarly, when the image acquisition section 2 is a communication interface circuit and the learning data acquisition section 1 is a communication interface circuit, the image acquisition section 2 and the learning data acquisition section 1 share one communication interface circuit. It's fine.

入力部4は、制御処理部3に接続され、例えば、機械学習の開始を指示するコマンドや、膜厚の測定開始を指示するコマンド等の各種コマンド、および、測定対象の膜名等の膜厚測定装置Dを動作させる上で必要な各種データを膜厚測定装置Dに入力する機器であり、例えば、所定の機能を割り付けられた複数の入力スイッチやキーボードやマウス等である。出力部5は、制御処理部3に接続され、制御処理部3の制御に従って、入力部4から入力されたコマンドやデータ、識別結果画像や測定結果等を出力する機器であり、例えばCRTディスプレイ、液晶ディスプレイおよび有機ELディスプレイ等の表示装置やプリンタ等の印刷装置等である。 The input unit 4 is connected to the control processing unit 3, and inputs various commands such as a command to start machine learning, a command to start measuring film thickness, and a film thickness information such as the name of the film to be measured. It is a device for inputting various data necessary for operating the measuring device D into the film thickness measuring device D, and is, for example, a plurality of input switches, a keyboard, a mouse, etc. to which predetermined functions are assigned. The output unit 5 is a device that is connected to the control processing unit 3 and outputs commands and data input from the input unit 4, identification result images, measurement results, etc. under the control of the control processing unit 3, and is, for example, a CRT display, These include display devices such as liquid crystal displays and organic EL displays, and printing devices such as printers.

なお、入力部4および出力部5からいわゆるタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部4は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部5は、表示装置である。このタッチパネルでは、前記表示装置の表示面上に前記位置入力装置が設けられ、前記表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、前記位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として膜厚測定装置Dに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い膜厚測定装置Dが提供される。 Note that the input section 4 and the output section 5 may constitute a so-called touch panel. When configuring this touch panel, the input section 4 is a position input device that detects and inputs an operating position, such as a resistive film type or a capacitive type, and the output section 5 is a display device. In this touch panel, the position input device is provided on the display surface of the display device, one or more input content candidates that can be input are displayed on the display device, and a display displaying the input content that the user wants to input is displayed. When a position is touched, the position is detected by the position input device, and the display content displayed at the detected position is input to the film thickness measuring device D as the user's operation input content. With such a touch panel, it is easy for the user to intuitively understand the input operations, so a film thickness measuring device D that is easy for the user to handle is provided.

IF部6は、制御処理部3に接続され、制御処理部3の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、シリアル通信方式であるRS-232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。また、IF部6は、外部機器との間で通信を行う回路であり、例えば、データ通信カードや、IEEE802.11規格等に従った通信インターフェース回路等であってもよい。 The IF section 6 is a circuit that is connected to the control processing section 3 and performs input/output of data with an external device under the control of the control processing section 3, and is, for example, an interface circuit for RS-232C, which is a serial communication method. , an interface circuit using the Bluetooth (registered trademark) standard, an interface circuit that performs infrared communication such as the IrDA (Infrared Data Association) standard, and an interface circuit using the USB (Universal Serial Bus) standard. Further, the IF section 6 is a circuit that performs communication with an external device, and may be, for example, a data communication card, a communication interface circuit according to the IEEE802.11 standard, or the like.

なお、学習データ取得部1がインターフェース回路や通信インターフェース回路である場合に、IF部6は、学習データ取得部1と兼用されてよい。同様に、画像取得部2がインターフェース回路や通信インターフェース回路である場合に、IF部6は、画像取得部2と兼用されてよい。 Note that when the learning data acquisition section 1 is an interface circuit or a communication interface circuit, the IF section 6 may also be used as the learning data acquisition section 1. Similarly, when the image acquisition section 2 is an interface circuit or a communication interface circuit, the IF section 6 may also be used as the image acquisition section 2.

記憶部7は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、制御処理プログラムが含まれ、前記制御処理プログラムには、膜厚測定装置Dの各部1、2、4~7を当該各部の機能に応じてそれぞれ制御する制御プログラムや、学習データ取得部1で取得した学習データで機械学習モデルを機械学習する機械学習実施プログラムや、画像取得部2で取得した対象画像に対する後述の識別結果画像を、前記機械学習実施プログラムで機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて膜厚を求める膜厚処理プログラム等が含まれる。前記各種の所定のデータには、例えば研磨痕の形成に用いた球の半径や1画素に写り込む実長等の、これら各プログラムを実行する上で必要なデータが含まれる。このような記憶部7は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部7は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。なお、記憶部7は、比較的大容量となる学習データを記憶するために、大容量を記憶可能なハードディスク装置を備えてもよい。 The storage section 7 is a circuit that is connected to the control processing section 3 and stores various predetermined programs and various predetermined data under the control of the control processing section 3. The various predetermined programs include, for example, a control processing program, and the control processing program controls each section 1, 2, 4 to 7 of the film thickness measuring device D according to the function of each section. A control program, a machine learning implementation program that performs machine learning on a machine learning model using the learning data acquired by the learning data acquisition unit 1, and an identification result image (described later) for a target image acquired by the image acquisition unit 2, are used in the machine learning implementation program. The film thickness processing program includes a film thickness processing program that calculates the film thickness using a machine learning model that is machine learned in , and calculates the film thickness based on the determined identification result image. The various predetermined data include data necessary for executing each of these programs, such as the radius of the sphere used to form the polishing mark and the actual length reflected in one pixel. Such a storage unit 7 includes, for example, a ROM (Read Only Memory) that is a nonvolatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable nonvolatile storage element, and the like. The storage unit 7 includes a RAM (Random Access Memory), which serves as a so-called working memory of the control processing unit 3 that stores data generated during execution of the predetermined program. Note that the storage unit 7 may include a hard disk device capable of storing a large capacity in order to store a relatively large capacity of learning data.

制御処理部3は、膜厚測定装置Dの各部1、2、4~7を当該各部の機能に応じてそれぞれ制御し、膜厚を測定するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3には、前記制御処理プログラムが実行されることによって、制御部31、機械学習実施部32よび膜厚処理部33が機能的に構成される。 The control processing section 3 is a circuit for controlling each section 1, 2, 4 to 7 of the film thickness measuring device D according to the function of each section, and measuring the film thickness. The control processing unit 3 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. The control processing section 3 functionally includes a control section 31, a machine learning implementation section 32, and a film thickness processing section 33 by executing the control processing program.

制御部31は、膜厚測定装置Dの各部1、2、4~7を当該各部の機能に応じてそれぞれ制御し、膜厚測定装置D全体の制御を司るものである。 The control section 31 controls each section 1, 2, 4 to 7 of the film thickness measuring device D according to the function of each section, and controls the entire film thickness measuring device D.

機械学習実施部32は、学習データ取得部1で取得した学習データで機械学習モデルを機械学習するものである。前記機械学習モデルは、所定の部材の表面上に形成された膜の表面に球面研磨法によって研磨痕を形成した後における、前記研磨痕における膜部分および前記研磨痕における部材部分を識別するモデルである。より具体的には、前記機械学習モデルは、前記膜画像の画素ごとに対応付けられた複数の画素を備え、前記研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示した識別結果画像を出力する。より詳しくは、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率および前記研磨痕における部材部分の第2正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 The machine learning implementation unit 32 performs machine learning on a machine learning model using the learning data acquired by the learning data acquisition unit 1. The machine learning model is a model that identifies a film part in the polishing mark and a member part in the polishing mark after the polishing mark is formed on the surface of a film formed on the surface of a predetermined member by a spherical polishing method. be. More specifically, the machine learning model includes a plurality of pixels associated with each pixel of the film image, and the machine learning model includes an identification method that displays the film part in the polishing mark and the member part in the polishing mark in mutually different manners. Output the result image. More specifically, the machine learning model corresponds to each pixel of the film image using a first correct probability of a film portion in the polishing mark and a second correct probability of a member part in the polishing mark as a label as the identification result. The identification result image is obtained by determining each of the plurality of attached pixels, determining the maximum label at the pixel for each of the plurality of pixels, and displaying the pixel in a manner corresponding to the determined maximum label. Generate and output.

本実施形態では、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに識別し、前記教師データは、上述のように、前記部材の表面から剥離した膜の剥離部分であることを表す第3解答をさらに含み、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに異なる態様で表示した識別結果画像を出力する。より詳しくは、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率および前記部材の表面から剥離した膜の剥離部分の第3正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 In this embodiment, the machine learning model further identifies a peeled portion of the film that has peeled off from the surface of the member, and the training data is the peeled portion of the film that has peeled off from the surface of the member, as described above. The machine learning model outputs an identification result image in which the peeled part of the film peeled off from the surface of the member is displayed in a further different manner. More specifically, the machine learning model has, as identification results, a first correct probability of a film portion in the polishing marks, a second correct probability of a member part in the polishing marks, and a peeled part of the film separated from the surface of the member. The third correct probability is determined as a label for each of the plurality of pixels associated with each pixel of the film image, and for each of the plurality of pixels, the maximum label at the pixel is determined, and the maximum label obtained is The identification result image is generated and output by displaying the pixels in a corresponding manner.

本実施形態では、前記機械学習モデルは、前記膜の表面部分をさらに識別し、前記教師データは、上述のように、前記膜の表面部分であることを表す第4解答をさらに含み、前記機械学習モデルは、前記膜の表面部分をさらに異なる態様で表示した識別結果画像を出力する。より詳しくは、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率、前記部材の表面から剥離した膜の剥離部分の第3正解確率および前記膜の表面部分の第4正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 In this embodiment, the machine learning model further identifies a surface portion of the membrane, the training data further includes a fourth answer representing the surface portion of the membrane, as described above, and the machine learning model further identifies a surface portion of the membrane; The learning model outputs identification result images that display the surface portion of the membrane in further different ways. More specifically, the machine learning model has, as identification results, a first correct probability of a film portion in the polishing mark, a second correct probability of a member part in the polishing mark, and a peeled part of the film separated from the surface of the member. The third correct probability and the fourth correct probability of the surface portion of the membrane are obtained as labels for each of the plurality of pixels associated with each pixel of the membrane image, and for each of the plurality of pixels, the maximum The identification result image is generated and output by determining a label and displaying the pixel in a manner corresponding to the determined maximum label.

そして、本実施形態では、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分を、前記研磨痕の外側に形成された外側隔離部分と前記研磨痕内に形成された内側隔離部分とにさらに識別し、前記第3解答は、上述のように、前記外側剥離部分であることを表す第3A解答および前記内側剥離部分であることを表す第3B解答を備え、前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに異なる態様で表示する際に、前記外側剥離部分および前記内側剥離部分をさらに異なる態様で表示した識別結果画像を出力する。 In the present embodiment, the machine learning model divides the peeled portion of the film peeled from the surface of the member into an outer isolation portion formed outside the polishing marks and an inner isolation portion formed within the polishing marks. and the third answer comprises a third A answer representing the outer peeled portion and a third B answer representing the inner peeled portion, as described above, and the machine learning model When displaying the peeled portion of the film peeled off from the surface of the member in a further different manner, an identification result image is output in which the outer peeled portion and the inner peeled portion are displayed in a further different manner.

すなわち、本実施形態では、前記機械学習モデルは、識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率、前記部材の表面から剥離した膜の剥離部分における前記外側剥離部分の第3A正解確率、前記部材の表面から剥離した膜の剥離部分における前記内側剥離部分の第3B正解確率、および、前記膜の表面部分の第4正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 That is, in the present embodiment, the machine learning model determines, as identification results, a first correct probability of a film portion in the polishing mark, a second correct probability of a member part in the polishing mark, and a probability of a film peeled off from the surface of the member. Label the 3rd A correct answer probability of the outer peeled part in the peeled part, the 3B correct answer probability of the inner peeled part in the peeled part of the film peeled from the surface of the member, and the 4th correct answer probability of the surface part of the film. , for each of the plurality of pixels associated with each pixel of the film image, and for each of the plurality of pixels, find the maximum label for the pixel, and label the pixel in a manner corresponding to the maximum label found above. By displaying, the identification result image is generated and output.

機械学習モデルは、例えば畳み込みニューラルネットワーク(CNN、Convolution Neural Network)等の深層学習に利用されるニューラルネットワークである。より具体的には、本実施形態では、PSPNet(Pyramid Scene Parsing Network)が機械学習モデルに用いられた。 The machine learning model is a neural network used for deep learning, such as a convolutional neural network (CNN). More specifically, in this embodiment, PSPNet (Pyramid Scene Parsing Network) was used as a machine learning model.

膜厚処理部33は、画像取得部2で取得した対象画像に対する識別結果画像を、機械学習実施部32で機械学習した機械学習モデルを用いて求め、この求めた識別結果画像に基づいて膜厚を求めるものである。膜厚処理部33は、例えば、いわゆるカロテストの膜厚演算方法によって膜厚を求める。より具体的には、まず、膜厚処理部33は、識別結果画像における、膜部分と識別された膜識別領域および部材部分と識別された部材識別領域の重心(幾何重心)の位置を求める。次に、膜厚処理部33は、前記膜識別領域の外周輪郭(外円)を形成する各外周画素(膜部分における、膜部分と表面部分との境界の画素)を求め、前記重心の位置から各外周画素の各位置までの各距離を求め、各距離の平均値を前記外円の半径ROとして求める。前記重心の位置から外周画素の位置までの画素数に、1画素に写り込む実長を乗算することで、前記外円の半径ROの、実際の長さが求められる。なお、前記平均値に代え、各距離の最小値や最大値や中央値等が前記外円の半径ROとされてもよい。次に、膜厚処理部33は、前記部材識別領域の外周輪郭(内円)を形成する各内周画素(部材部分における、膜部分と部材部分との境界の画素、あるいは、膜部分における、膜部分と部材部分との境界の画素)を求め、前記重心の位置から各内周画素の各位置までの各距離を求め、各距離の平均値を前記内円の半径RIとして求める。前記重心の位置から内周画素の位置までの画素数に、1画素に写り込む実長を乗算することで、前記内円の半径RIの、実際の長さが求められる。なお、前記平均値に代え、各距離の最小値や最大値や中央値等が前記内円の半径RIとされてもよい。次に、膜厚処理部33は、これら外円の半径ROと内円の半径RIとに基づいて、その差を膜部分の径方向の幅X(=RO-RI)として求め、この幅Xと内円の半径RIとの和を長さY(=X+RI)として求める。そして、膜厚処理部33は、これら幅X、長さYおよび研磨痕の形成に用いた鋼球の半径Rに基づいて、いわゆるカロテストの膜厚を求める演算式1から膜厚tを求める。
膜厚の演算式1;t=(X×Y)/(2×R)
The film thickness processing section 33 obtains a classification result image for the target image obtained by the image obtaining section 2 using a machine learning model machine learned by the machine learning implementation section 32, and determines the film thickness based on the obtained classification result image. This is what we seek. The film thickness processing unit 33 calculates the film thickness using, for example, the so-called Calotest film thickness calculation method. More specifically, first, the film thickness processing unit 33 determines the positions of the centers of gravity (geometric centers of gravity) of the film identification region identified as a film portion and the member identification region identified as a member portion in the identification result image. Next, the film thickness processing unit 33 calculates each peripheral pixel (pixel at the boundary between the film part and the surface part in the film part) forming the peripheral contour (outer circle) of the film identification area, and determines the position of the center of gravity. Each distance from to each position of each outer circumferential pixel is determined, and the average value of each distance is determined as the radius RO of the outer circle. By multiplying the number of pixels from the center of gravity to the position of the outer peripheral pixel by the actual length reflected in one pixel, the actual length of the radius RO of the outer circle is determined. Note that instead of the average value, the minimum value, maximum value, median value, etc. of each distance may be used as the radius RO of the outer circle. Next, the film thickness processing unit 33 processes each inner peripheral pixel (pixel at the boundary between the film parts in the member part, or in the film part) forming the outer peripheral outline (inner circle) of the member identification area. A pixel at the boundary between the membrane portion and the member portion) is determined, each distance from the center of gravity to each position of each inner peripheral pixel is determined, and the average value of each distance is determined as the radius RI of the inner circle. The actual length of the radius RI of the inner circle is determined by multiplying the number of pixels from the center of gravity to the inner circumferential pixel position by the actual length reflected in one pixel. Note that instead of the average value, the minimum value, maximum value, median value, etc. of each distance may be used as the radius RI of the inner circle. Next, the film thickness processing unit 33 calculates the difference between the outer circle radius RO and the inner circle radius RI as the radial width X (=RO-RI) of the film portion, and calculates the difference between the outer circle radius RO and the inner circle radius RI. The sum of the radius RI of the inner circle and the radius RI of the inner circle is determined as the length Y (=X+RI). Then, the film thickness processing section 33 calculates the film thickness t based on the width X, the length Y, and the radius R of the steel ball used to form the polishing marks, using the calculation formula 1 for calculating the film thickness of the so-called Calo test.
Film thickness calculation formula 1; t=(X×Y)/(2×R)

これら制御処理部3、入力部4、出力部5、IF部6および記憶部7は、例えば、デスクトップ型やノート型やタブレット型等のコンピュータによって構成可能である。学習データ取得部1がインターフェース回路や通信インターフェース回路である場合には、IF部6は、学習データ取得部1と兼用できるので、学習データ取得部1も含めて、膜厚測定装置Dは、コンピュータによって構成可能である。同様に、画像取得部2がインターフェース回路や通信インターフェース回路である場合に、IF部6は、画像取得部2と兼用できるので、画像取得部2も含めて、膜厚測定装置Dは、コンピュータによって構成可能である。 These control processing section 3, input section 4, output section 5, IF section 6, and storage section 7 can be configured by, for example, a desktop, notebook, or tablet computer. When the learning data acquisition section 1 is an interface circuit or a communication interface circuit, the IF section 6 can also be used as the learning data acquisition section 1. Therefore, the film thickness measuring device D including the learning data acquisition section 1 can be connected to a computer. configurable by Similarly, when the image acquisition unit 2 is an interface circuit or a communication interface circuit, the IF unit 6 can also be used as the image acquisition unit 2, so the film thickness measuring device D including the image acquisition unit 2 can be Configurable.

次に、本実施形態の動作について説明する。図4は、機械学習に関する、前記膜厚測定装置の動作を示すフローチャートである。図5は、膜厚測定に関する、前記膜厚測定装置の動作を示すフローチャートである。図6は、一例として、前記膜厚測定装置による測定結果を示す図である。図6Aは、内円の半径RIの測定結果を示し、図6Bは、外円の半径ROの測定結果を示し、図6Cは、膜厚の測定結果を示す。図6の各横軸は、作成者によって膜画像から求めた実測値であり、その各縦軸は、膜厚測定装置Dによって求められた測定結果である。 Next, the operation of this embodiment will be explained. FIG. 4 is a flowchart showing the operation of the film thickness measuring device regarding machine learning. FIG. 5 is a flowchart showing the operation of the film thickness measuring device regarding film thickness measurement. FIG. 6 is a diagram showing, as an example, measurement results by the film thickness measuring device. FIG. 6A shows the measurement results of the radius RI of the inner circle, FIG. 6B shows the measurement results of the outer circle radius RO, and FIG. 6C shows the measurement results of the film thickness. Each horizontal axis in FIG. 6 is an actual measurement value obtained from the film image by the creator, and each vertical axis is the measurement result obtained by the film thickness measuring device D.

機械学習モデルの機械学習では、図4において、膜厚測定装置Dは、まず、制御処理部3の制御部31によって、学習データ取得部1で学習データを取得し、記憶部7に記憶する(S11)。 In machine learning of the machine learning model, as shown in FIG. S11).

そして、膜厚測定装置Dは、制御処理部3の機械学習実施部32によって、学習データ取得部1で取得した学習データで機械学習モデルを機械学習し、本処理を終了する(S12)。これによって膜厚処理部33は、対象画像に対する膜厚を測定するために、機械学習モデルを使用可能となる。 Then, in the film thickness measuring device D, the machine learning implementation unit 32 of the control processing unit 3 performs machine learning on the machine learning model using the learning data acquired by the learning data acquisition unit 1, and ends this process (S12). This enables the film thickness processing unit 33 to use the machine learning model to measure the film thickness for the target image.

対象画像に対する膜厚の測定では、図5において、膜厚測定装置Dは、まず、制御処理部3の制御部31によって、画像取得部2で対象画像を取得し、記憶部7に記憶する(S21)。 In measuring the film thickness for a target image, in FIG. S21).

次に、膜厚測定装置Dは、制御処理部3の膜厚処理部33によって、処理S21で画像取得部2によって取得した対象画像に対する識別結果画像を、機械学習実施部32で機械学習した機械学習モデルを用いて求めて生成し、記憶部7に記憶する(S22)。 Next, the film thickness measuring device D uses the film thickness processing unit 33 of the control processing unit 3 to use the classification result image for the target image acquired by the image acquisition unit 2 in process S21 to perform machine learning using the machine learning execution unit 32. It is determined and generated using a learning model and stored in the storage unit 7 (S22).

次に、膜厚測定装置Dは、膜厚処理部33によって、この識別結果画像に基づいて、前記外円の半径ROおよび前記内円の半径RIそれぞれを求め、記憶部7に記憶する(S23)。 Next, the film thickness measuring device D uses the film thickness processing unit 33 to determine the radius RO of the outer circle and the radius RI of the inner circle based on the identification result image, and stores them in the storage unit 7 (S23 ).

次に、膜厚測定装置Dは、膜厚処理部33によって、前記外円の半径ROおよび前記内円の半径RIに基づいて前記幅X(=RO-RI)および長さY(=X+RI)を求め、この求めた前記幅Xおよび長さYと研磨痕の形成に用いた鋼球の半径Rに基づいて、上述の演算式1を用いて膜厚t(=(X×Y)/(2×R))を求め、記憶部7に記憶する(S23)。 Next, the film thickness measuring device D calculates the width X (=RO-RI) and length Y (=X+RI) based on the radius RO of the outer circle and the radius RI of the inner circle by the film thickness processing unit 33. Based on the determined width X and length Y and the radius R of the steel ball used to form the polishing marks, the film thickness t (=(X×Y)/( 2×R)) is obtained and stored in the storage unit 7 (S23).

次に、膜厚測定装置Dは、制御処理部3の制御部31によって、測定結果の膜厚tを出力部5に出力する(S25)。なお、膜厚tに加えて、前記外円の半径ROや前記内円の半径RIも出力部5に出力されてよい。また、必要に応じて、制御部31は、測定結果の膜厚t等をIF部6から外部の機器へ出力しても良い。 Next, in the film thickness measuring device D, the control unit 31 of the control processing unit 3 outputs the film thickness t of the measurement result to the output unit 5 (S25). In addition to the film thickness t, the radius RO of the outer circle and the radius RI of the inner circle may also be output to the output section 5. Further, if necessary, the control section 31 may output the measurement result, such as the film thickness t, from the IF section 6 to an external device.

そして、膜厚測定装置Dは、制御処理部3によって、測定の終了か否かを判定する(S26)。この判定の結果、例えば電源のオフや測定終了の入力等によって、測定の終了である場合(Yes)には、膜厚測定装置Dは、本処理を終了し、一方、前記判定の結果、測定の終了ではない場合(No)には、膜厚測定装置Dは、処理を処理S21に戻す。 Then, the control processing unit 3 of the film thickness measuring device D determines whether or not the measurement is finished (S26). If the result of this determination is that the measurement is finished (Yes), for example by turning off the power or inputting the end of measurement, the film thickness measuring device D terminates this process; If the process has not ended (No), the film thickness measuring device D returns the process to process S21.

このような動作によって膜厚測定装置Dは、対象画像に写り込んだ研磨痕について、膜の膜厚を測定する。 Through such an operation, the film thickness measuring device D measures the film thickness of the film with respect to the polishing marks reflected in the target image.

このような膜厚測定装置Dによる測定結果の一例が図6に示されている。この図6では、上述のように平均値ではなく、各距離の最大値で前記外円の半径ROおよび前記内円の半径RIそれぞれが求められている。図6A、図6Bおよび図6Cそれぞれに示す内円の半径RI、外円の半径ROおよび膜厚tにおける各測定結果は、45度の直線上に略分布していることから、機械学習モデルは、学習データを用いた機械学習によって、良好に研磨痕における膜部分および前記研磨痕における部材部分を識別できている。研磨痕の形状に関する異常の程度を表す後述の異常度の上位7.5[%]の測定結果を除いた場合、この図6Aに示す内円の半径RIの例では、誤差の絶対値を平均した平均絶対誤差(MAE、Mean Absolute Error)は、1.39であり、二乗平均平方根誤差(RMSE、Root Mean Squared Error)は、1.87であり、回帰式の決定係数は、0.992であった。図6Bに示す外円の半径ROの例では、平均絶対誤差は、1.83であり、二乗平均平方根誤差は、2.26であり、回帰式の決定係数は、0.992であった。図6C示す膜厚tの例では、平均絶対誤差は、0.095であり、二乗平均平方根誤差は、0.126であり、回帰式の決定係数は、0.991であった。したがって、この膜厚測定装置Dは、膜厚tを適切に測定できている。 An example of the measurement results by such a film thickness measuring device D is shown in FIG. In FIG. 6, the radius RO of the outer circle and the radius RI of the inner circle are determined not by the average value but by the maximum value of each distance as described above. Since the measurement results for the inner circle radius RI, outer circle radius RO, and film thickness t shown in FIGS. 6A, 6B, and 6C are approximately distributed on a 45-degree straight line, the machine learning model is By machine learning using learning data, the membrane portion in the polishing trace and the member portion in the polishing trace can be successfully identified. If we exclude the measurement results in the upper 7.5% of the degree of abnormality, which will be described later, which indicates the degree of abnormality regarding the shape of the polishing marks, in the example of the radius RI of the inner circle shown in Fig. 6A, the absolute value of the error is averaged. The mean absolute error (MAE) was 1.39, the root mean squared error (RMSE) was 1.87, and the coefficient of determination of the regression equation was 0.992. there were. In the example of the radius RO of the outer circle shown in FIG. 6B, the average absolute error was 1.83, the root mean square error was 2.26, and the coefficient of determination of the regression equation was 0.992. In the example of film thickness t shown in FIG. 6C, the average absolute error was 0.095, the root mean square error was 0.126, and the coefficient of determination of the regression equation was 0.991. Therefore, this film thickness measuring device D can appropriately measure the film thickness t.

以上説明したように、本実施形態における膜厚測定装置Dに備えられた機械学習装置およびこれに実装された機械学習方法は、研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを生成する。このため、膜厚測定装置および該方法がこの機械学習装置および該方法を備えることによって、研磨痕を含むように、測定対象の膜を撮像した対象画像から、前記機械学習装置および該方法で機械学習された機械学習モデルを用いることにより、研磨痕における膜部分および前記研磨痕における部材部分を自動的に識別でき、この識別結果に基づいて、例えばいわゆるカロテストの膜厚演算方法によって膜厚を演算できる。したがって、上記機械学習装置および該方法は、膜厚測定の自動化を可能とする。 As explained above, the machine learning device included in the film thickness measuring device D in this embodiment and the machine learning method implemented therein are machine learning methods for identifying film parts in polishing marks and member parts in the polishing marks. Generate the model. For this reason, by including the machine learning device and method, the film thickness measuring device and method can be used to determine whether the film thickness measuring device and method includes the machine learning device and the method. By using the trained machine learning model, it is possible to automatically identify the film part in the polishing mark and the component part in the polishing mark, and based on this identification result, the film thickness can be calculated using, for example, the so-called Calotest film thickness calculation method. can. Therefore, the machine learning device and method described above enable automation of film thickness measurement.

上記機械学習装置および機械学習方法は、研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示するので、識別結果画像を参照することで、視覚的に、前記膜部分と前記部材部分とを識別できる。本実施形態では、さらに、膜の表面部分、外側剥離部分および内側剥離部分をさらに互いに異なる態様で表示するので、上記機械学習装置および該方法は、識別結果画像を参照することで、視覚的に、前記膜部分と前記部材部分と膜の表面部分と外側剥離部分と内側剥離部分とを識別できる。 The machine learning device and the machine learning method display the film part in the polishing mark and the member part in the polishing mark in different ways. The parts can be identified. In this embodiment, the surface portion, the outer peeled portion, and the inner peeled portion of the membrane are further displayed in different manners, so that the machine learning device and method can visually , the membrane portion, the member portion, the surface portion of the membrane, the outer peeled portion, and the inner peeled portion can be distinguished.

上記機械学習装置Dおよび機械学習方法では、機械学習モデルは、部材の表面から剥離した膜の剥離部分をさらに識別するので、研磨痕における膜部分および前記研磨痕における部材部分をより適切に識別できるようになる。 In the above machine learning device D and machine learning method, the machine learning model further identifies the peeled part of the film that has peeled off from the surface of the member, so that the film part in the polishing mark and the member part in the polishing mark can be more appropriately identified. It becomes like this.

本実施形態における膜厚測定装置Dおよびこれに実装された膜厚測定方法は、膜研磨痕における膜部分および前記研磨痕における部材部分を識別する機械学習モデルを備えるので、膜厚の測定を自動的に実施できる。 The film thickness measuring device D and the film thickness measuring method implemented therein in this embodiment are equipped with a machine learning model that identifies the film part in the film polishing mark and the member part in the polishing mark, so that the film thickness can be measured automatically. It can be implemented.

なお、上述の実施形態において、膜厚処理部33は、上述のように求めた識別結果画像に基づいて、研磨痕の形状に関する異常の程度を表す異常度を求め、この求めた異常度が所定の条件(第1条件)を満たす場合に、前記識別結果画像に基づいて前記膜厚を求めてもよい。そして、膜厚処理部33は、さらに、前記求めた異常度が所定の条件を満たさない場合に、前記求めた識別結果画像に基づいて前記膜厚を求めることができないことを外部に報知してもよい(第1変形形態)。例えば図6に示すように、測定結果には、45度の直線から乖離して分布するものがある。これは、研磨痕が歪んでしまった結果、外円の半径ROや内円の半径RIが適切に求められなかったことが一因であると考えられる。この第1変形形態の膜厚測定装置Dは、研磨痕の形状に関する異常の程度を表す異常度が所定の第1条件を満たす場合に、識別結果画像に基づいて膜厚を求めるので、演算可能な程度に適切に実施された研磨痕に対して膜厚を測定するから、信頼性の有る測定値を求めることができる。そして、この第1変形形態の膜厚測定装置Dは、異常度が所定の第1条件を満たさない場合に膜厚を求めることができないことを外部に報知するので、例えば人手で膜厚を求めることや研磨痕を再形成することなどによって、信頼性のある測定値を求めることができる。 In the above-described embodiment, the film thickness processing unit 33 determines the degree of abnormality representing the degree of abnormality regarding the shape of the polishing mark based on the identification result image determined as described above, and determines whether the determined degree of abnormality is a predetermined degree. If the condition (first condition) is satisfied, the film thickness may be determined based on the identification result image. Then, the film thickness processing unit 33 further notifies the outside that the film thickness cannot be determined based on the determined identification result image when the determined degree of abnormality does not satisfy a predetermined condition. (first variant). For example, as shown in FIG. 6, some of the measurement results are distributed deviating from a 45 degree straight line. One reason for this is thought to be that the radius RO of the outer circle and the radius RI of the inner circle could not be appropriately determined as a result of the distortion of the polishing marks. The film thickness measuring device D of the first modified form calculates the film thickness based on the identification result image when the degree of abnormality representing the degree of abnormality regarding the shape of the polishing mark satisfies the predetermined first condition. Since the film thickness is measured on polishing marks that have been properly performed to a certain degree, reliable measurement values can be obtained. The film thickness measuring device D of the first modification notifies the outside that the film thickness cannot be determined when the degree of abnormality does not satisfy a predetermined first condition, so for example, the film thickness is determined manually. Reliable measurement values can be obtained by re-creating the polishing marks.

図7は、膜厚測定に関する、第1変形形態の膜厚測定装置の動作を示すフローチャートである。図8は、前記第1変形形態における異常度の演算手法を説明するための図である。図8Aは、略真円の研磨痕を示す模式図であり、図8Bは、図8Aに示す研磨痕において、研磨痕の外周輪郭(膜部分の外周輪郭)における、周方向に0度から360度までの各位置それぞれについて、当該位置から、研磨痕の重心の位置(膜部分および部材部分の重心の位置)までの距離を示すグラフである。図8Cは、楕円の研磨痕を示す模式図であり、図8Dは、図8Cに示す研磨痕において、図8Aに示す研磨痕に対する図8Bと同様に、前記各位置それぞれについての各距離を示すグラフである。図8Eは、不定形な研磨痕を示す模式図であり、図8Fは、図8Eに示す研磨痕において、図8Aに示す研磨痕に対する図8Bと同様に、前記各位置それぞれについての各距離を示すグラフである。 FIG. 7 is a flowchart showing the operation of the film thickness measuring device of the first modification regarding film thickness measurement. FIG. 8 is a diagram for explaining a method of calculating the degree of abnormality in the first modification. FIG. 8A is a schematic diagram showing a substantially perfect circular polishing mark, and FIG. 8B is a schematic diagram showing the polishing mark shown in FIG. It is a graph showing the distance from the position to the position of the center of gravity of the polishing mark (the position of the center of gravity of the membrane portion and the member portion) for each position up to the degree. FIG. 8C is a schematic diagram showing elliptical polishing marks, and FIG. 8D shows distances for each position in the polishing marks shown in FIG. 8C, similar to FIG. 8B for the polishing marks shown in FIG. 8A. It is a graph. FIG. 8E is a schematic diagram showing an irregularly shaped polishing mark, and FIG. 8F shows each distance at each position in the polishing mark shown in FIG. 8E, similar to FIG. 8B for the polishing mark shown in FIG. 8A. This is a graph showing.

対象画像に対する膜厚の測定では、図7において、この第1変形形態の膜厚測定装置Dは、まず、上述と同様に、対象画像を取得して記憶する処理S21を実行し、次に、識別結果画像を生成して記憶する処理S22を実行する。 In measuring the film thickness for the target image, in FIG. 7, the film thickness measuring device D of the first modified form first executes the process S21 of acquiring and storing the target image in the same way as described above, and then, A process S22 of generating and storing an identification result image is executed.

次に、第1変形形態の膜厚測定装置Dは、制御処理部3の膜厚処理部33によって、研磨痕の形状に関する異常の程度を表す異常度を求め、記憶部7に記憶する(S31)。 Next, in the film thickness measuring device D of the first modification, the film thickness processing section 33 of the control processing section 3 determines the degree of abnormality representing the degree of abnormality regarding the shape of the polishing mark, and stores it in the storage section 7 (S31 ).

より具体的には、膜厚処理部33は、処理S22で求めた識別結果画像に基づいて、測定対象の膜における研磨痕に対する真円の程度を表す真円度を前記異常度として求める。より詳しくは、膜厚処理部33は、前記識別結果画像における前記研磨痕の外周輪郭(膜部分の外周輪郭)および前記研磨痕の重心の位置に基づいて前記真円度を求める。図8Aないし図8Dに示すように、研磨痕が真円あるいは真円に近い場合(図8Cでは楕円)では、研磨痕の外周輪郭(膜部分の外周輪郭)における、周方向に0度から360度までの各位置それぞれについて、当該位置と重心の位置までの距離は、略一定である。一方、研磨痕が真円から乖離(逸脱)して不定形になると、例えば、図8Eおよび図8Fに示すように、研磨痕の外周輪郭(膜部分の外周輪郭)における、周方向に0度から360度までの各位置それぞれについて、当該位置と重心の位置までの距離は、変化するようになる。このため、例えば、膜厚処理部33は、研磨痕の外周輪郭(膜部分の外周輪郭)における、周方向に0度から360度までの各位置それぞれについて、単位角度変化に対する距離変化である傾き(角度に対する距離の微分値)の絶対値を求め、その最大値を前記真円度(前記異常度)として求める。あるいは、例えば、膜厚処理部33は、前記各位置での各距離における最大値と最小値との差を前記真円度(前記異常度)として求める。 More specifically, the film thickness processing unit 33 obtains the degree of circularity representing the degree of perfect circularity with respect to the polishing marks in the film to be measured as the degree of abnormality, based on the identification result image obtained in step S22. More specifically, the film thickness processing unit 33 determines the roundness based on the outer peripheral contour of the polishing mark (outer peripheral contour of the film portion) in the identification result image and the position of the center of gravity of the polishing mark. As shown in FIGS. 8A to 8D, when the polishing mark is a perfect circle or close to a perfect circle (ellipse in FIG. 8C), the outer circumferential contour of the polishing mark (the outer circumferential contour of the membrane portion) has a radius of 0 to 360 degrees in the circumferential direction. For each position up to a degree, the distance between the position and the center of gravity is approximately constant. On the other hand, if the polishing mark deviates from a perfect circle and becomes irregularly shaped, for example, as shown in FIGS. For each position from 360 degrees to 360 degrees, the distance between the position and the center of gravity changes. For this reason, for example, the film thickness processing unit 33 calculates the slope, which is a distance change for a unit angle change, for each position from 0 degrees to 360 degrees in the circumferential direction on the outer circumferential contour of the polishing mark (the outer circumferential contour of the film portion). (Differential value of distance with respect to angle) is determined, and its maximum value is determined as the degree of circularity (degree of abnormality). Alternatively, for example, the film thickness processing unit 33 determines the difference between the maximum value and the minimum value at each distance at each position as the roundness (the abnormality degree).

次に、第1変形形態の膜厚測定装置Dは、膜厚処理部33によって、処理S31で求めた異常度が第1条件を満たすか否かを判定する(S32)。前記第1条件は、前記異常度が低く、識別結果画像に基づいて信頼性のある膜厚を求めることができる条件であり、例えば、前記異常度(真円度)が予め設定された所定の閾値(異常判定閾値)未満(または以下)であることである。前記異常判定閾値は、例えば複数のサンプルから適宜に設定される。この判定の結果、前記異常度(真円度)が異常判定閾値未満である場合には、前記異常度(真円度)が前記第1条件を満たすと判定され(Yes)、第1変形形態の膜厚測定装置Dは、上述と同様に、前記外円の半径ROおよび前記内円の半径RIそれぞれを求めて記憶する処理S23、膜厚tを求めて記憶する処理S24、測定結果の膜厚tを出力する処理S25、および、終了を判定する処理S26の各処理を順次に実行する。一方、前記判定の結果、前記異常度(真円度)が異常判定閾値以上である場合には、前記異常度(真円度)が前記第1条件を満たさないと判定され(No)、第1変形形態の膜厚測定装置Dは、膜厚処理部33によって、処理S22で求めた識別結果画像に基づいて膜厚tを求めることができないことを外部に報知し(S33)、終了を判定する処理S26を実行する。前記報知は、例えば、メッセージの表示やメッセージの音声出力や警告音等によって実行される。 Next, in the film thickness measuring device D of the first modification, the film thickness processing unit 33 determines whether the degree of abnormality obtained in step S31 satisfies the first condition (S32). The first condition is a condition in which the degree of abnormality is low and a reliable film thickness can be determined based on the identification result image, for example, the degree of abnormality (roundness) is a predetermined condition. It is less than (or less than) a threshold value (anomaly determination threshold value). The abnormality determination threshold is appropriately set, for example, from a plurality of samples. As a result of this determination, if the degree of abnormality (roundness) is less than the abnormality determination threshold, it is determined that the degree of abnormality (roundness) satisfies the first condition (Yes), and the first modified form As described above, the film thickness measuring device D performs a process S23 of determining and storing each of the radius RO of the outer circle and the radius RI of the inner circle, a process S24 of determining and storing the film thickness t, and a process S24 of determining and storing the film thickness t. The process S25 for outputting the thickness t and the process S26 for determining the end are sequentially executed. On the other hand, as a result of the determination, if the degree of abnormality (roundness) is equal to or greater than the abnormality determination threshold, it is determined that the degree of abnormality (roundness) does not satisfy the first condition (No), and The film thickness measuring device D of the first modified form uses the film thickness processing unit 33 to notify the outside that the film thickness t cannot be determined based on the identification result image obtained in step S22 (S33), and determines the end. Processing S26 is executed. The notification is performed, for example, by displaying a message, outputting a voice message, or sounding an alarm.

また、上述の第1変形形態では、研磨痕の形状に関する異常の程度を表す異常度が用いられたが、前記異常度に代え、測定対象の膜における剥離の程度を表す剥離度が用いられてもよい(第2変形形態)。この第2変形形態の膜厚測定装置Dでは、膜厚処理部33は、上述のように求めた識別結果画像に基づいて、測定対象の膜における剥離の程度を表す剥離度を求め、この求めた剥離度が所定の条件(第2条件)を満たす場合に、前記識別結果画像に基づいて前記膜厚を求める。そして、膜厚処理部33は、さらに、前記求めた剥離度が所定の第2条件を満たさない場合に、前記求めた識別結果画像に基づいて前記膜厚を求めることができないことを外部に報知してもよい。 Further, in the first modification described above, the degree of abnormality representing the degree of abnormality regarding the shape of the polishing mark was used, but instead of the degree of abnormality, the degree of peeling representing the degree of peeling in the film to be measured is used. (Second variant). In the second modification of the film thickness measuring device D, the film thickness processing section 33 calculates the peeling degree representing the degree of peeling in the film to be measured based on the identification result image calculated as described above, and calculates the degree of peeling in the film to be measured. When the peeling degree obtained satisfies a predetermined condition (second condition), the film thickness is determined based on the identification result image. Then, the film thickness processing unit 33 further notifies the outside that the film thickness cannot be determined based on the determined identification result image when the determined peeling degree does not satisfy a predetermined second condition. You may.

図9は、第2変形形態の膜厚測定装置における剥離度の演算手法を説明するための図である。前記剥離度は、識別結果画像における剥離部分の、例えば、面積、高さおよび広がりのうちの1または複数に基づいて求められる。前記剥離度としての面積は、識別結果画像における剥離部分の画素数に基づいて求められる。より具体的には、この剥離度としての面積は、識別結果画像DPに基づいて剥離部分の画像領域の画素数を総計することによって、求められる。この剥離度としての面積は、画素数そのものによって表されてよく、総画素数に1画素に写り込む実面積を乗算することによって、実面積によって表されてもよい。前記剥離度としての高さは、識別結果画像における研磨痕の重心の位置から、識別結果画像における剥離部分の前記重心の位置から最も離れた画素の位置まで長さに基づいて求められる。より具体的には、この剥離度としての高さは、例えば、図9に示すように、識別結果画像DPに基づいて、研磨痕における膜部分の画像領域DA1および前記研磨痕における部材部分の画像領域DA2、の重心の位置CPdに対し剥離部分の最も離れた画素(遠い画素)の位置HPと、前記重心の位置CPdと、の間の長さ(距離)CPdHPを求め、この求めた長さCPdHPを前記外円の半径ROと見なし、前記膜厚tを前記剥離度としての高さと見なして、前記膜厚tを求めることによって、求められる。前記剥離度としての広がりは、例えば、図9に示すように、識別結果画像DPに基づいて、剥離部分における周方向での一方端の画素の位置EP1と前記識別結果画像DPにおける研磨痕の重心の位置CPdとを結ぶ第1線分CPdEP1と、前記剥離部分における周方向での他方端の画素の位置EP2と前記重心の位置CPdとを結ぶ第2線分CPdEP2とのなす角度θを、前記広がりとして求めることによって、求められる。これらのうちの複数の組み合わせにおける重み付き平均が剥離度とされてもよい。 FIG. 9 is a diagram for explaining a method of calculating the peeling degree in the film thickness measuring device of the second modification. The degree of peeling is determined based on, for example, one or more of the area, height, and spread of the peeled portion in the identification result image. The area as the degree of peeling is determined based on the number of pixels of the peeled portion in the identification result image. More specifically, the area as the degree of peeling is determined by summing up the number of pixels in the image area of the peeled portion based on the identification result image DP. The area as the degree of peeling may be expressed by the number of pixels itself, or may be expressed by the actual area by multiplying the total number of pixels by the actual area reflected in one pixel. The height as the peeling degree is determined based on the length from the position of the center of gravity of the polishing mark in the identification result image to the position of the pixel farthest from the position of the center of gravity of the peeled portion in the identification result image. More specifically, as shown in FIG. 9, the height as the degree of peeling is determined based on the identification result image DP, for example, as shown in FIG. The length (distance) CPdHP between the position HP of the farthest pixel (farthest pixel) of the peeled part and the position CPd of the center of gravity with respect to the position CPd of the center of gravity of the area DA2 is determined, and this determined length is determined. The film thickness t is determined by regarding CPdHP as the radius RO of the outer circle, and regarding the film thickness t as the height of the peeling degree. For example, as shown in FIG. 9, the spread as the degree of peeling is based on the identification result image DP, and the position EP1 of a pixel at one end in the circumferential direction of the peeled part and the center of gravity of the polishing mark in the identification result image DP. The angle θ formed by the first line segment CPdEP1 that connects the position CPd of the peeled portion and the second line segment CPdEP2 that connects the position EP2 of the other end pixel in the circumferential direction of the peeled portion and the position CPd of the center of gravity is It is sought by seeking it as an expanse. A weighted average of a plurality of combinations of these may be used as the peeling degree.

この第2変形形態の膜厚測定装置Dは、対象画像に対する膜厚の測定では、異常度に代え、剥離度を用い(S31a)、第1条件に代え第2条件を用いる(S32a)点を除き、図7に示す上述の第1変形形態の膜厚測定装置Dと同様に動作するので、その説明を省略する。前記第2条件は、前記剥離度が低く、識別結果画像に基づいて信頼性のある膜厚を求めることができる条件であり、例えば、前記剥離度が予め設定された所定の閾値(剥離判定閾値)未満(または以下)であることである。前記剥離判定閾値は、例えば複数のサンプルから適宜に設定される。 The film thickness measuring device D of the second modification uses the peeling degree instead of the abnormality degree (S31a) and uses the second condition instead of the first condition (S32a) in measuring the film thickness of the target image. Except for this, the device operates in the same manner as the film thickness measuring device D of the above-described first modification shown in FIG. 7, so a description thereof will be omitted. The second condition is a condition in which the peeling degree is low and a reliable film thickness can be obtained based on the identification result image, for example, the peeling degree is set to a predetermined threshold (peeling determination threshold ) is less than (or less than). The peeling determination threshold is appropriately set, for example, from a plurality of samples.

また、上述の実施形態おいて、機械学習モデルが剥離部分を小さく判定している場合には、機械学習モデルが修正されてもよい(第3変形形態)。機械学習モデルが剥離部分を小さく判定しているか否かは、対象画像の塗分け画像を作成し、対象画像に対する機械学習モデルの識別結果画像における剥離部分と前記作成した塗分け画像における剥離部分とを比較することによって、判定できる。 Furthermore, in the above-described embodiment, if the machine learning model determines that the peeled portion is small, the machine learning model may be modified (third modification). To determine whether the machine learning model has determined that the peeled part is small, create a painted image of the target image, and compare the peeled part in the classification result image of the machine learning model for the target image with the peeled part in the created painted image. It can be determined by comparing.

図10は、第3変形形態の膜厚測定装置における識別結果画像の生成手法を説明するための図である。図10Aは、修正前の識別結果画像を示し、図10Bは、補正後の識別結果画像を示す。 FIG. 10 is a diagram for explaining a method of generating an identification result image in the film thickness measuring device of the third modification. FIG. 10A shows the identification result image before correction, and FIG. 10B shows the identification result image after correction.

本実施形態では、上述したように、機械学習モデル(修正前の機械学習モデル)は、機械学習実施部32で機械学習したモデル(例えばPSPNet等)によって、画像取得部2で取得した対象画像から、その識別結果として、前記研磨痕における膜部分の第1正解確率、前記研磨痕における部材部分の第2正解確率、前記部材の表面から剥離した膜の剥離部分における前記外側剥離部分の第3A正解確率、前記部材の表面から剥離した膜の剥離部分における前記内側剥離部分の第3B正解確率、および、前記膜の表面部分の第4正解確率を、ラベルとして、前記膜画像の画素ごとに対応付けられた複数の画素ごとに求め、前記複数の画素それぞれについて、当該画素における最大のラベルを求め、前記求めた最大のラベルに対応する態様で当該画素を表示することによって、前記識別結果画像を生成して出力する。 In this embodiment, as described above, the machine learning model (machine learning model before modification) is based on the target image acquired by the image acquisition unit 2 using a model learned by the machine learning execution unit 32 (for example, PSPNet, etc.). , as the identification results, a first correct probability of the film part in the polishing mark, a second correct probability of the member part in the polishing mark, and a third A correct answer of the outer peeled part in the peeled part of the film peeled from the surface of the member. The probability, the 3rd B correct probability of the inner peeled part in the peeled part of the film peeled from the surface of the member, and the 4th correct answer probability of the surface part of the film are associated as labels for each pixel of the film image. The identification result image is generated by determining the maximum label for each of the plurality of pixels, and displaying the pixel in a manner corresponding to the determined maximum label. and output it.

機械学習モデルの修正では、前記最大のラベルを求める前に、前記モデルで求めた第3正解確率が所定の倍率(>1.0)で乗算され、乗算結果の第3正解確率が、第1正解確率、第2正解確率および第4正解確率と比較され、最大のラベルが求められる。より具体的には、前記最大のラベルを求める前に、前記モデルで求めた第3A正解確率が所定の第A倍率(>1.0、例えば1.2や1.3等)で乗算され、前記モデルで求めた第3B正解確率が所定の第B倍率(>1.0、例えば1.2や1.3等)で乗算され、乗算結果の第3A正解確率および第3B正解確率が、第1正解確率、第2正解確率および第4正解確率と比較され、最大のラベルが求められる。これによって例えば、図10Aに示す識別結果画像DPbの外側剥離部分DA3b1および内側剥離部分DA3b2は、図10Bに示す識別結果画像DPaの外側剥離部分DA3a1および内側剥離部分DA3a2のように、拡大され、剥離部分が修正される。 In modifying the machine learning model, before determining the maximum label, the third correct probability obtained by the model is multiplied by a predetermined multiplication factor (>1.0), and the third correct probability of the multiplication result is It is compared with the correct probability, the second correct probability, and the fourth correct probability, and the maximum label is determined. More specifically, before determining the maximum label, the 3rd A correct answer probability determined by the model is multiplied by a predetermined Ath multiplier (>1.0, for example 1.2 or 1.3), The 3B correct answer probability calculated using the model is multiplied by a predetermined B multiplier (>1.0, for example 1.2 or 1.3, etc.), and the 3A correct answer probability and 3B correct answer probability of the multiplication results are The first correct probability, the second correct probability, and the fourth correct probability are compared, and the maximum label is determined. As a result, for example, the outer peeled portion DA3b1 and the inner peeled portion DA3b2 of the identification result image DPb shown in FIG. parts are corrected.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been adequately and fully described through embodiments with reference to the drawings in the above description, but those skilled in the art will easily be able to modify and/or improve the embodiments described above. It should be recognized that this is possible. Therefore, unless the modification or improvement made by a person skilled in the art does not depart from the scope of the claims stated in the claims, such modifications or improvements do not fall outside the scope of the claims. It is interpreted as encompassing.

D 膜厚測定装置(機械学習装置を備えた膜厚測定装置)
1 学習データ取得部
2 画像取得部
3 制御処理部
4 入力部
5 出力部
6 インターフェース部(IF部)
7 記憶部
31 制御部
32 機械学習実施部
33 膜厚処理部
D Film thickness measurement device (film thickness measurement device equipped with machine learning device)
1 Learning data acquisition section 2 Image acquisition section 3 Control processing section 4 Input section 5 Output section 6 Interface section (IF section)
7 Storage unit 31 Control unit 32 Machine learning implementation unit 33 Film thickness processing unit

Claims (9)

学習データを取得する学習データ取得部と、
前記学習データ取得部で取得した学習データに基づいて機械学習モデルを機械学習する機械学習実施部とを備え、
前記機械学習モデルは、所定の部材の表面上に形成された膜の表面に球面研磨法によって研磨痕を形成した後における、前記研磨痕における膜部分および前記研磨痕における部材部分を識別し、
前記学習データは、前記研磨痕を含むように前記膜を撮像した膜画像と、前記膜画像の画素ごとに対応付けられた教師データとを含み、
前記教師データは、前記研磨痕における膜部分であることを表す第1解答、および、前記研磨痕における部材部分であることを表す第2解答を含む、
機械学習装置。
a learning data acquisition unit that acquires learning data;
a machine learning implementation unit that performs machine learning on a machine learning model based on the learning data acquired by the learning data acquisition unit,
The machine learning model identifies a film part in the polishing mark and a member part in the polishing mark after the polishing mark is formed on the surface of a film formed on the surface of a predetermined member by a spherical polishing method,
The learning data includes a film image obtained by capturing the film so as to include the polishing marks, and teacher data associated with each pixel of the film image,
The teacher data includes a first answer indicating that the polishing mark is a film part, and a second answer indicating that the polishing mark is a member part.
Machine learning device.
前記機械学習モデルは、前記膜画像の画素ごとに対応付けられた複数の画素を備え、前記研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示した識別結果画像を出力する、
請求項1に記載の機械学習装置。
The machine learning model includes a plurality of pixels associated with each pixel of the film image, and outputs an identification result image in which the film part in the polishing mark and the member part in the polishing mark are displayed in mutually different manners.
The machine learning device according to claim 1.
前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに識別し、
前記教師データは、前記部材の表面から剥離した膜の剥離部分であることを表す第3解答をさらに含み、
前記機械学習モデルは、前記部材の表面から剥離した膜の剥離部分をさらに異なる態様で表示した識別結果画像を出力する、
請求項2に記載の機械学習装置。
The machine learning model further identifies a peeled portion of the film that has peeled off from the surface of the member,
The teacher data further includes a third answer indicating that the part is a peeled part of a film peeled off from the surface of the member,
The machine learning model outputs an identification result image in which the peeled part of the film peeled off from the surface of the member is displayed in a further different manner.
The machine learning device according to claim 2.
学習データを取得する学習データ取得工程と、
前記学習データ取得工程で取得した学習データに基づいて機械学習モデルを機械学習する機械学習実施工程とを備え、
前記機械学習モデルは、所定の部材の表面上に形成された膜の表面に球面研磨法によって研磨痕を形成した後における、前記研磨痕における膜部分および前記研磨痕における部材部分を識別し、
前記学習データは、前記研磨痕を含むように前記膜を撮像した膜画像と、前記膜画像の画素ごとに対応付けられた教師データとを含み、
前記教師データは、前記研磨痕における膜部分であることを表す第1解答、および、前記研磨痕における部材部分であることを表す第2解答を含む、
機械学習方法。
a learning data acquisition step of acquiring learning data;
a machine learning implementation step of performing machine learning on a machine learning model based on the learning data acquired in the learning data acquisition step,
The machine learning model identifies a film part in the polishing mark and a member part in the polishing mark after the polishing mark is formed on the surface of a film formed on the surface of a predetermined member by a spherical polishing method,
The learning data includes a film image obtained by capturing the film so as to include the polishing marks, and teacher data associated with each pixel of the film image,
The teacher data includes a first answer indicating that the polishing mark is a film part, and a second answer indicating that the polishing mark is a member part.
Machine learning methods.
請求項2または請求項3に記載の機械学習装置を備える、膜厚を測定する膜厚測定装置であって、
前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得部と、
前記画像取得部で取得した対象画像に対する識別結果画像を、前記機械学習実施部で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理部とを備える、
膜厚測定装置。
A film thickness measuring device for measuring film thickness, comprising the machine learning device according to claim 2 or 3,
an image acquisition unit that acquires a target image of the film to be measured so as to include the polishing marks;
A film thickness processing unit that obtains an identification result image for the target image obtained by the image acquisition unit using a machine learning model machine learned by the machine learning implementation unit, and obtains the film thickness based on the obtained identification result image. and
Film thickness measuring device.
前記膜厚処理部は、前記求めた識別結果画像に基づいて、研磨痕の形状に関する異常の程度を表す異常度を求め、前記求めた異常度が所定の条件を満たす場合に、前記求めた識別結果画像に基づいて前記膜厚を求める、
請求項5に記載の膜厚測定装置。
The film thickness processing section calculates a degree of abnormality representing the degree of abnormality regarding the shape of the polishing mark based on the determined identification result image, and when the determined degree of abnormality satisfies a predetermined condition, the determined degree of abnormality is determined based on the determined identification result image. determining the film thickness based on the result image;
The film thickness measuring device according to claim 5.
前記膜厚処理部は、さらに、前記求めた異常度が所定の条件を満たさない場合に、前記求めた識別結果画像に基づいて前記膜厚を求めることができないことを外部に報知する、
請求項6に記載の膜厚測定装置。
The film thickness processing unit further notifies an external party that the film thickness cannot be determined based on the determined identification result image when the determined degree of abnormality does not satisfy a predetermined condition.
The film thickness measuring device according to claim 6.
請求項3に記載の機械学習装置を備える、膜厚を測定する膜厚測定装置であって、
前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得部と、
前記画像取得部で取得した対象画像に対する識別結果画像を、前記機械学習実施部で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理部とを備え、
前記膜厚処理部は、前記求めた識別結果画像に基づいて、前記測定対象の膜における剥離の程度を表す剥離度を求め、前記求めた剥離度が所定の第2条件を満たす場合に、前記求めた識別結果画像に基づいて前記膜厚を求める、
膜厚測定装置。
A film thickness measuring device for measuring film thickness, comprising the machine learning device according to claim 3,
an image acquisition unit that acquires a target image of the film to be measured so as to include the polishing marks;
A film thickness processing unit that obtains an identification result image for the target image obtained by the image acquisition unit using a machine learning model machine learned by the machine learning implementation unit, and obtains the film thickness based on the obtained identification result image. and
The film thickness processing section calculates a peeling degree indicating the degree of peeling in the film to be measured based on the determined identification result image, and when the calculated peeling degree satisfies a predetermined second condition, determining the film thickness based on the determined identification result image;
Film thickness measuring device.
請求項4に記載の機械学習方法を備える、膜厚を測定する膜測定方法であって、
前記機械学習モデルは、前記膜画像の画素ごとに対応付けられた複数の画素を備え、前記研磨痕における膜部分および前記研磨痕における部材部分を互いに異なる態様で表示した識別結果画像を出力し、
前記研磨痕を含むように、測定対象の膜を撮像した対象画像を取得する画像取得工程と、
前記画像取得工程で取得した対象画像に対する識別結果画像を、前記機械学習実施工程で機械学習した機械学習モデルを用いて求め、前記求めた識別結果画像に基づいて前記膜厚を求める膜厚処理工程とを備える、
膜厚測定方法。
A film measuring method for measuring film thickness, comprising the machine learning method according to claim 4,
The machine learning model includes a plurality of pixels associated with each pixel of the film image, and outputs an identification result image in which the film part in the polishing mark and the member part in the polishing mark are displayed in mutually different manners,
an image acquisition step of acquiring a target image of the film to be measured so as to include the polishing marks;
A film thickness processing step in which an identification result image for the target image obtained in the image acquisition step is obtained using a machine learning model learned by machine learning in the machine learning implementation step, and the film thickness is obtained based on the obtained identification result image. and
Film thickness measurement method.
JP2020207587A 2020-12-15 2020-12-15 Machine learning device and method, and film thickness measuring device and method Active JP7356962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020207587A JP7356962B2 (en) 2020-12-15 2020-12-15 Machine learning device and method, and film thickness measuring device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020207587A JP7356962B2 (en) 2020-12-15 2020-12-15 Machine learning device and method, and film thickness measuring device and method

Publications (2)

Publication Number Publication Date
JP2022094610A JP2022094610A (en) 2022-06-27
JP7356962B2 true JP7356962B2 (en) 2023-10-05

Family

ID=82162633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020207587A Active JP7356962B2 (en) 2020-12-15 2020-12-15 Machine learning device and method, and film thickness measuring device and method

Country Status (1)

Country Link
JP (1) JP7356962B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035282A (en) 2018-08-31 2020-03-05 株式会社日立ハイテクノロジーズ Pattern inspection system
JP2020134187A (en) 2019-02-14 2020-08-31 ファナック株式会社 Flaw inspection device and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035282A (en) 2018-08-31 2020-03-05 株式会社日立ハイテクノロジーズ Pattern inspection system
JP2020134187A (en) 2019-02-14 2020-08-31 ファナック株式会社 Flaw inspection device and method

Also Published As

Publication number Publication date
JP2022094610A (en) 2022-06-27

Similar Documents

Publication Publication Date Title
JP7444439B2 (en) Defect detection classification system and defect judgment training system
US11531843B2 (en) Substrate inspection apparatus and method of determining fault type of screen printer
US7432927B2 (en) Extended portfolio chart drawing device, processing method and computer-readable medium recording a program of the same
JP6756338B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP6609345B2 (en) Reading system, reading method, program, and storage medium
WO2018179559A1 (en) Defect detection system for aircraft component and defect detection method for aircraft component
WO2021130888A1 (en) Learning device, estimation device, and learning method
CN110363757B (en) Ultrasonic image measurement result display method, device, equipment and readable storage medium
JP5769559B2 (en) Image processing apparatus, image processing program, robot apparatus, and image processing method
US20220262145A1 (en) Image-processing-based object classification bootstrapping of region-level annotations
JP7356962B2 (en) Machine learning device and method, and film thickness measuring device and method
JP2020024741A (en) Reading system, reading method, program, and recording medium
KR101281461B1 (en) Multi-touch input method and system using image analysis
TWI410880B (en) Computer program product related to digital image analyzing
JP5855961B2 (en) Image processing apparatus and image processing method
TW201816557A (en) Computer readable recoding media can perform optical movement quality determining method and optical movement detecting apparatus applying the optical movement quality determining method
JP5815434B2 (en) Manual creation support device and manual creation support method
JP7416071B2 (en) Judgment device and judgment program
WO2021140823A1 (en) Pattern edge detecting method, pattern edge detecting device, and recording medium having program for causing computer to execute pattern edge detection recorded thereon
JP7393321B2 (en) Machine learning device and method, and film adhesion evaluation device and method
US20200218756A1 (en) System and Method for Generating Digital Information and Altering Digital Models of Components With Same
JP6241152B2 (en) Information input device, control method, and program
JP2021128415A (en) Machine learning method and information processing device for machine learning
WO2022208620A1 (en) Information processing device, information processing method, and information processing program
Belshe Chess Piece Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R150 Certificate of patent or registration of utility model

Ref document number: 7356962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150