JP2011192032A - Flaw learning device, flaw learning method and computer program - Google Patents

Flaw learning device, flaw learning method and computer program Download PDF

Info

Publication number
JP2011192032A
JP2011192032A JP2010057762A JP2010057762A JP2011192032A JP 2011192032 A JP2011192032 A JP 2011192032A JP 2010057762 A JP2010057762 A JP 2010057762A JP 2010057762 A JP2010057762 A JP 2010057762A JP 2011192032 A JP2011192032 A JP 2011192032A
Authority
JP
Japan
Prior art keywords
data
learning model
feature
wrinkle
cocoon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010057762A
Other languages
Japanese (ja)
Inventor
Takamichi Kobayashi
尊道 小林
Shunichi Kaneko
俊一 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2010057762A priority Critical patent/JP2011192032A/en
Publication of JP2011192032A publication Critical patent/JP2011192032A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To select data suited to the updating of a learning model from the data of many flaws when updating the learning model for discriminating a flaw kind from the feature amount of the flaw generated in a flaw inspection object using the data of the feature amount of the flaw for which the correct answer data of the flaw kind are given. <P>SOLUTION: The learning model is generated as a set of a plurality (L pieces) of partial feature amount spaces for making the set of the range of values of feature amounts for completely separating the flaw kinds "CL1", "CL2" and the flaw kinds "CL1", "CL2" correspond to each other. Then, the learning model is updated using only the flaw data with low reliability over the discrimination result of a flaw kind in the learning model in the feature amount space among the inputted flaw data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、疵学習装置、疵学習方法、及びコンピュータプログラムに関し、特に、画像から検査対象物の表面に形成されている疵の疵種を自動的に判別するために用いて好適なものである。   The present invention relates to a wrinkle learning device, a wrinkle learning method, and a computer program, and is particularly suitable for automatically discriminating the type of wrinkle formed on the surface of an inspection object from an image. .

鋼板等の製造ラインにおいては、有害な疵が被圧延材に生じてしまうことがある。このため、被圧延材の表面を照明して得られる反射光を検知して撮像することにより得られた画像を処理して疵候補の画像について特徴量を抽出し、抽出した特徴量に基づいて、被圧延材に生じている有害な疵の有無及び種類等を検査することが行われている。特徴量には、疵の長さ・幅・面積等の寸法的な特徴量と、円形度・アスペクト比(縦横比)等の形状的な特徴量と、疵部の画像濃度の平均値・最小値・最大値等の濃淡的な特徴量等がある。このような特徴量を画像から抽出することによって、疵の種類や等級(評点)等(これらを疵種と総称する)を判別することができる。   In a production line such as a steel plate, harmful wrinkles may occur in the material to be rolled. For this reason, the image obtained by detecting and imaging the reflected light obtained by illuminating the surface of the material to be rolled is processed to extract the feature amount for the image of the wrinkle candidate, and based on the extracted feature amount Inspecting the presence and type of harmful flaws occurring in the material to be rolled is performed. Features include dimensional features such as heel length, width, and area, shape features such as circularity and aspect ratio (aspect ratio), and average and minimum image density of the heel. There are light and dark feature values such as value and maximum value. By extracting such feature amounts from the image, it is possible to discriminate the type, grade (score), and the like (these are collectively referred to as “species”).

このような疵の検査を行う検査装置では、教師データを用いた学習を行って、特徴量から疵種を出力する学習モデルを構築する(教師あり機械学習を行う)ようにしている。ここで、多数の疵のデータ(画像)を収集して、当該疵のそれぞれについて、検査員が疵種を決定し、当該疵に対して、決定した疵種のデータを正解データとして登録したものを教師データという。このような教師データを収集することには、多大なコストを必要とすることは一般的に知れられている(特許文献1、非特許文献1を参照)。   In an inspection apparatus that performs such an inspection of wrinkles, learning using teacher data is performed to construct a learning model that outputs the seeds from the feature values (performed supervised machine learning). Here, data (images) of a large number of cocoons are collected, and for each of the cocoons, the inspector determines the cocoon type, and the determined cocoon type data is registered as correct data for the cocoon. Is called teacher data. It is generally known that collecting such teacher data requires an enormous cost (see Patent Document 1 and Non-Patent Document 1).

従来の教師あり機械学習では、特徴量空間においてなるべく広範囲に分布したデータに対する学習モデルを作成する必要があるため、大量の教師データを用いるようにしていた。特に、鋼板等の製造ラインにおける疵の検査装置のように、長期間運用する設備においては、定期的に疵のデータを採取し、これに教師データを与えて学習を行う必要があるとされていた。しかしながら、実際に扱うことが可能な疵のデータ(画像)の数には限界があり、これが限界を超えた場合には計算量が増大し、学習を実行することが不可能となる。また、例えば、疵種Aと疵種Bとを判別する学習モデルを作成する場合に、学習モデルを作成する調整員が誤って疵種A、Bと無関係なデータを疵のデータに含めると、得られる学習モデルの信頼性を損ねることになる。このように、適切な疵のデータの選択は、精度の高い機械学習を実現するために不可欠の要素である。   In conventional supervised machine learning, it is necessary to create a learning model for data distributed as widely as possible in the feature space, so a large amount of teacher data is used. In particular, in facilities that operate for a long period of time, such as an inspection device for defects in a production line for steel plates, it is said that it is necessary to periodically collect defects data and provide it with teacher data for learning. It was. However, there is a limit to the number of wrinkle data (images) that can actually be handled, and when this exceeds the limit, the amount of calculation increases and learning cannot be performed. Also, for example, when creating a learning model for discriminating between species A and species B, if the coordinator who creates the learning model erroneously includes data unrelated to species A and B in the data of the species, The reliability of the resulting learning model will be impaired. As described above, selection of appropriate wrinkle data is an indispensable element for realizing highly accurate machine learning.

しかしながら、従来は、調整員の感覚で、疵のデータの取捨選択を行い、あらゆる種類の疵のデータを計算可能な上限までの範囲で用意しておくしかなかった。疵のデータを査定(判断)するためには、鋼板を再検査ラインに通板して鋼板を詳細に観察し、観察した鋼板の疵と、疵の検査装置が表示する疵の画像とを見比べて当該疵に正解データを付与するという作業が必要である。よって、数個〜数10個の疵のデータを判断するために数時間の時間と再検査ラインの稼働とが必要になる。このため、前述したように、教師データを収集することには多大なコストを費やしていた。
そこで、特許文献1では、大多数のデータが従う確率分布から外れたデータを、発生しにくいデータと考え、当該データを「統計的外れ値」として除外し、当該データを異常(不正)と同定している。そして、当該データを除くデータに正解データを付与して教師あり学習を行うようにしている。
Conventionally, however, it has been necessary to perform selection of cocoon data in the sense of a coordinator and prepare all types of cocoon data within a range that can be calculated. In order to assess (judge) the defect data, pass the steel sheet through the re-inspection line, observe the steel sheet in detail, and compare the observed defect of the steel sheet with the image of the defect displayed by the defect inspection device. Therefore, it is necessary to give correct data to the bag. Therefore, several hours to several tens of pieces of soot data are required for several hours and re-inspection line operation. For this reason, as described above, a great deal of cost has been spent collecting teacher data.
Therefore, in Patent Document 1, data that deviates from the probability distribution followed by the majority of data is considered to be data that is unlikely to occur, the data is excluded as a “statistical outlier”, and the data is identified as abnormal (incorrect). ing. Then, correct data is assigned to data excluding the data to perform supervised learning.

特開2003−5970号公報JP 2003-5970 A

尾上守夫監訳,「パターン識別」,新技術コミュニケーションズ,2003年2月,p14Translated by Morio Onoe, “Pattern Identification”, New Technology Communications, February 2003, p14

しかしながら、例えば、「統計的外れ値」を有するデータが、特徴量空間における複数の疵種の識別境界付近に存在することが考えられる。このような場合、当該データを単純に「異常値」と判断できない。
また、学習モデルが逐次的に更新される場合には、新たに学習されるべき疵のデータが、操業条件の変更等によって、特徴量空間で従来のデータと異なる「統計的外れ値」を有する場合がある。このような場合に、単純な特徴量の確率分布で当該データを異常値として判断してしまうと、逐次的に学習モデルを作成するような鋼板の疵の検査装置では、大切なデータを除外してしまうことになる。
本発明は、このような問題点に鑑みてなされたものであり、疵検査対象物に生じている疵の特徴量から疵種を判別するための学習モデルを、疵種の正解データが与えられた疵の特徴量のデータを用いて更新するに際し、多数の疵のデータから学習モデルの更新に適したデータを選択できるようにすることを目的とする。
However, for example, it is conceivable that data having a “statistical outlier” exists in the vicinity of the identification boundary of a plurality of species in the feature amount space. In such a case, the data cannot be simply determined as an “abnormal value”.
In addition, if the learning model is updated sequentially, the data of the kite to be newly learned has a “statistical outlier” that is different from the conventional data in the feature amount space due to a change in the operating conditions, etc. There is. In such a case, if the data is judged as an abnormal value with a simple probability distribution of feature values, the steel sheet flaw inspection apparatus that sequentially creates a learning model excludes important data. It will end up.
The present invention has been made in view of such problems, and a learning model for discriminating the species from the feature amount of the kite occurring in the kite inspection object is provided with correct data of the kite type. An object of the present invention is to enable selection of data suitable for updating a learning model from a large number of wrinkle data when updating using the data of the feature amount of the wrinkles.

本発明の疵学習装置は、検査対象物の画像から、データ項目として疵の複数の特徴量をそれぞれ含む複数個の疵データを取得する取得手段と、前記疵データそれぞれに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与する付与手段と、前記取得手段により取得された疵データの特徴量の値であって、前記付与手段により正解データが付与された複数個の疵データそれぞれの複数の特徴量の値を、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、疵データの複数の特徴量の値から当該疵データの疵種を判別するための学習モデルを生成する生成手段と、前記取得手段により取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出する抽出手段と、前記生成手段により生成された学習モデルを更新する更新手段と、を有し、前記付与手段は、前記更新手段により前記学習モデルを更新する際には、前記取得手段により取得された疵データのうち、前記抽出手段により抽出された疵データに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与し、前記更新手段は、前記抽出手段により抽出された疵データの特徴量の値であって、前記付与手段により正解データが付与された疵データの複数の特徴量の値と、既に前記学習モデルの生成に使用された疵データの当該複数の特徴量の値とを、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、前記学習モデルを更新することを特徴とする。   The wrinkle learning device according to the present invention includes an acquisition unit that acquires a plurality of wrinkle data each including a plurality of features of a wrinkle as data items from an image of an inspection object, and a variety of correct answers for each of the wrinkle data An assigning means for giving data based on an operation of the input device by a user, and a feature value of the wrinkle data obtained by the obtaining means, wherein a plurality of wrinkles to which correct data is given by the giving means Based on the result of arranging a plurality of feature values of each piece of data in a feature amount space having each of the plurality of feature amounts as respective coordinate axes, the type of the heel data is determined from the plurality of feature value values of the heel data. In the feature amount space having each coordinate axis as a plurality of feature amounts of the wrinkle data among the wrinkle data acquired by the generation unit that generates a learning model for determination and the acquisition unit, An extraction unit that extracts cocoon data having a low certainty with respect to the determination result of the cocoon type in the learning model, and an update unit that updates the learning model generated by the generation unit, and the grant unit includes the update unit When the learning model is updated by the above, the correct answer data of the cocoon data extracted by the extracting unit among the cocoon data acquired by the acquiring unit is obtained based on the operation of the input device by the user. The update means is a feature value value of the heel data extracted by the extraction means, and a plurality of feature value values of the heel data to which correct data is assigned by the grant means, Based on the result of arranging the values of the plurality of feature amounts of the eyelid data used for generating the learning model in the feature amount space having each of the plurality of feature amounts as coordinate axes, And updates the model.

本発明の疵学習方法は、検査対象物の画像から、データ項目として疵の複数の特徴量をそれぞれ含む複数個の疵データを取得する取得工程と、前記疵データそれぞれに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与する付与工程と、前記取得工程により取得された疵データの特徴量の値であって、前記付与工程により正解データが付与された複数個の疵データそれぞれの複数の特徴量の値を、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、疵データの複数の特徴量の値から当該疵データの疵種を判別するための学習モデルを生成する生成工程と、前記取得工程により取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出する抽出工程と、前記生成工程により生成された学習モデルを更新する更新工程と、を有し、前記付与工程は、前記更新工程により前記学習モデルを更新する際には、前記取得工程により取得された疵データのうち、前記抽出工程により抽出された疵データに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与し、前記更新工程は、前記抽出工程により抽出された疵データの特徴量の値であって、前記付与工程により正解データが付与された疵データの複数の特徴量の値と、既に前記学習モデルの生成に使用された疵データの当該複数の特徴量の値とを、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、前記学習モデルを更新することを特徴とする。   According to the wrinkle learning method of the present invention, an acquisition step of acquiring a plurality of wrinkle data each including a plurality of features of a wrinkle as a data item from an image of an inspection object, and a variety of correct answers for each of the wrinkle data A granting step for granting data based on an operation of the input device by a user, and a feature value of the trap data acquired by the acquisition step, wherein a plurality of traps to which correct data is given by the granting step Based on the result of arranging a plurality of feature values of each piece of data in a feature amount space having each of the plurality of feature amounts as respective coordinate axes, the type of the heel data is determined from the plurality of feature value values of the heel data. In the feature amount space in which each of the plurality of feature amounts of the wrinkle data among the wrinkle data acquired by the generating step and generating the learning model for discrimination An extraction process for extracting cocoon data having a low certainty for the determination result of the cocoon type in the learning model, and an updating process for updating the learning model generated by the generating process, wherein the adding process includes the updating process When the learning model is updated by the above, among the cocoon data obtained by the obtaining step, the cocoon data extracted by the extraction step is used to obtain various kinds of correct answer data based on the operation of the input device by the user. And the updating step is a feature value value of the heel data extracted by the extraction step, and a plurality of feature value values of the heel data to which correct data is given by the adding step, and Based on the result of arranging the values of the plurality of feature amounts of the eyelid data used for generating the learning model in the feature amount space having each of the plurality of feature amounts as coordinate axes, And updates the model.

本発明のコンピュータプログラムは、検査対象物の画像から、データ項目として疵の複数の特徴量をそれぞれ含む複数個の疵データを取得する取得工程と、前記疵データそれぞれに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与する付与工程と、前記取得工程により取得された疵データの特徴量の値であって、前記付与工程により正解データが付与された複数個の疵データそれぞれの複数の特徴量の値を、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、疵データの複数の特徴量の値から当該疵データの疵種を判別するための学習モデルを生成する生成工程と、前記取得工程により取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出する抽出工程と、前記生成工程により生成された学習モデルを更新する更新工程と、をコンピュータに実行させ、前記付与工程は、前記更新工程により前記学習モデルを更新する際には、前記取得工程により取得された疵データのうち、前記抽出工程により抽出された疵データに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与し、前記更新工程は、前記抽出工程により抽出された疵データの特徴量の値であって、前記付与工程により正解データが付与された疵データの複数の特徴量の値と、既に前記学習モデルの生成に使用された疵データの当該複数の特徴量の値とを、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、前記学習モデルを更新することを特徴とする。   The computer program according to the present invention includes an acquisition step of acquiring a plurality of wrinkle data each including a plurality of features of a wrinkle as data items from an image of an inspection object, and a variety of correct answer data for each of the wrinkle data And a plurality of wrinkle data to which correct answer data has been given by the giving step. Based on the result of arranging each of the plurality of feature values in the feature amount space with each of the plurality of feature amounts as each coordinate axis, the type of the cocoon data is determined from the plurality of feature value values of the heel data A learning model for generating a learning model, and among the wrinkle data acquired by the acquisition step, a plurality of feature amounts of the wrinkle data are in a feature amount space having each coordinate axis And an extraction step for extracting cocoon data having a low certainty with respect to a discrimination result of the cocoon type in the learning model, and an updating step for updating the learning model generated by the generation step, and the adding step When the learning model is updated by the updating step, the user inputs the correct answer data for the cocoon data extracted by the extracting step among the cocoon data acquired by the acquiring step. The update step is a feature value value of the wrinkle data extracted by the extraction step, and the update step includes a plurality of feature amounts of the wrinkle data to which correct data is given by the addition step. The values and the values of the plurality of feature values of the eyelid data that have already been used for generating the learning model into a feature amount space with each of the plurality of feature values as coordinate axes. Based on the result of the location, and updates the learning model.

本発明によれば、取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出し、抽出した疵データを用いて学習モデルを更新するようにした。したがって、多数の疵データから学習モデルの更新に適したデータを選択できる。よって、学習モデルを更新するための検査員の作業を軽減することができると共に、学習モデルの信頼性を向上させることができる。   According to the present invention, from the acquired wrinkle data, the wrinkle data having a low certainty for the discrimination result of the wrinkle type in the learning model is extracted in the feature amount space having each of the plurality of feature amounts of the wrinkle data as coordinate axes. The learning model is updated using the extracted soot data. Therefore, data suitable for updating the learning model can be selected from a large number of bag data. Therefore, the work of the inspector for updating the learning model can be reduced, and the reliability of the learning model can be improved.

本発明の実施形態を示し、表面疵検査システムの概略構成の一例を示した図である。It is the figure which showed embodiment of this invention and showed an example of schematic structure of the surface flaw inspection system. 本発明の実施形態を示し、疵判定装置が有する機能構成の一例を示すブロック図である。It is a block diagram which shows embodiment of this invention and shows an example of the function structure which a wrinkle determination apparatus has. 本発明の実施形態を示し、疵学習装置が有する機能構成の一例を示すブロック図である。It is a block diagram which shows embodiment of this invention and shows an example of the function structure which a heel learning apparatus has. 本発明の実施形態を示し、各特徴量を座標軸とする座標空間に、疵種に関する複数個の疵データのデータ点を配置した様子の一例を示す図である。It is a figure which shows embodiment of this invention and shows an example of a mode that the data point of the some cocoon data regarding a kind is arrange | positioned in the coordinate space which uses each feature-value as a coordinate axis. 本発明の実施形態を示し、学習モデルの一例を概念的に示す図である。It is a figure which shows embodiment of this invention and shows an example of a learning model notionally. 本発明の実施形態を示し、学習モデル(部分特徴量空間)が更新される様子の一例を概念的に示す図である。It is a figure which shows embodiment of this invention and shows an example of a mode that a learning model (partial feature-value space) is updated. 本発明の実施形態を示し、各疵データの疵種「CL1」、「CL2」を判定する処理の一例を概念的に示す図である。It is a figure which shows embodiment of this invention and shows an example of the process which determines the seed | species "CL1" and "CL2" of each eyelid data. 本発明の実施形態を示し、特徴量fi、fjのそれぞれを座標軸とする特徴量空間における疵データの配置例を概念的に示す図である。It is a figure which shows embodiment of this invention and shows the example of arrangement | positioning of the wrinkle data in the feature-value space which uses each of feature-value fi and fj as a coordinate axis. 本発明の実施形態を示し、疵種「CL1」への投票率と、疵データの数(データ数)との関係の一例を示す図である。It is a figure which shows embodiment of this invention and shows an example of the relationship between the vote rate with respect to the kind "CL1", and the number (data number) of soot data. 本発明の実施形態を示し、疵判定装置の動作の一例を説明するフローチャートである。It is a flowchart which shows embodiment of this invention and demonstrates an example of operation | movement of a wrinkle determination apparatus. 本発明の実施形態を示し、疵学習装置の動作の一例を説明するフローチャートである。It is a flowchart which shows embodiment of this invention and demonstrates an example of the operation | movement of a wrinkle learning apparatus. 本発明の実施形態を示し、各月における学習モデルの生成・更新に使用した疵データの数(データ数)の一例を示す図である。It is a figure which shows embodiment of this invention and shows an example of the number of data (data number) used for the production | generation / update of the learning model in each month. 本発明の実施系体を示し、各月における疵種一致率の一例を示す図である。It is a figure which shows the implementation type | system | group of this invention, and shows an example of the soot seed | species coincidence rate in each month.

以下、図面を参照しながら、本発明の一実施形態を説明する。
図1は、表面疵検査システムの概略構成の一例を示した図である。尚、本実施形態では、図1に示すように、帯状鋼板1は、スナウト11を通じて溶融金属めっき浴12に浸漬され、浴中折り返しロール13及び浴中支持ロール14を介して溶融金属めっき浴12から鉛直方向に引き上げられる。そして、溶融金属めっき浴12から引き上げられた帯状鋼板1の表面・裏面に対して、ワイピングノズル15a・15bからガスが吹き付けられてめっきの目付量が調整される。本実施形態では、このようなめっき製造ラインで製造されためっき鋼板10が疵検査対象物である場合を例に挙げて説明する。また、以下の説明では、めっき鋼板10を鋼板10と略称する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a schematic configuration of a surface defect inspection system. In the present embodiment, as shown in FIG. 1, the strip steel plate 1 is immersed in a molten metal plating bath 12 through a snout 11, and the molten metal plating bath 12 is passed through a folding roll 13 in the bath and a support roll 14 in the bath. Is pulled up vertically. Then, gas is blown from the wiping nozzles 15a and 15b to the front and back surfaces of the strip steel plate 1 pulled up from the molten metal plating bath 12 to adjust the basis weight of plating. In this embodiment, the case where the plated steel plate 10 manufactured with such a plating manufacturing line is a flaw inspection object will be described as an example. Moreover, in the following description, the plated steel plate 10 is abbreviated as the steel plate 10.

図1において、鋼板10は、搬送ロール2a、2bによって、鋼板10の長手方向(図1の矢印の方向)に搬送(移動)される。また、搬送ロール2a、2bの回転は、夫々ロータリーエンコーダ3により検出されるようにしている。
このようなめっき製造ラインに設置される表面疵検査システムは、照明装置4と、撮像装置5と、疵判定装置6と、疵学習装置7とを有している。
In FIG. 1, the steel plate 10 is conveyed (moved) in the longitudinal direction of the steel plate 10 (the direction of the arrow in FIG. 1) by the conveying rolls 2a and 2b. The rotations of the transport rolls 2a and 2b are detected by the rotary encoder 3, respectively.
The surface wrinkle inspection system installed in such a plating production line includes a lighting device 4, an imaging device 5, a wrinkle determination device 6, and a wrinkle learning device 7.

照明装置4は、例えばハロゲンランプ等、好ましくは高い輝度を有する光を出射する発光部と、集光レンズ等の集光部とを有する。ハロゲンランプ等から出射される光が集光部で線状に集光されることにより、鋼板10の表面がその幅方向で線状に照明される。尚、本実施形態では、鋼板10の幅方向の全てが確実に線状に照明されるように、鋼板10の幅方向の長さよりも長い線状の光束を照明装置4が照射するようにしている。   The illuminating device 4 includes, for example, a light emitting unit that emits light having high luminance, such as a halogen lamp, and a condensing unit such as a condensing lens. The light emitted from the halogen lamp or the like is condensed linearly by the condensing unit, so that the surface of the steel plate 10 is illuminated linearly in the width direction. In the present embodiment, the illuminating device 4 irradiates a linear luminous flux longer than the length in the width direction of the steel plate 10 so that the entire width direction of the steel plate 10 is surely illuminated in a linear shape. Yes.

撮像装置5は、照明装置4により照明された鋼板10の疵検査範囲を撮像して画像信号を生成する機能を有している。撮像装置5は、図1に示すように、照明装置4から照射され、鋼板10に当たって反射される光の光路上に配置される。この撮像装置5は、画像をフレーム単位で読み取るエリアカメラ(センサ)と、画像をライン単位で読み取るラインカメラ(センサ)との何れであってもよく、また、CCD撮像素子やCMOS撮像素子等のカメラでも良い。また、撮像画像は、白黒濃淡画像及びカラー画像の何れであってもよい。
ここでは、撮像装置5として、白黒濃淡画像を出力するラインカメラを使用した場合を例として挙げて説明する。具体的に撮像装置5は、鋼板10の幅方向に細長い疵検査範囲の濃淡画像を撮像し、例えば白黒256階調の情報を撮像画像として出力するものとする。
The imaging device 5 has a function of capturing an image inspection range of the steel plate 10 illuminated by the illumination device 4 and generating an image signal. As shown in FIG. 1, the imaging device 5 is disposed on the optical path of light that is irradiated from the illumination device 4 and reflected by the steel plate 10. The imaging device 5 may be either an area camera (sensor) that reads an image in units of frames or a line camera (sensor) that reads an image in units of lines, such as a CCD image sensor or a CMOS image sensor. You can use a camera. The captured image may be a black and white grayscale image or a color image.
Here, the case where a line camera that outputs a monochrome grayscale image is used as the imaging device 5 will be described as an example. Specifically, the imaging device 5 captures a grayscale image in the wrinkle inspection range that is elongated in the width direction of the steel plate 10, and outputs, for example, black and white 256 gradation information as a captured image.

移動する鋼板10の表面を、所定の空間分解能で隙間なく連続して撮像装置5が撮像できるように、ロータリーエンコーダ3は、鋼板10の搬送速度に応じた制御タイミング信号(パルス信号)を撮像装置5に出力する。撮像装置5は、このロータリーエンコーダ3から出力される制御タイミング信号に従って、撮像と撮像画像の転送とを繰り返す。   The rotary encoder 3 outputs a control timing signal (pulse signal) corresponding to the conveying speed of the steel plate 10 so that the imaging device 5 can continuously capture the surface of the moving steel plate 10 with a predetermined spatial resolution without any gap. 5 is output. The imaging device 5 repeats imaging and transfer of the captured image according to the control timing signal output from the rotary encoder 3.

疵判定装置6及び疵学習装置7は、例えばPC(Personal Computer)である。疵判定装置6及び疵学習装置7は、CPU、ROM、RAM、ハードディスク、キーボードやマウスからなるユーザインターフェース、及びデータ入出力制御装置等を有している。尚、CPU、ROM、RAM、ハードディスク、ユーザインターフェース、及びデータ入出力制御装置は、夫々通信バスに接続されており、互いに通信することが可能である。また、本実施形態では、疵判定装置6及び疵学習装置7は、例えばLAN(Local Area Network)を介して、通信可能に相互に接続されているものとする。   The wrinkle determination device 6 and the wrinkle learning device 7 are, for example, PCs (Personal Computers). The eyelid determination device 6 and the eyelid learning device 7 include a CPU, ROM, RAM, hard disk, user interface including a keyboard and a mouse, a data input / output control device, and the like. The CPU, ROM, RAM, hard disk, user interface, and data input / output control device are each connected to a communication bus and can communicate with each other. In this embodiment, it is assumed that wrinkle determination device 6 and wrinkle learning device 7 are connected to each other so as to be communicable via, for example, a LAN (Local Area Network).

疵判定装置6の記憶媒体の一つであるハードディスクには、後述するようにして疵種の判別(疵検査)を行うための疵検用アプリケーションプログラムや、その疵検用アプリケーションプログラムで使用されるデータが記憶されている。この他、疵判定装置6のハードディスクには、撮像装置5で撮像され、データ入出力制御装置で処理された画像データ等も記憶される。ここで、データ入出力制御装置は、撮像装置5から出力されたライン毎の画像データを、例えば、2048(幅)×512(長さ)の画素数を有する画像データを構成するための処理を行って、RAMに転送する。尚、ここでは、説明の便宜上、1画素は、鋼板1の表面の1mm×1mmの領域の撮像画像を表すものとする。すなわち、2048(幅)×512(長さ)の画素数で構成される画像は、鋼板1の幅が2048mm、長さが512mmの範囲の撮像画像を表すものとする。   The hard disk, which is one of the storage media of the eyelid determination device 6, is used in an inspection application program for determining the type of eyelids (an eyelid inspection) and the application program for the inspection as will be described later. Data is stored. In addition, the hard disk of the eyelid determination device 6 also stores image data captured by the imaging device 5 and processed by the data input / output control device. Here, the data input / output control device performs processing for configuring the image data for each line output from the imaging device 5 into, for example, image data having the number of pixels of 2048 (width) × 512 (length). And transfer to RAM. Here, for convenience of explanation, one pixel represents a captured image of a 1 mm × 1 mm region on the surface of the steel plate 1. That is, an image composed of 2048 (width) × 512 (length) pixels represents a captured image having a width of 2048 mm and a length of 512 mm of the steel plate 1.

疵学習装置7の記憶媒体の一つであるハードディスクには、疵判定装置6で疵検査を行うための判別モデル(学習モデル)を生成・更新するための疵学習用アプリケーションプログラムや、その疵学習用アプリケーションプログラムで使用されるデータが記憶されている。また、疵学習装置7のハードディスクには、後述するようにして疵判定装置6で得られた"データ項目として疵に関する複数の特徴量を含む疵データ"等も記憶される。疵判定装置6は、疵学習装置7で得られた、最新の学習モデルを入力しこの学習モデルに従って疵検査を行う。前述したように、特徴量としては、例えば、疵の長さ・幅・面積等の寸法的な特徴量と、円形度・アスペクト比(縦横比)等の形状的な特徴量と、疵部の画像濃度の平均値・最小値・最大値等の濃淡的な特徴量等がある。   The hard disk, which is one of the storage media of the heel learning device 7, has a heel learning application program for generating and updating a discrimination model (learning model) for performing the heel inspection by the heel determination device 6, and its heel learning. Data used in the application program is stored. The hard disk of the wrinkle learning device 7 also stores “haze data including a plurality of feature amounts relating to wrinkles as data items” obtained by the wrinkle determination device 6 as described later. The wrinkle determination device 6 inputs the latest learning model obtained by the wrinkle learning device 7 and performs a wrinkle inspection according to the learning model. As described above, as the feature amount, for example, a dimensional feature amount such as the length, width, and area of the heel, a shape feature amount such as a circularity, an aspect ratio (aspect ratio), and the like, There are shaded features such as the average value, minimum value, and maximum value of image density.

疵判定装置6、疵学習装置7のCPU等は、ユーザインターフェースのユーザによる操作等に基づいて、疵検用アプリケーションプログラム、疵学習用アプリケーションプログラムを起動する。そして、CPU等は、疵検用アプリケーションプログラム、疵学習用アプリケーションプログラムを実行して、疵検査、学習モデルの生成・更新を行うための処理を実行する。
表示装置8、9は、例えばLCD(Liquid Crystal Display)等を備えており、それぞれ疵判定装置6、疵学習装置7により実行された処理に基づく画像を表示するためのものである。
尚、図1では、鋼鈑10の一面(表面)についてのみ疵検査を行う場合を示しているが、実際には、鋼鈑10の他面(裏面)についても疵検査を行うようにする。
The CPU and the like of the wrinkle determination device 6 and the wrinkle learning device 7 activate the flaw detection application program and the wrinkle learning application program based on the operation of the user interface by the user. Then, the CPU or the like executes an inspection application program and an eyelid learning application program to execute processes for performing eyelid inspection and learning model generation / update.
The display devices 8 and 9 include, for example, an LCD (Liquid Crystal Display) and the like, and are for displaying images based on processes executed by the eyelid determination device 6 and the eyelid learning device 7, respectively.
In addition, in FIG. 1, although the case where a flaw test | inspection is performed only about one surface (front surface) of the steel plate 10 is shown, a flaw inspection is actually performed also about the other surface (back surface) of the steel plate 10.

図2は、疵判定装置6が有する機能構成の一例を示すブロック図である。
図2において、画像入力部21は、撮像装置5で撮像されたライン毎の画像データを入力し、連続して入力した複数のライン毎の画像データ(2048×1画素)を用いて、例えば、2048(幅)×512(長さ)の画素数を有する画像データを構成する。そして、画像入力部21は、その画像データをRAMに記憶する。
画像入力部21は、例えば、疵判定装置6が有するデータ入出力制御装置が前述した処理を実行することにより実現される。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the wrinkle determination device 6.
In FIG. 2, the image input unit 21 inputs image data for each line imaged by the imaging device 5, and uses, for example, image data (2048 × 1 pixel) for a plurality of lines continuously input, for example, Image data having the number of pixels of 2048 (width) × 512 (length) is configured. Then, the image input unit 21 stores the image data in the RAM.
The image input unit 21 is realized, for example, when the data input / output control device included in the eyelid determination device 6 executes the processing described above.

シェーディング補正部22は、画像入力部21で得られた画像データの全体が一様な明るさになるように、その画像データに対して、シェーディング補正を行う。そして、シェーディング補正部22は、シェーディング補正を行った画像データを、RAM(記憶媒体)に記憶する。
シェーディング補正部22は、例えば、疵判定装置6のCPUが、シェーディング補正を行うためのプログラムを実行することにより実現される。
The shading correction unit 22 performs shading correction on the image data so that the entire image data obtained by the image input unit 21 has uniform brightness. Then, the shading correction unit 22 stores the image data subjected to the shading correction in a RAM (storage medium).
The shading correction unit 22 is realized, for example, when the CPU of the wrinkle determination device 6 executes a program for performing shading correction.

二値化部23は、シェーディング補正が行われた画像データに対して、二値化処理を行う。具体的に説明すると、二値化部23は、例えば、シェーディング補正が行われた画像データの各画素の値が、ハードディスク等に予め設定された閾値よりも大きいか否かを判定する。そして、閾値よりも大きい画素の値を「1」、そうでない画素の値を「0」にして、画素の値(輝度値)として「0」か「1」しか持たない2値画像を生成する。
二値化部23は、例えば、疵判定装置6のCPUが、二値化処理を行うためのプログラムを実行することにより実現される。
The binarization unit 23 performs binarization processing on the image data that has undergone shading correction. Specifically, the binarization unit 23 determines whether, for example, the value of each pixel of the image data subjected to the shading correction is larger than a threshold set in advance in the hard disk or the like. Then, the value of the pixel larger than the threshold is set to “1”, the value of the other pixel is set to “0”, and a binary image having only “0” or “1” as the pixel value (luminance value) is generated. .
The binarization unit 23 is realized, for example, when the CPU of the eyelid determination device 6 executes a program for performing binarization processing.

ラベリング/特徴量計算部24は、二値化部23により得られた2値画像に対してラベリング処理及び特徴量計算を行い、疵候補を抽出する。ここで、ラベリング処理とは、特徴量計算の前に行う処理であり、2値画像中において単一の図形又は幾何的に連結して一つの塊となっている図形(連結図形)毎に、異なった番号(ラベル)を割り当てる処理である。
また、特徴量計算(特徴抽出)とは、図形の形状に関する特徴量を求める処理である。この特徴量計算で求める特徴量は、例えば、「疵候補に外接する長方形の『幅・長さ・長さと幅の比(アスペクト比)・面積・円形度・最大長・周囲長』」、及び「疵候補の輝度分布(輝度の平均値・最小値・最大値等)」等の中から選択される1又は2以上の組み合わせである。ラベリング/特徴量計算部24は、このようにして求めた"疵に関する複数の特徴量"をデータ項目として含む疵データを、当該特徴量を有する疵が存在する"鋼鈑10上の位置"のデータと対応付けて(すなわち紐つけて)、疵データ記憶部25に記憶する。
ラベリング/特徴量計算部24は、例えば、疵判定装置6のCPUが、ラベリング処理と特徴量を計算するためのプログラムを実行することにより実現される。
尚、特徴量を求めることができれば、特徴量を求めるための処理の内容は前述したものに限定されない。
The labeling / feature amount calculation unit 24 performs a labeling process and a feature amount calculation on the binary image obtained by the binarization unit 23, and extracts a wrinkle candidate. Here, the labeling process is a process performed before the feature amount calculation, and for each figure (connected figure) that is a single figure or geometrically connected in the binary image to form one lump. This is a process of assigning different numbers (labels).
The feature amount calculation (feature extraction) is a process for obtaining a feature amount related to the shape of a figure. The feature amount calculated by this feature amount calculation is, for example, “a rectangle circumscribing the heel candidate“ width / length / length / width ratio (aspect ratio) / area / circularity / maximum length / perimeter ””, and It is one or a combination of two or more selected from “brightness candidate luminance distribution (average value, minimum value, maximum value, etc. of luminance)”. The labeling / feature quantity calculating unit 24 uses the soot data including the “a plurality of feature quantities relating to the soot” obtained as described above as the data item of the “position on the steel plate 10” where the soot having the feature quantity exists. The data is stored in the bag data storage unit 25 in association with the data (that is, linked).
The labeling / feature amount calculation unit 24 is realized, for example, when the CPU of the eyelid determination apparatus 6 executes a labeling process and a program for calculating the feature amount.
If the feature amount can be obtained, the contents of the process for obtaining the feature amount are not limited to those described above.

後述するように疵学習装置7は、学習モデルを生成すると、その学習モデルを疵判定装置6に送信する。疵判定装置6の学習モデル取得部26は、疵学習装置7から学習モデルを受信すると、その学習モデルを疵判定部27に出力する。
学習モデル取得部26は、例えば、疵判定装置6のデータ入出力制御装置が前述した処理を実行することにより実現される。
As will be described later, when the learning model 7 generates a learning model, the learning model 7 transmits the learning model to the determining apparatus 6. When the learning model acquisition unit 26 of the heel determination device 6 receives the learning model from the heel learning device 7, the learning model acquisition unit 26 outputs the learning model to the heel determination unit 27.
The learning model acquisition unit 26 is realized, for example, when the data input / output control device of the eyelid determination device 6 executes the above-described processing.

疵判定部27は、疵データ記憶部25に記憶されている疵候補の疵データに対して、学習モデル取得部26から出力された最新の学習モデルを適用して、疵候補に対する最終的な疵判定を行う。例えば、疵候補が、製品の品質に影響を与えるロール疵であれば、疵判定部27は、当該疵候補を有害疵と判定する。また、疵判定部27は、疵種として、疵の種類及び疵の等級(評点)も判定する。一方、疵候補が、鋼板10の表面に付着した「油、水滴、軽い汚れ等」であり、製品の品質に影響を与えないものであれば、疵判定部27は、当該疵候補を無害疵と判定する。そして、疵判定部27は、疵検査の結果を疵データ記憶部25に記憶されている疵データに対応付ける。
尚、学習モデルの詳細については、疵学習装置7についての説明を行う際に併せて説明する。
The wrinkle determination unit 27 applies the latest learning model output from the learning model acquisition unit 26 to the wrinkle candidate's wrinkle data stored in the wrinkle data storage unit 25 to obtain the final wrinkle for the wrinkle candidate. Make a decision. For example, if the wrinkle candidate is a roll wrinkle that affects the quality of the product, the wrinkle determination unit 27 determines that the wrinkle candidate is harmful. The cocoon determination unit 27 also determines the type of cocoon and the grade (score) of the cocoon as the cocoon type. On the other hand, if the wrinkle candidate is “oil, water droplets, light dirt, etc.” attached to the surface of the steel plate 10 and does not affect the quality of the product, the wrinkle determination unit 27 will remove the wrinkle candidate harmlessly. Is determined. Then, the eyelid determination unit 27 associates the result of the eyelid inspection with the eyelid data stored in the eyelid data storage unit 25.
The details of the learning model will be described together with the description of the eyelid learning device 7.

以上のようにして入力した画像データについて疵検査を行うと、疵判定部27は、疵検査の結果(有害疵か無害疵かの判定結果、疵種(疵の種類や疵の等級等)の判定結果)と、ラベリング/特徴量計算部24で求められた特徴量とを示す疵検出画像データを生成し、表示装置8に表示する。本実施形態では、疵判定部27は、鋼板10を模した画像の上に、疵を模した画像を重ね合わせた疵検出画像データ(マップ)を生成する。これにより、鋼板10のどの場所にどのような疵が生じているのかを視覚的に検査員に認識させることができる。
疵判定部27は、例えば、疵判定装置6のCPUが、疵判定用のプログラムを実行することにより実現される。
When the image data input as described above is subjected to a defect inspection, the defect determination unit 27 determines the result of the defect inspection (determination of harmful defect or harmless defect, defect type (such as defect type, defect grade, etc.)). The wrinkle detection image data indicating the determination result) and the feature amount obtained by the labeling / feature amount calculation unit 24 is generated and displayed on the display device 8. In the present embodiment, the wrinkle determination unit 27 generates wrinkle detection image data (map) in which an image imitating a wrinkle is superimposed on an image imitating the steel plate 10. Thereby, an inspector can be made to recognize visually what kind of wrinkles have occurred in which place of the steel plate 10. FIG.
The wrinkle determination unit 27 is realized, for example, when the CPU of the wrinkle determination device 6 executes a program for wrinkle determination.

疵データ出力判定部28は、めっき製造ラインを制御・監視するプロセスコンピュータ等から入力されるめっき製造ラインの操業状態や日時等に基づいて、疵データ記憶部25に記憶されている疵データを疵学習装置7に出力するタイミングであるか否かを判定する。本実施形態では、疵データ出力判定部28は、所定の日から1ヶ月が経過する度に、その日の最初のコイル(めっき製造ラインでめっき処理が施された後に巻き取られた鋼鈑)についての疵データを疵学習装置7に出力すると判定するようにしている。ただし、疵データを疵学習装置7に出力するタイミングと、出力する疵データの内容は、このようなものに限定されない。例えば、コイルが製造される度に、そのコイルについての疵データを疵学習装置7に出力するようにしてもよいし、連続で100本と制限を設けてもよい。また、1日毎に、その日の最後のコイルについての疵データを疵学習装置7に出力するようにしてもよい。
疵データ出力判定部28は、例えば、疵判定装置6のCPUが、疵データ出力用のプログラムを実行し、疵データを出力するタイミングであると判定することにより実現される。
疵 Data output determination unit 28 疵 stores the 疵 data stored in 疵 data storage unit 25 based on the operation state and date / time of the plating production line input from a process computer that controls and monitors the plating production line. It is determined whether or not it is time to output to the learning device 7. In the present embodiment, the saddle data output determination unit 28 is configured for the first coil of the day (steel wound after being plated in the plating production line) every time one month has elapsed from a predetermined date. Is determined to be output to the heel learning device 7. However, the timing at which the heel data is output to the heel learning device 7 and the content of the heel data to be output are not limited to this. For example, every time a coil is manufactured, wrinkle data about the coil may be output to the wrinkle learning device 7, or a limit of 100 may be provided continuously. Moreover, you may make it output the wrinkle data about the last coil of the day to the wrinkle learning apparatus 7 for every day.
The soot data output determination unit 28 is realized, for example, when the CPU of the soot determining device 6 determines that it is time to execute the soot data output program and output the soot data.

疵データ出力部29は、疵データ出力判定部28により、疵データを疵学習装置7に出力すると判定されると、疵データ記憶部25に記憶されている疵データのうち、予め設定された時に得られた疵データを疵学習装置7に送信する。前述したように本実施形態では、疵データ出力部29は、所定の日時から1ヶ月が経過する度に、その日の最初のコイルについての疵データを疵学習装置7に送信する。
ここで、本実施形態では、疵データ出力部29が出力する疵データについては、疵判定部27による疵検査が行われおらず、当該疵データには、疵検査の結果が対応付けられていないものとする。
疵データ出力部29は、例えば、疵判定装置6のデータ入出力制御装置が前述した処理を実行することにより実現される。
When the heel data output determination unit 28 determines that the heel data is to be output to the heel learning device 7, the heel data output unit 29 is set in advance among the heel data stored in the heel data storage unit 25. The obtained wrinkle data is transmitted to the wrinkle learning device 7. As described above, in this embodiment, the kite data output unit 29 transmits the kite data on the first coil of the day to the kite learning device 7 every time one month has elapsed from a predetermined date and time.
Here, in this embodiment, the eyelid data output from the eyelid data output unit 29 is not subjected to the eyelid inspection by the eyelid determination unit 27, and the result of the eyelid inspection is not associated with the eyelid data. Shall.
The heel data output unit 29 is realized, for example, when the data input / output control device of the heel determination device 6 executes the processing described above.

図3は、疵学習装置7が有する機能構成の一例を示すブロック図である。
図3において、疵データ取得部31は、疵判定装置6から送信された疵データを受信して記憶する。そして、後述する教師データ生成部32及び不確信データ抽出部38の何れかに疵データを出力すると、その疵データを削除する。具体的に、疵データ取得部31は、学習モデル記憶部36に、学習モデルが記憶されているか否かを判定し、学習モデル記憶部36に、学習モデルが記憶されていない場合には、疵判定装置6から送信された疵データを教師データ生成部32に出力する。一方、学習モデル記憶部36に、学習モデルが記憶されている場合には、疵データ取得部31は、疵判定装置6から送信された疵データを不確信データ抽出部38に出力する。
疵データ取得部31は、例えば、疵学習装置7のデータ入出力制御装置が疵データを受信し、CPUが、前述した判定と出力の処理を行うことにより実現される。尚、ここでは、疵判定装置6から送信された疵データを受信するようにしているが、必ずしもこのようにする必要はない。例えば、ユーザが所有するリームーバブル記憶メディアに記憶された疵データを取得するようにしてもよい。
FIG. 3 is a block diagram illustrating an example of a functional configuration of the heel learning device 7.
In FIG. 3, the eyelid data acquisition unit 31 receives and stores the eyelid data transmitted from the eyelid determination device 6. When the wrinkle data is output to any of the teacher data generation unit 32 and the uncertain data extraction unit 38 described later, the wrinkle data is deleted. Specifically, the kite data acquisition unit 31 determines whether or not a learning model is stored in the learning model storage unit 36, and if no learning model is stored in the learning model storage unit 36, The wrinkle data transmitted from the determination device 6 is output to the teacher data generation unit 32. On the other hand, when the learning model is stored in the learning model storage unit 36, the bag data acquisition unit 31 outputs the bag data transmitted from the bag determination device 6 to the uncertain data extraction unit 38.
The cocoon data acquisition unit 31 is realized, for example, when the data input / output control device of the cocoon learning device 7 receives the cocoon data and the CPU performs the above-described determination and output processing. Here, the bag data transmitted from the bag determination device 6 is received, but it is not always necessary to do so. For example, the bag data stored in the removable storage medium owned by the user may be acquired.

本実施形態の疵学習装置7では、教師付き学習を行うようにしている。教師付き学習とは、疵データ取得部31で取得された疵データに対して、検査員が設定した"疵種に関する正解データ(教師データ)"を付与して学習モデルを生成(学習)するものである。ここで正解データは、例えば、次のようにして得られるものである。まず、種々の疵を含む多数の画像と、それらの画像に対応する実際の鋼鈑とを検査員が目視で確認(査定)して、疵の種類・等級等(疵種)を決定する。このようにして決定した内容に基づいて、当該画像における"疵種に関する情報(疵の種類や等級等)"を正解データとして疵学習装置7(コンピュータ)に登録する。   In the wrinkle learning device 7 of this embodiment, supervised learning is performed. Supervised learning is a method for generating (learning) a learning model by assigning “correct data (teacher data) related to species” to the kite data acquired by the kite data acquisition unit 31. It is. Here, the correct answer data is obtained, for example, as follows. First, an inspector visually confirms (assesses) a large number of images including various defects and the actual steel defects corresponding to these images, and determines the type, grade, and the like (model) of the defects. Based on the content determined in this way, “information on the cocoon type (type of cocoon, grade, etc.)” in the image is registered in the cocoon learning device 7 (computer) as correct data.

教師データ生成部32は、学習モデル記憶部36に、学習モデルが記憶されていない場合には、疵データ取得部31で取得された全ての疵データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置7のユーザインターフェースを用いて、疵種に関する複数個の疵データに対する正解データを入力する。教師データ生成部32は、疵データ取得部31で取得された全ての疵データの夫々に対して、入力された正解データを、当該正解データに対応する疵データに紐付けて付与する。
一方、教師データ生成部32は、学習モデル記憶部36に、学習モデルが記憶されている場合には、疵データ取得部31で取得された疵データのうち、不確信データ抽出部38で抽出された疵データの夫々に対して、前述したようにして入力された正解データを、当該正解データに対応する疵データに紐付けて付与する。
教師データ生成部32は、例えば、疵学習装置7のCPUが、RAM等に記憶された疵データを読み出して前述した表示と入力の処理を行い、当該疵データと正解データとを相互に関連付けてRAM等に記憶することにより実現できる。
When no learning model is stored in the learning model storage unit 36, the teacher data generation unit 32 causes the display device 10 to display an image based on all the wrinkle data acquired by the wrinkle data acquisition unit 31. When this image is displayed, the inspector uses the user interface of the wrinkle determination device 7 to input correct data for a plurality of wrinkle data relating to the wrinkle type. The teacher data generation unit 32 assigns the input correct answer data to each of all the wrinkle data acquired by the wrinkle data acquisition unit 31 in association with the wrinkle data corresponding to the correct answer data.
On the other hand, when the learning model is stored in the learning model storage unit 36, the teacher data generation unit 32 is extracted by the uncertain data extraction unit 38 from the bag data acquired by the bag data acquisition unit 31. The correct data input as described above is attached to each of the wrinkle data in association with the wrinkle data corresponding to the correct data.
In the teacher data generation unit 32, for example, the CPU of the kite learning device 7 reads the kite data stored in the RAM or the like, performs the display and input processing described above, and associates the kite data with the correct answer data. This can be realized by storing in a RAM or the like.

特徴量空間配置部33は、正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点(特徴量の値)を、各特徴量を座標軸とする座標空間(特徴量空間)に配置する。尚、後述する部分特徴量空間が既に生成されている場合、特徴量空間配置部33は、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置する。
図4は、各特徴量を座標軸とする座標空間に、疵種に関する複数個の疵データのデータ点を配置した様子の一例を示す図である。尚、以下の説明では、このように"疵データのデータ点を座標空間に配置する"ことを、必要に応じて"疵データを座標空間に配置する"と称す。また、以下の説明では、正解データとして疵種「CL1」、「CL2」の2種の疵種に関する疵データが複数個、疵データ取得部31から入力されたものとし、特徴量の種類は20種であるとする。また、図4では、説明の便宜上、各特徴量f2、f7は規格化されているものとする。
特徴量空間配置部33は、例えば、疵学習装置7のCPUが、HDD等に予め設定された全ての特徴量の組み合わせに基づく座標空間(特徴量空間)を生成し、当該座標空間に、RAM等から読み出した疵データのデータ点を配置する処理を行い、その結果をRAM等に記憶することにより実現ででる。
The feature amount space arrangement unit 33 uses a coordinate space (feature amount space) with each feature amount as a coordinate axis of each data point (value of feature amount) of the “plurality of pieces of cocoon data relating to the species” to which correct data is assigned. ). When a partial feature amount space to be described later has already been generated, the feature amount space arrangement unit 33 also arranges data points of the eyelid data used when generating the partial feature amount space in the coordinate space.
FIG. 4 is a diagram illustrating an example of a state in which a plurality of data points of the cocoon data relating to the cocoon type are arranged in the coordinate space having the feature amounts as coordinate axes. In the following description, “arranging the data points of the eyelid data in the coordinate space” is referred to as “placement of the eyelid data in the coordinate space” as necessary. Also, in the following description, it is assumed that a plurality of pieces of bag data relating to two types of bottle types “CL1” and “CL2” are input from the bag data acquisition unit 31 as correct answer data, and the type of feature amount is 20 Suppose it is a seed. Further, in FIG. 4, it is assumed that the feature quantities f2 and f7 are standardized for convenience of explanation.
For example, the feature amount space arranging unit 33 generates a coordinate space (feature amount space) based on a combination of all feature amounts set in advance in the HDD or the like by the CPU of the eyelid learning device 7, and stores the RAM in the coordinate space. This can be realized by performing processing for arranging the data points of the eyelid data read from the memory and storing the result in the RAM or the like.

特徴量組み合わせ判別部34は、特徴量空間配置部33により座標空間に、疵種「CL1」、「CL2」の正解データが付与された疵データのデータ点が配置されると、夫々のデータ点の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「CL1」、「CL2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していない場合、座標空間に配置したデータ点(特徴量の値)の組み合わせを、正解データである疵種「CL1」、「CL2」を完全に分離できる特徴量の値の組み合わせとして判別する。   When the feature amount combination determining unit 34 arranges the data points of the eyelid data to which the correct answer data of the species “CL1” and “CL2” are placed in the coordinate space by the feature amount space arranging unit 33, the data point It is determined whether or not the regions of the feature value values of the wrinkle data overlap with each other based on the arrangement position of. As a result of this determination, if the regions of the feature value values of the eyelid data to which the correct data of the species “CL1” and “CL2” are not overlapped with each other, the data points (feature amount Value) is determined as a combination of feature value values that can completely separate the correct data “CL1” and “CL2”.

すなわち、図4に示す例では、特徴量f2、f7のそれぞれを各座標軸とする座標空間に、白丸で表される疵種「CL1」に関する疵データと、黒丸で表される疵種「CL2」に関する疵データとが配置されている。そして、疵種「CL1」、「CL2」の疵データの位置は、座標空間上で一致していない。よって、疵種「CL1」、「CL2」は、特徴量f2、f7の夫々の値の領域により完全に分離することができる。すなわち、疵種「CL1」、「CL2」は、特徴量f2、f7の値の組み合わせによって特定することができる。
特徴量組み合わせ判別部34は、例えば、疵学習装置7のCPUが、座標空間(特徴量空間)に配置された疵データのデータ点に基づいて、疵種「CL1」、「CL2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していないと判定すると、当該疵データを配置した座標空間の各座標軸(各特徴量)の値の組み合わせをRAM等に記憶することにより実現できる。
That is, in the example shown in FIG. 4, in the coordinate space having the feature amounts f2 and f7 as the respective coordinate axes, the eyelid data relating to the eyelid “CL1” represented by white circles and the eyelid “CL2” represented by black circles.疵 data about and are arranged. The positions of the eyelid data of the eyelid types “CL1” and “CL2” do not match in the coordinate space. Accordingly, the species “CL1” and “CL2” can be completely separated by the respective regions of the feature amounts f2 and f7. That is, the grape types “CL1” and “CL2” can be specified by the combination of the values of the feature amounts f2 and f7.
The feature amount combination determination unit 34, for example, correct data of the types “CL1” and “CL2” based on the data points of the eyelid data arranged in the coordinate space (feature amount space) by the CPU of the eyelid learning device 7. If it is determined that the areas of the feature value values of the wrinkle data to which the wrinkles are assigned do not overlap each other, the combination of the values of the coordinate axes (each feature amount) of the coordinate space in which the wrinkle data is arranged is stored in the RAM or the like. Can be realized.

学習モデル生成・更新部35は、特徴量組み合わせ判別部34により判別された各特徴量の値の組み合わせと、正解データである疵種「CL1」、「CL2」とに基づいて、各特徴量の値の範囲の組(すなわち、座標空間内における領域)と疵種とを相互に対応付けるための1つ又は複数の部分特徴量空間を生成する。そして、学習モデル生成・更新部35は、生成した部分特徴量空間を学習モデルとして学習モデル記憶部36に記憶する。学習モデルを生成していない場合(学習モデル記憶部36に学習モデルが記憶されていない場合)、学習モデル生成・更新部35は、生成した学習モデルをそのまま学習モデル記憶部36に記憶する。
図5は、学習モデルの一例を概念的に示す図である。
図5では、部分特徴量空間1、部分特徴量空間2、・・・、部分特徴量空間L(Lは3以上の整数)の集合として、学習モデル51が生成された場合を例に挙げて示している。
ここで、部分特徴量空間1は、特徴量f2、f7の値の範囲の組と疵種「CL1」、「CL2」とを対応付けるためのものであり、特徴量f2、f7のそれぞれを座標軸とする。部分特徴量空間2は、特徴量f1、f3、f7の値の範囲の組と疵種「CL1」、「CL2」とを対応付けるためのものであり、特徴量f1、f3、f7のそれぞれを座標軸とする。部分特徴量空間Lは、特徴量f4、f6、f9の値の範囲の組と疵種「CL1」、「CL2」とを対応付けるためのものであり、特徴量f4、f6、f9のそれぞれを座標軸とする。
The learning model generating / updating unit 35 determines each feature value based on the combination of the feature value values determined by the feature value combination determining unit 34 and the types “CL1” and “CL2” which are correct data. One or a plurality of partial feature amount spaces for associating a pair of value ranges (that is, a region in the coordinate space) and the species are generated. Then, the learning model generation / update unit 35 stores the generated partial feature amount space in the learning model storage unit 36 as a learning model. When the learning model is not generated (when the learning model is not stored in the learning model storage unit 36), the learning model generation / update unit 35 stores the generated learning model in the learning model storage unit 36 as it is.
FIG. 5 is a diagram conceptually illustrating an example of a learning model.
In FIG. 5, as an example, the learning model 51 is generated as a set of the partial feature amount space 1, the partial feature amount space 2,..., The partial feature amount space L (L is an integer of 3 or more). Show.
Here, the partial feature amount space 1 is for associating a set of value ranges of the feature amounts f2 and f7 with the species “CL1” and “CL2”, and each of the feature amounts f2 and f7 is defined as a coordinate axis. To do. The partial feature amount space 2 is for associating a set of value ranges of the feature amounts f1, f3, and f7 with the species “CL1” and “CL2”. The feature amounts f1, f3, and f7 are coordinate axes. And The partial feature amount space L is for associating a set of value ranges of the feature amounts f4, f6, and f9 with the species “CL1” and “CL2”. The feature amounts f4, f6, and f9 are coordinate axes. And

一方、学習モデルを生成している場合(学習モデル記憶部36に学習モデルが記憶されている場合)、学習モデル生成・更新部35は、既に記憶されている学習モデル(部分特徴量空間)を、生成した学習モデル(部分特徴量空間)に書き換える。
図6は、学習モデル(部分特徴量空間)が更新される様子の一例を概念的に示す図である。
On the other hand, when the learning model is generated (when the learning model is stored in the learning model storage unit 36), the learning model generation / update unit 35 uses the already stored learning model (partial feature amount space). Rewrite the generated learning model (partial feature space).
FIG. 6 is a diagram conceptually illustrating an example of how the learning model (partial feature amount space) is updated.

図6に示す例では、今回の学習によって、部分特徴量空間2が削除され、部分特徴量空間L+1が追加されている。すなわち、前回の学習モデルを生成する際に取得した疵データでは、特徴量f1、f3、f7で疵種「CL1」、「CL2」を完全に分離できたが、今回の学習モデルを生成する際に取得した疵データを加えると、特徴量f1、f3、f7では疵種「CL1」、「CL2」を完全に分離できなくなったことになる。また、前回の学習モデルを生成する際に取得した疵データでは、特徴量f5、f8、f9では疵種「CL1」、「CL2」を完全に分離できなかったが、今回の学習モデルを生成する際に取得した疵データを加えると、特徴量f5、f8、f9で疵種「CL1」、「CL2」を完全に分離できたことになる。
学習モデル生成・更新部35は、例えば、疵学習装置7のCPUが、疵データを配置した座標空間の各座標軸(各特徴量)の値の組み合わせのデータをRAM等から読み出し、読み出したデータから、部分特徴量空間を生成して、HDD等を用いて実現できる学習モデル記憶部36に記憶することにより実現できる。
In the example shown in FIG. 6, the partial feature amount space 2 is deleted and the partial feature amount space L + 1 is added by this learning. That is, in the bag data obtained when generating the previous learning model, the bag types “CL1” and “CL2” can be completely separated by the feature amounts f1, f3, and f7, but when generating the current learning model, When the acquired wrinkle data is added, the wrinkle types “CL1” and “CL2” cannot be completely separated by the feature amounts f1, f3, and f7. Further, in the bag data acquired when generating the previous learning model, the bag types “CL1” and “CL2” could not be completely separated by the feature amounts f5, f8, and f9, but the current learning model is generated. When the soot data acquired at this time is added, the soot species “CL1” and “CL2” can be completely separated by the feature amounts f5, f8, and f9.
In the learning model generation / update unit 35, for example, the CPU of the eyelid learning device 7 reads out data of a combination of values of each coordinate axis (each feature amount) in the coordinate space in which the eyelid data is arranged from the RAM or the like, and from the read data This can be realized by generating a partial feature amount space and storing it in the learning model storage unit 36 that can be realized using an HDD or the like.

学習モデル出力部37は、学習モデル記憶部36に新たな学習モデルが記憶されると、その学習モデルを疵判定装置6に送信する。
学習モデル出力部37は、例えば、疵学習装置7のデータ入出力制御装置がこのようなデータの出力処理を実行することにより実現される。
When a new learning model is stored in the learning model storage unit 36, the learning model output unit 37 transmits the learning model to the wrinkle determination device 6.
The learning model output unit 37 is realized, for example, when the data input / output control device of the kite learning device 7 executes such data output processing.

ここで、学習モデルを用いた学習(図2に示した疵判定装置6の疵判定部25)の一例ついて説明する。
図7は、各疵データの疵種「CL1」、「CL2」を判定する処理の一例を概念的に示す図である。図7に示すように、予め設定された複数の特徴量f1〜f20の値の組のうち、疵種「CL1」、「CL2」を完全に分離する特徴量の値の組と、疵種「CL1」、「CL2」とを相互に対応付けるための複数個(L個)の部分特徴量空間の集合として学習モデルが生成される。
Here, an example of learning using the learning model (the eyelid determination unit 25 of the eyelid determination device 6 shown in FIG. 2) will be described.
FIG. 7 is a diagram conceptually illustrating an example of processing for determining the type “CL1” and “CL2” of each type of data. As shown in FIG. 7, among the preset value pairs of the feature amounts f1 to f20, a feature value set that completely separates the types “CL1” and “CL2” and the type “ A learning model is generated as a set of plural (L) partial feature amount spaces for associating CL1 ”and“ CL2 ”with each other.

図7に示す例では、疵判定装置6の疵判定部25は、疵データ記憶部25に記憶されている疵候補の疵データの夫々について、学習モデルを適用して(すなわち疵データを学習モデルに含まれる各部分特徴量空間に配置して)、部分特徴量空間1〜Lの夫々において、各疵データのデータ点の位置から、疵データが疵種「CL1」、「CL2」の何れに属するかの判断結果の情報を抽出する。
本実施形態では、部分特徴量空間1〜Lによる判断結果である疵種「CL1」、「CL2」の総数(すなわち、部分特徴量空間の総数)に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば50%以上である場合、疵判定装置6の疵判定部25は、学習モデルを適用した疵データは、疵種「CL1」に属すものであると判定する。一方、部分特徴量空間1〜Lによる判断結果である疵種「CL1」、「CL2」の総数(部分特徴量空間の総数)に対する、疵種「CL1」と判断した部分特徴量空間の数の割合が、ある閾値未満、例えば50%未満である場合、疵判定装置6の疵判定部25は、学習モデルを適用した疵データは、疵種「CL2」に属すものであると判定する。
以上のように本実施形態では、学習モデルに疵データを適用した場合には、その疵データから疵種「CL1」、「CL2」の何れかが必ず得られるようにしている。
In the example illustrated in FIG. 7, the eyelid determination unit 25 of the eyelid determination device 6 applies a learning model to each of the candidate eyelid data stored in the eyelid data storage unit 25 (that is, the eyelid data is converted into the learning model). In each of the partial feature amount spaces 1 to L), from the position of the data point of each of the heel data, the heel data is assigned to any of the types “CL1” and “CL2”. Extract information about the determination result of belonging.
In the present embodiment, the number of types determined as the type “C1” with respect to the total number of types “CL1” and “CL2” (that is, the total number of partial feature amount spaces) that is the determination result of the partial feature amount spaces 1 to L. When the ratio is equal to or higher than a certain threshold, for example, 50% or higher, the wrinkle determination unit 25 of the wrinkle determination device 6 determines that the wrinkle data to which the learning model is applied belongs to the species “CL1”. On the other hand, the number of partial feature amount spaces determined to be the type “CL1” with respect to the total number of types “CL1” and “CL2” (the total number of partial feature amount spaces) that are the determination results of the partial feature amount spaces 1 to L. When the ratio is less than a certain threshold value, for example, less than 50%, the eyelid determination unit 25 of the eyelid determination device 6 determines that the eyelid data to which the learning model is applied belongs to the species “CL2”.
As described above, in this embodiment, when the soot data is applied to the learning model, either the soot type “CL1” or “CL2” is always obtained from the soot data.

不確信データ抽出部38は、学習モデル記憶部36に記憶されている学習モデルを読み出す。そして、不確信データ抽出部38は、疵データ取得部31で取得された全ての疵データの夫々について学習モデルを適用する。そして、不確信データ抽出部38は、部分特徴量空間の夫々における、各疵データのデータ点の位置から、疵データが疵種「CL1」、「CL2」の何れに属するかの判断結果の情報を抽出する。そして、不確信データ抽出部38は、部分特徴量空間による判断結果である疵種「CL1」、「CL2」の総数(部分特徴量空間の総数)に対する、疵種「CL1」と判断した部分特徴量空間の数を、疵種「CL1」への投票率として導出する。不確信データ抽出部38は、疵種「CL1」への投票率が、例えば、30%以上70%以下である場合、学習モデルを適用した疵データは、特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が低い疵データであるとし、当該疵データを、正解データを付与する対象とする。一方、不確信データ抽出部38は、疵種「CL1」への投票率が、例えば、30%未満である場合、又は70%を超える場合、学習モデルを適用した疵データを、正解データを付与する対象から除外する。   The uncertain data extraction unit 38 reads the learning model stored in the learning model storage unit 36. Then, the uncertain data extraction unit 38 applies the learning model to each of all the wrinkle data acquired by the wrinkle data acquisition unit 31. Then, the uncertain data extraction unit 38 determines whether the bag data belongs to the type “CL1” or “CL2” from the position of the data point of each bag data in each of the partial feature amount spaces. To extract. Then, the uncertain data extraction unit 38 determines the partial feature “CL1” with respect to the total number of types “CL1” and “CL2” (total number of partial feature amount spaces) that is the determination result of the partial feature amount space. The number of quantity spaces is derived as the vote rate for the species “CL1”. The uncertain data extraction unit 38, when the voting rate for the species “CL1” is, for example, 30% or more and 70% or less, the species data to which the learning model is applied is the species type in the learning model in the feature amount space. It is assumed that the certainty data with respect to the determination result is low, and the certain data is a target to which correct data is assigned. On the other hand, the uncertain data extraction unit 38 assigns correct data to the cocoon data to which the learning model is applied when the vote rate for the cocoon type “CL1” is, for example, less than 30% or exceeds 70%. Excluded from the target.

図8は、特徴量fi、fjのそれぞれを座標軸とする特徴量空間における疵データの配置例を概念的に示す図である。
図8において、白丸で示している疵データは、疵種「CL1」に属する疵データを示し、黒丸で示している疵データは、疵種「CL2」に属するデータを示している。図8に示すように、白丸で示している疵データと、黒丸で示している疵データとが混在している領域81に、疵種の判別対象となる疵データが配置された場合、当該疵データが、疵種「CL1」に属するのか、それとも疵種「CL2」に属するのかの学習モデルの判別結果の確信度(信頼度)が相対的に低くなる。このような疵データについては、学習モデルの更新に有用なデータであるので、正解データを与える。
FIG. 8 is a diagram conceptually illustrating an example of arrangement of wrinkle data in a feature amount space having the feature amounts fi and fj as coordinate axes.
In FIG. 8, the eyelid data indicated by white circles indicates the eyelid data belonging to the eyelid type “CL1”, and the eyelid data indicated by black circles indicates the data belonging to the eyelet type “CL2”. As shown in FIG. 8, when wrinkle data that is a discrimination target of wrinkles is arranged in a region 81 where haze data indicated by white circles and haze data indicated by black circles are mixed. The certainty (reliability) of the discrimination result of the learning model as to whether the data belongs to the kind “CL1” or the kind “CL2” becomes relatively low. Since such drought data is useful for updating the learning model, correct data is given.

一方、図8に示すように、白丸で示している疵データと、黒丸で示している疵データとが混在していない領域82、83に、疵種の判別対象となる疵データが配置された場合、当該疵データについては、学習モデルにおける疵種の判別結果に対する確信度が相対的に高いため、部分特徴量空間の決定に与える影響は小さい。よって、正解データを与えて学習モデルの更新に使用する必要性は低い。しかも、後述するように、このような疵データに正解データを与えて学習モデルの更新に使用すると、疵種の識別性能が低下する([0066]に記載の図13の説明を参照)。
そこで、本実施形態では、前述したように、不確信データ抽出部38は、疵データ取得部31で取得された全ての疵データのうち、特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が低い処理の領域に配置される疵データを、学習データの更新に使用する疵データとして抽出するようにしている。尚、図8では、特徴量空間における疵種「Cl1」、「CL2」の識別境界84付近の領域81が、学習モデルの判別結果の信頼度(すなわち確信度)が相対的に低くなる領域である場合を例に挙げて説明したが、このような領域は、このような境界付近以外にも存在し得る。
On the other hand, as shown in FIG. 8, the wrinkle data to be discriminated for the wrinkle type is arranged in the areas 82 and 83 where the wrinkle data indicated by the white circles and the haze data indicated by the black circles are not mixed. In this case, since the certainty data has a relatively high certainty with respect to the discrimination result of the kind in the learning model, the influence on the determination of the partial feature amount space is small. Therefore, it is less necessary to give correct data and use it for updating the learning model. In addition, as will be described later, when correct data is given to such cocoon data and used for updating the learning model, the identification performance of the cocoon species decreases (see the description of FIG. 13 described in [0066]).
Therefore, in the present embodiment, as described above, the uncertain data extraction unit 38, for all of the cocoon data acquired by the cocoon data acquisition unit 31, in the feature amount space, The wrinkle data arranged in the processing region with a low certainty factor is extracted as wrinkle data used for updating the learning data. In FIG. 8, the region 81 near the identification boundary 84 of the species “Cl1” and “CL2” in the feature amount space is a region where the reliability (that is, the certainty factor) of the determination result of the learning model is relatively low. Although a case has been described as an example, such a region may exist other than near the boundary.

図9は、疵種「CL1」への投票率と、疵データの数(データ数)との関係の一例を示す図である。図9では、説明の便宜上、疵データの数(データ数)を規格化している。図9において、黒丸は、疵種が「CL2」であると確認(査定)された疵データを示し、白丸は、疵種が「CL1」であると確認(査定)された疵データを示す。
図9に示すグラフは、次のようにして得られる。まず、入手した疵データについて学習モデルを適用し、判断結果として疵種「CL1」を出力した部分特徴量空間の数を、部分特徴量空間の総数で除すことにより、疵種「CL1」への投票率を導出する。そして、当該疵データの疵種が「CL1」及び「CL2」の何れであるのを検査員が目視で確認(査定)する。このような疵種「CL1」への投票率の導出と、疵種の確認とを、入手した全ての疵データについて行い、各投票率において、疵種が「CL1」であると査定された疵データの数を求め、図9に示す黒丸をプロットする。同様に、各投票率において、疵種が「CL2」であると査定された疵データの数を求め、図9に示す黒丸をプロットする。
図9に示す例では、疵種「CL1」への投票率が30%以上70%以下の範囲である場合に、疵種が「CL1」であると査定された疵データと、疵種が「CL2」であると査定された疵データとが相対的に数多く含まれている。したがって、ここでは、この範囲内の疵データを、学習データの更新に使用する疵データとして不確信データ抽出部38が抽出するようにしている。ただし、学習データの更新に使用する疵データとして抽出するための疵種「CL1」への投票率の範囲は、30%以上70%以下の範囲に限定されるものではなく、特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が低い(とみなせる)領域に配置される疵データを抽出することを主旨としていれば、どのような範囲であってもよい。具体的には、図13のごとく学習モデルの性能を評価し、最も高い疵種一致率が得られるような範囲を設定すれば良い。また、不確信データを抽出するために、必ずしも図9に示すグラフを作成する必要はない。すなわち、疵データの疵種が「CL1」及び「CL2」の何れであるのを検査員が目視で確認(査定)する必要はなく、学習モデルを適用した場合の判定結果だけを当該疵データを抽出する手段とする。本実施形態では、ある疵種について、それぞれの部分特徴量空間から出力された疵種が複数ある場合に、当該疵データを抽出することを最低限の条件とする。さらに、本実施形態では、ある疵種について、それぞれの部分特徴量空間から出力された疵種が複数あり、且つ、それら複数の疵種のうち、特定の疵種の存在割合が、所定の範囲内である場合に、当該疵データを抽出することを追加の条件とする。
FIG. 9 is a diagram illustrating an example of the relationship between the vote rate for the type “CL1” and the number of pieces of data (number of data). In FIG. 9, the number of bag data (number of data) is standardized for convenience of explanation. In FIG. 9, black circles indicate the cocoon data confirmed (assessed) that the cocoon type is “CL2”, and white circles indicate the cocoon data confirmed (assessed) that the cocoon type is “CL1”.
The graph shown in FIG. 9 is obtained as follows. First, a learning model is applied to the obtained soot data, and the number of partial feature amount spaces that output the soot type “CL1” as a determination result is divided by the total number of partial feature amount spaces, so that the type “CL1” is obtained. The voting rate is derived. Then, the inspector visually confirms (assesses) that the type of the soot data is “CL1” or “CL2”. The derivation of the vote rate for the type “CL1” and the confirmation of the type are performed for all the obtained type data, and the type of the vote determined to be “CL1” at each vote rate. The number of data is obtained and the black circles shown in FIG. 9 are plotted. Similarly, at each vote rate, the number of bag data assessed as “CL2” is determined, and the black circles shown in FIG. 9 are plotted.
In the example illustrated in FIG. 9, when the vote rate for the species “CL1” is in the range of 30% or more and 70% or less, the species data evaluated as “CL1” and the species is “ A relatively large amount of soot data assessed as “CL2” is included. Therefore, here, the uncertain data extraction unit 38 extracts the soot data within this range as the soot data used for updating the learning data. However, the range of the voting rate for the grape type “CL1” to be extracted as the bag data used for the update of the learning data is not limited to the range of 30% or more and 70% or less. In the feature amount space, Any range may be used as long as the main point is to extract the wrinkle data arranged in the region where the certainty for the wrinkle type discrimination result in the learning model is low (considered). Specifically, the performance of the learning model is evaluated as shown in FIG. 13, and a range in which the highest species match rate can be obtained may be set. Moreover, in order to extract uncertain data, it is not always necessary to create the graph shown in FIG. That is, it is not necessary for the inspector to visually confirm (assess) whether the type of the bag data is “CL1” or “CL2”, and only the determination result when the learning model is applied is used as the flag data. It is a means to extract. In the present embodiment, when there are a plurality of seed species output from each partial feature amount space for a certain seed type, the minimum condition is to extract the corresponding seed data. Furthermore, in this embodiment, there are a plurality of species that are output from each partial feature amount space for a certain species, and the presence rate of a particular species among the plurality of species is within a predetermined range. It is an additional condition to extract the wrinkle data when it is within.

前述したように、学習モデル記憶部36に学習モデルが記憶されている場合には、不確信データ抽出部38で抽出された疵データについてのみ、教師データ生成部32において正解データが付与される。
不確信データ抽出部38は、例えば、疵学習装置7のCPUが、RAM等に記憶された疵データを読み出すと共に、HDD等に記憶された学習モデルを読み出し、当該疵データに対して学習モデルを適用し、疵種「CL1」への投票率が、HDD等に予め設定された範囲内である疵データを学習モデルの更新に使用する疵データとしてRAM等に記憶することにより実現できる。
As described above, when the learning model is stored in the learning model storage unit 36, correct data is assigned to the teacher data generation unit 32 only for the wrinkle data extracted by the uncertain data extraction unit 38.
For example, the uncertain data extraction unit 38 reads the wrinkle data stored in the RAM or the like while the CPU of the wrinkle learning device 7 reads out the learning model stored in the HDD or the like, and selects a learning model for the wrinkle data. This can be realized by storing, in a RAM or the like, soot data whose vote rate for the soot type “CL1” is within a preset range in the HDD or the like as soot data used for updating the learning model.

次に、図10のフローチャートを参照しながら、疵判定装置6の動作の一例を説明する。
まず、ステップS1において、画像入力部21は、撮像装置5から画像データを入力したか否かを判定する。この判定の結果、撮像装置5から画像データを入力していない場合には、後述するステップS14に進む。
一方、撮像装置5から画像データを入力した場合には、ステップS2に進み、ラベリング/特徴量計算部24は、シェーディング補正部22及び二値化部23により処理が行われた画像データに対して、ラベリング処理を行った後、特徴量を計算する。そして、ラベリング/特徴量計算部24は、計算した特徴量を含む疵データを、当該特徴量を有する疵が存在する"鋼鈑10上の位置"のデータと対応付けて(すなわち紐つけて)、疵データ記憶部25に記憶する。
Next, an example of the operation of the eyelid determination device 6 will be described with reference to the flowchart of FIG.
First, in step S <b> 1, the image input unit 21 determines whether image data is input from the imaging device 5. If the result of this determination is that image data has not been input from the imaging device 5, the operation proceeds to step S14 to be described later.
On the other hand, when image data is input from the imaging device 5, the process proceeds to step S <b> 2, and the labeling / feature amount calculation unit 24 performs processing on the image data processed by the shading correction unit 22 and the binarization unit 23. After performing the labeling process, the feature amount is calculated. Then, the labeling / feature amount calculation unit 24 associates (that is, links) the wrinkle data including the calculated feature amount with the data of “position on the steel plate 10” where the wrinkle having the characteristic amount exists. And stored in the bag data storage unit 25.

次に、ステップS3において、疵データ出力判定部28は、疵データ記憶部25に記憶されている疵データを疵学習装置7に出力するタイミングであるか否かを判定する。前述したように、本実施形態では、所定の日から1ヶ月が経過する度に、その日の最初のコイル(めっき製造ラインでめっき処理が施された後に巻き取られた鋼鈑)についての疵データを疵学習装置7に出力するようにしている。この判定の結果、疵データを疵学習装置7に出力するタイミングである場合には、ステップS4に進む。一方、疵データを疵学習装置7に出力するタイミングでない場合には、ステップS4を省略して後述するステップS5に進む。
ステップS4に進むと、疵データ出力部29は、疵データ記憶部25に記憶されている疵データのうち、所定の日の最初のコイルについて得られた全ての疵データを疵学習装置7に送信する。そして、ステップS5に進む。
Next, in step S <b> 3, the heel data output determination unit 28 determines whether it is time to output the heel data stored in the heel data storage unit 25 to the heel learning device 7. As described above, in this embodiment, every time one month elapses from a predetermined day, the hail data about the first coil of the day (steel iron wound after being plated on the plating production line) Is output to the kite learning device 7. If it is determined that it is time to output the heel data to the heel learning device 7, the process proceeds to step S4. On the other hand, if it is not time to output the heel data to the heel learning device 7, the process skips step S4 and proceeds to step S5 described later.
In step S4, the kite data output unit 29 transmits to the kite learning device 7 all kite data obtained for the first coil on a predetermined day among the kite data stored in the kite data storage unit 25. To do. Then, the process proceeds to step S5.

ステップS5に進むと、疵判定部27は、ステップS2で得られた疵データに対して学習モデルを適用するか否かを判定する。例えば、学習モデルが取得されていない場合や、ステップS4で疵データを出力した場合に、ステップS2で得られた疵データに対して学習モデルを適用しないと判定する。この判定の結果、ステップS2で得られた疵データに対して学習モデルを適用する場合には、ステップS6に進む。一方、ステップS2で得られた疵データに対して学習モデルを適用しない場合には、ステップS1に戻る。
一般的に、装置の初期調整段階において査定すべき疵データを収集するときにはステップS5で学習モデルを適用しないと判定する。 ステップS6に進むと、疵判定部27は、ステップS2で得られた疵データの1つを選択する。
次に、ステップS7において、疵判定部27は、ステップS6で選択した疵データについて、取得している学習モデルを適用し、学習モデルに含まれている各部分特徴量空間から疵種「CL1」、「CL2」の何れかの情報を得る。
In step S5, the wrinkle determination unit 27 determines whether to apply the learning model to the wrinkle data obtained in step S2. For example, when the learning model is not acquired or when the bag data is output in step S4, it is determined that the learning model is not applied to the bag data obtained in step S2. As a result of this determination, when the learning model is applied to the eyelid data obtained in step S2, the process proceeds to step S6. On the other hand, when the learning model is not applied to the eyelid data obtained in step S2, the process returns to step S1.
Generally, when collecting wrinkle data to be assessed in the initial adjustment stage of the apparatus, it is determined in step S5 that the learning model is not applied. In step S6, the wrinkle determination unit 27 selects one of the wrinkle data obtained in step S2.
Next, in step S <b> 7, the eyelid determination unit 27 applies the acquired learning model to the eyelid data selected in step S <b> 6, and determines the species “CL <b> 1” from each partial feature amount space included in the learning model. , “CL2” is obtained.

次に、ステップS8において、疵判定部27は、ステップS4の実行結果である疵種「CL1」、「CL2」の総数(すなわち、部分特徴量空間の総数)に対する疵種「CL1」の個数の割合を判定する。この判定の結果、疵種「CL1」、「CL2」の総数に対する疵種「C1」の個数の割合が50%以上である場合には、ステップS9に進み、疵判定部27は、ステップS6で選択した疵データは疵種「CL1」に属すものであると判断する。そして、後述するステップS11に進む。
一方、疵種「CL1」、「CL2」の総数に対する疵種「CL1」の個数の割合が50%未満である場合には、ステップS10に進み、疵判定部27は、ステップS6で選択した疵データは疵種「CL2」に属すものであると判断する。そして、ステップS11に進む。
Next, in step S8, the eyelid determining unit 27 sets the number of species “CL1” to the total number of species “CL1” and “CL2” (that is, the total number of partial feature amount spaces) that is the execution result of step S4. Determine the percentage. As a result of this determination, when the ratio of the number of the seeds “C1” to the total number of the seeds “CL1” and “CL2” is 50% or more, the process proceeds to step S9, and the eyelid determination unit 27 performs step S6. It is determined that the selected soot data belongs to the soot type “CL1”. And it progresses to step S11 mentioned later.
On the other hand, if the ratio of the number of seeds “CL1” to the total number of seeds “CL1” and “CL2” is less than 50%, the process proceeds to step S10, and the eyelid determination unit 27 selects the soot selected in step S6. It is determined that the data belongs to the species “CL2”. Then, the process proceeds to step S11.

ステップS11に進むと、疵判定部27は、ステップS6で選択した疵データと、当該疵データについてステップS9、S10で判断された疵種「CL1」又は「CL2」のデータとを相互に対応付けて疵データ記憶部25に記憶する。
次に、ステップS12において、疵判定部27は、ステップS2で得られた疵データの全てについて疵種の判別を行ったか否かを判定する。この判定の結果、疵データの全てについて疵種の判別を行っていない場合には、ステップS6に戻り、疵判定部27は、未選択の疵データを1つ選択する。そして、疵データの全てについて疵種の判別を行うまで、ステップS6〜S12の処理を繰り返し行う。
以上のようにして、ステップS1で入力した画像データから得られる疵データの全てについて疵種の判別が行われると、ステップS13に進む。ステップS13に進むと、疵判定部27は、疵を模した画像を重ね合わせた疵検出画像データ(マップ)を生成し、表示装置8に表示する。そして、図10のフローチャートによる処理を終了する。
In step S11, the eyelid determination unit 27 associates the eyelid data selected in step S6 with the data of the eyelid type “CL1” or “CL2” determined in steps S9 and S10 for the eyelid data. And stored in the bag data storage unit 25.
Next, in step S12, the wrinkle determination unit 27 determines whether or not the wrinkle type has been determined for all of the wrinkle data obtained in step S2. If the result of this determination is that the soot type has not been determined for all the soot data, the process returns to step S6, and the soot determining unit 27 selects one unselected soot data. Then, the processes in steps S6 to S12 are repeated until the type of the soot is determined for all the soot data.
As described above, when all types of bag data obtained from the image data input in step S1 are determined, the process proceeds to step S13. In step S <b> 13, the wrinkle determination unit 27 generates wrinkle detection image data (map) obtained by superimposing images imitating a wrinkle and displays it on the display device 8. And the process by the flowchart of FIG. 10 is complete | finished.

ステップS1において、撮像装置5から画像データを入力していないと判定されると、ステップS14に進む。ステップS14に進むと、学習モデル取得部26は、疵学習装置7から学習モデルを取得したか否かを判定する。この判定の結果、学習モデルを取得していない場合には、ステップS1に戻る。
一方、学習モデルを取得している場合には、ステップS15に進み、学習モデル取得部26は、ステップS14で取得したと判定された学習モデルと同種の学習モデルを既に登録済みであるか否かを判定する。
If it is determined in step S1 that image data has not been input from the imaging device 5, the process proceeds to step S14. In step S <b> 14, the learning model acquisition unit 26 determines whether a learning model has been acquired from the kite learning device 7. If the result of this determination is that a learning model has not been acquired, processing returns to step S1.
On the other hand, if the learning model has been acquired, the process proceeds to step S15, where the learning model acquisition unit 26 has already registered a learning model of the same type as the learning model determined to have been acquired in step S14. Determine.

この判定の結果、ステップS14で取得したと判定された学習モデルと同種の学習モデルを登録済みでない場合には、ステップS16に進む。ステップS16に進むと、疵判定部27は、ステップS16で取得された学習モデルを新規登録する。そして、ステップS1に戻る。
一方、ステップS14で取得したと判定された学習モデルと同種の学習モデルを既に登録済みである場合には、ステップS17に進む。ステップS17に進むと、疵判定部27は、登録済みである学習モデルをステップS14で取得したと判定された学習モデルに書き換える。そして、ステップS1に戻る。
As a result of this determination, if a learning model of the same type as the learning model determined to have been acquired in step S14 has not been registered, the process proceeds to step S16. In step S16, the eyelid determination unit 27 newly registers the learning model acquired in step S16. Then, the process returns to step S1.
On the other hand, if a learning model of the same type as the learning model determined to have been acquired in step S14 has already been registered, the process proceeds to step S17. In step S17, the eyelid determination unit 27 rewrites the registered learning model with the learning model determined to have been acquired in step S14. Then, the process returns to step S1.

次に、図11のフローチャートを参照しながら、疵学習装置7の動作の一例を説明する。
まず、ステップS101において、疵データ取得部31は、疵判定装置6から送信された疵データを受信するまで待機する。尚、このステップS101では、所定の日の最初のコイルについて得られた全ての疵データを一度に受信する。そして、疵データを受信すると、ステップS102に進む。ステップS102に進むと、疵データ取得部31は、学習モデル記憶部36に、学習モデルが記憶されているか否かを判定する。この判定の結果、学習モデル記憶部36に、学習モデルが記憶されている場合には、後述するステップS110に進む。
一方、学習モデル記憶部36に、学習モデルが記憶されていない場合には、ステップS103に進む。ステップS103に進むと、教師データ生成部32は、ステップS101で受信した全ての疵データの夫々に対して正解データを付与する。
次に、ステップS104において、特徴量空間配置部33は、複数の特徴量の組み合わせを1つ選択する。
Next, an example of the operation of the heel learning device 7 will be described with reference to the flowchart of FIG.
First, in step S <b> 101, the eyelid data acquisition unit 31 waits until it receives eyelid data transmitted from the eyelid determination device 6. In step S101, all the eyelid data obtained for the first coil on a predetermined day are received at a time. When the bag data is received, the process proceeds to step S102. In step S102, the eyelid data acquisition unit 31 determines whether or not a learning model is stored in the learning model storage unit 36. If the learning model is stored in the learning model storage unit 36 as a result of this determination, the process proceeds to step S110 described later.
On the other hand, when the learning model is not stored in the learning model storage unit 36, the process proceeds to step S103. In step S103, the teacher data generation unit 32 assigns correct data to each of all the bag data received in step S101.
Next, in step S104, the feature quantity space arrangement unit 33 selects one combination of a plurality of feature quantities.

次に、ステップS105において、特徴量空間配置部33は、正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点(特徴量の値)を、ステップS104で選択した各特徴量のそれぞれを座標軸とする座標空間(特徴量空間)に配置する。そして、特徴量空間配置部33は、それらの疵データの夫々のデータ点(特徴量の値)の領域が相互に重複しているか否かを判定する。この判定の結果、疵データの夫々のデータ点(特徴量の値)の領域が相互に重複している場合には、ステップS106を省略して後述するステップS107に進む。
一方、疵データの夫々のデータ点(特徴量の値)の領域が相互に重複していない場合には、ステップS106に進む。ステップS106に進むと、特徴量組み合わせ判別部34は、ステップS105で座標空間に配置したデータ点(特徴量の値)の組み合わせを、正解データである疵種「CL1」、「CL2」を完全に分離できる特徴量の値の組み合わせであると判別する。そして、特徴量組み合わせ判別部34は、ステップS105で座標空間に配置したデータ点(特徴量の値)の組み合わせを記憶する。
Next, in step S105, the feature quantity space arrangement unit 33 selects each data point (feature quantity value) of the “plurality of soot data relating to the soot species” to which the correct answer data is assigned in step S104. Each feature amount is arranged in a coordinate space (feature amount space) having coordinate axes. Then, the feature amount space arrangement unit 33 determines whether or not the areas of the respective data points (feature amount values) of the bag data overlap each other. As a result of the determination, if the areas of the respective data points (feature value values) of the eyelid data overlap with each other, the process skips step S106 and proceeds to step S107 described later.
On the other hand, if the areas of the respective data points (feature value values) of the eyelid data do not overlap each other, the process proceeds to step S106. In step S106, the feature amount combination determination unit 34 completely sets the combinations of the data points (feature amount values) arranged in the coordinate space in step S105 as the correct data “CL1” and “CL2”. It is determined that the combination of feature value values that can be separated. Then, the feature amount combination determination unit 34 stores the combination of the data points (feature amount values) arranged in the coordinate space in step S105.

次に、ステップS107において、特徴量空間配置部33は、全ての特徴量の組み合わせを選択したか否かを判定する。この判定の結果、全ての特徴量の組み合わせを選択していない場合には、ステップS104に戻り、特徴量空間配置部33は、未選択の特徴量の組み合わせを1つ選択する。そして、全ての特徴量の組み合わせについて処理が終了するまで、ステップS104〜S107の処理を繰り返し行う。
全ての特徴量の組み合わせについて処理が終了すると、ステップS108に進む。ステップS108に進むと、学習モデル生成・更新部35は、ステップS106で記憶された特徴量の値の組み合わせと、正解データである疵種「CL1」、「CL2」とに基づいて、各特徴量の値の組(すなわち、座標空間内における領域)と疵種とを相互に対応付けるための1つ又は複数の部分特徴量空間を生成する。そして、学習モデル生成・更新部35は、生成した部分特徴量空間を学習モデルとして学習モデル記憶部36に記憶する。
Next, in step S107, the feature amount space arrangement unit 33 determines whether all feature amount combinations have been selected. If the result of this determination is that not all feature value combinations have been selected, processing returns to step S104, and the feature value space layout unit 33 selects one unselected feature value combination. Then, the processes in steps S104 to S107 are repeated until the process for all combinations of feature amounts is completed.
When the process is completed for all combinations of feature amounts, the process proceeds to step S108. In step S108, the learning model generating / updating unit 35 determines each feature quantity based on the combination of the feature quantity values stored in step S106 and the types “CL1” and “CL2” that are correct answer data. One or a plurality of partial feature amount spaces for associating a set of values (that is, a region in the coordinate space) and a seed type with each other are generated. Then, the learning model generation / update unit 35 stores the generated partial feature amount space in the learning model storage unit 36 as a learning model.

次に、ステップS109において、学習モデル出力部37は、ステップS108で生成された学習モデルを疵判定装置6に送信する。そして、ステップS101に戻る。
ステップS102において、学習モデル記憶部36に、学習モデルが記憶されていると判定された場合には、ステップS110に進む。ステップS110に進むと、不確信データ抽出部38は、ステップS101で受信した全ての疵データの1つを選択する。
次に、ステップS111において、不確信データ抽出部38は、ステップS110で選択した疵データに対して、学習モデルを適用する。
次に、ステップS112において、不確信データ抽出部38は、ステップS111で学習モデルを適用した結果に基づいて、疵種「CL1」への投票率VRを導出し、疵種「CL1」への投票率VRが、30%以上70%以下であるか否かを判定する。この判定の結果、疵種「CL1」への投票率VRが、30%以上70%以下でない場合には、ステップS110で選択した疵データは、学習データの更新に有用な疵データではないので、ステップS113を省略して後述するステップS114に進む。
Next, in step S109, the learning model output unit 37 transmits the learning model generated in step S108 to the wrinkle determination device 6. Then, the process returns to step S101.
If it is determined in step S102 that the learning model is stored in the learning model storage unit 36, the process proceeds to step S110. In step S110, the uncertain data extraction unit 38 selects one of all the wrinkle data received in step S101.
Next, in step S111, the uncertain data extraction unit 38 applies the learning model to the wrinkle data selected in step S110.
Next, in step S112, the uncertain data extraction unit 38 derives the vote rate VR for the kind “CL1” based on the result of applying the learning model in step S111, and votes for the kind “CL1”. It is determined whether or not the rate VR is 30% or more and 70% or less. As a result of this determination, if the vote rate VR for the species “CL1” is not 30% or more and 70% or less, the symbol data selected in step S110 is not the symbol data useful for updating the learning data. Step S113 is omitted and the process proceeds to step S114 described later.

一方、疵種「CL1」への投票率VRが、30%以上70%以下である場合には、ステップS113に進む。ステップS113に進むと、不確信データ抽出部38は、ステップS110で選択した疵データを、学習データの更新に有用な疵データとして一時的に記憶する。そして、ステップS114に進む。
ステップS114に進むと、不確信データ抽出部38は、ステップS101で受信した全ての疵データを選択したか否かを判定する。この判定の結果、ステップS101で受信した全ての疵データを選択していない場合には、ステップS110に戻り、不確信データ抽出部38は、未選択の疵データを1つ選択する。そして、ステップS101で受信した全ての疵データについて処理が終了するまで、ステップS110〜S114の処理を繰り返し行う。
On the other hand, if the vote rate VR for the species “CL1” is not less than 30% and not more than 70%, the process proceeds to step S113. If it progresses to step S113, the uncertain data extraction part 38 will memorize | store temporarily the haze data selected at step S110 as haze data useful for the update of learning data. Then, the process proceeds to step S114.
In step S114, the uncertain data extraction unit 38 determines whether all the wrinkle data received in step S101 has been selected. As a result of this determination, if not all the bag data received in step S101 have been selected, the process returns to step S110, and the uncertain data extraction unit 38 selects one unselected bag data. And the process of step S110-S114 is repeatedly performed until a process is complete | finished about all the eyelid data received by step S101.

ステップS101で受信した全ての疵データについて処理が終了すると、ステップS115に進み、教師データ生成部32は、ステップS113で記憶した疵データの夫々に対して正解データを付与する。
次に、ステップS116において、特徴量空間配置部33は、複数の特徴量の組み合わせを1つ選択する。
次に、ステップS117において、特徴量空間配置部33は、正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点(特徴量の値)を、ステップS115で選択した各特徴量を座標軸とする座標空間(特徴量空間)に配置する。尚、前述したように、このステップS117では、今回ステップS115で正解データが付与された疵データのデータ点(特徴量の値)に加えて、それまでにステップS103、S115で正解データが付与された疵データのデータ点(特徴量の値)も座標空間(特徴量空間)に配置する。そして、特徴量空間配置部33は、それらの疵データの夫々のデータ点(特徴量の値)の領域が相互に重複しているか否かを判定する。この判定の結果、疵データの夫々のデータ点(特徴量の値)の領域が相互に重複していない場合には、後述するステップS120に進む。
When the processing is completed for all the eyelid data received in step S101, the process proceeds to step S115, and the teacher data generation unit 32 assigns correct data to each of the eyelid data stored in step S113.
Next, in step S116, the feature quantity space arrangement unit 33 selects one combination of a plurality of feature quantities.
Next, in step S117, the feature amount space arranging unit 33 selects each data point (feature amount value) of the “plurality of soot data relating to the soot type” to which the correct data is assigned in step S115. The feature amount is arranged in a coordinate space (feature amount space) having coordinate axes. As described above, in this step S117, in addition to the data point (feature value) of the wrinkle data to which the correct answer data is given in step S115 this time, the correct answer data is given in steps S103 and S115 so far. The data points (feature value) of the eyelid data are also arranged in the coordinate space (feature value space). Then, the feature amount space arrangement unit 33 determines whether or not the areas of the respective data points (feature amount values) of the bag data overlap each other. As a result of the determination, if the areas of the respective data points (feature value values) of the eyelid data do not overlap each other, the process proceeds to step S120 described later.

一方、疵データの夫々のデータ点(特徴量の値)の領域が相互に重複している場合には、ステップS118に進む。ステップS118に進むと、特徴量組み合わせ判別部34は、ステップS116で選択した特徴量の組み合わせが部分特徴量空間として登録されている組み合わせであるか否かを判定する。この判定の結果、ステップS116で選択した特徴量の組み合わせが部分特徴量空間として登録されている組み合わせでない場合には、部分特徴量空間を削除する必要はないので、ステップS119を省略して後述するステップS122に進む。一方、ステップS116で選択した特徴量の組み合わせが部分特徴量空間として登録されている組み合わせである場合には、ステップS119に進み、特徴量組み合わせ判別部34は、ステップS118で登録されていると判定された部分特徴量空間を学習モデルから削除する。図6に示す例では、部分特徴量空間2がこのステップS119で削除される。そして、後述するステップS122に進む。   On the other hand, if the areas of the respective data points (feature value values) of the eyelid data overlap each other, the process proceeds to step S118. In step S118, the feature amount combination determination unit 34 determines whether or not the combination of the feature amounts selected in step S116 is a combination registered as a partial feature amount space. If the result of this determination is that the combination of feature quantities selected in step S116 is not a combination registered as a partial feature quantity space, it is not necessary to delete the partial feature quantity space, so step S119 is omitted and will be described later. Proceed to step S122. On the other hand, if the combination of the feature amounts selected in step S116 is a combination registered as a partial feature amount space, the process proceeds to step S119, and the feature amount combination determination unit 34 determines that it is registered in step S118. The partial feature amount space thus obtained is deleted from the learning model. In the example shown in FIG. 6, the partial feature amount space 2 is deleted in this step S119. And it progresses to step S122 mentioned later.

ステップS117において、疵データの夫々のデータ点(特徴量の値)の領域が相互に重複していないと判定された場合には、ステップS120に進む。ステップS120に進むと、特徴量組み合わせ判別部34は、ステップS116で選択した特徴量の組み合わせが部分特徴量空間として登録されている組み合わせであるか否かを判定する。この判定の結果、ステップS116で選択した特徴量の組み合わせが部分特徴量空間として登録されている組み合わせである場合には、部分特徴量空間を追加する必要はないので、ステップS121を省略して後述するステップS122に進む。一方、ステップS116で選択した特徴量の組み合わせが部分特徴量空間として登録されている組み合わせでない場合には、ステップS121に進み、特徴量組み合わせ判別部34は、ステップS118で登録されていると判定された部分特徴量空間を学習モデルに追加する。図6に示す例では、部分特徴量空間L+1が、このステップS121で追加される。そして、ステップS122に進む。   If it is determined in step S117 that the areas of the respective data points (feature value values) of the eyelid data do not overlap with each other, the process proceeds to step S120. In step S120, the feature amount combination determination unit 34 determines whether or not the combination of the feature amounts selected in step S116 is a combination registered as a partial feature amount space. If the result of this determination is that the combination of feature quantities selected in step S116 is a combination registered as a partial feature quantity space, there is no need to add a partial feature quantity space, so step S121 is omitted and will be described later. The process proceeds to step S122. On the other hand, if the combination of feature amounts selected in step S116 is not a combination registered as a partial feature amount space, the process proceeds to step S121, and the feature amount combination determination unit 34 determines that it is registered in step S118. Added partial feature space to the learning model. In the example shown in FIG. 6, the partial feature amount space L + 1 is added in this step S121. Then, the process proceeds to step S122.

ステップS122に進むと、特徴量空間配置部33は、全ての特徴量の組み合わせを選択したか否かを判定する。この判定の結果、全ての特徴量の組み合わせを選択していない場合には、ステップS116に戻り、特徴量空間配置部33は、未選択の特徴量の組み合わせを1つ選択する。そして、全ての特徴量の組み合わせについて処理が終了するまで、ステップS116〜S122の処理を繰り返し行う。
全ての特徴量の組み合わせについて処理が終了すると、ステップS123に進む。ステップS123に進むと、学習モデル生成・更新部35は、ステップS119、S121の結果に基づいて学習モデルを更新し、更新した学習モデルを学習モデル記憶部36に記憶する。
次に、ステップS124において、学習モデル出力部37は、ステップS123で更新された学習モデルを疵判定装置6に送信する。そして、ステップS101に戻る。
In step S122, the feature amount space arrangement unit 33 determines whether all combinations of feature amounts have been selected. If the result of this determination is that not all feature quantity combinations have been selected, the process returns to step S116, and the feature quantity space layout unit 33 selects one unselected feature quantity combination. Then, the processes in steps S116 to S122 are repeated until the process is completed for all the feature value combinations.
When the processing is completed for all the feature value combinations, the process proceeds to step S123. In step S123, the learning model generation / update unit 35 updates the learning model based on the results of steps S119 and S121, and stores the updated learning model in the learning model storage unit 36.
Next, in step S124, the learning model output unit 37 transmits the learning model updated in step S123 to the wrinkle determination device 6. Then, the process returns to step S101.

図12は、各月における学習モデルの生成・更新に使用した疵データの数(データ数)の一例を示す図である。図12では、めっき製造ラインで製造されためっき鋼板10に生じている疵が、2種類の疵種「CL1」と「CL2」の何れであるかを調査した結果である。また、ここでは、特徴量の種類を20種類としている。また、尚、各月において、約600個の疵データを疵学習装置7に新たに入力している。
図12において、黒塗りのグラフは、本実施形態のように、最初の月(1月)を除いて、学習モデルにおける疵種の判別結果に対する確信度が低い疵データだけを学習モデルの更新に用いた場合のデータ数を示す。一方、白抜きのグラフは、全ての月において、全ての疵データを学習モデルの更新に用いた場合のデータ数を示す。図12に示すように、本実施形態のようにすれば、学習モデルの更新を行えば行うほど、更新に用いる疵データの数を削減することができることが分かる。図12に示す例では、8月では、本実施形態のようにすれば、全ての疵データを学習モデルの更新に用いる場合に比べて、更新に用いる疵データの数を約1/3にすることができた。
FIG. 12 is a diagram illustrating an example of the number of heel data (number of data) used for generation / update of the learning model in each month. In FIG. 12, it is the result of investigating whether the wrinkles which have arisen in the plated steel plate 10 manufactured with the plating production line are two types of types "CL1" and "CL2." Here, 20 types of feature values are set. In addition, about 600 pieces of cocoon data are newly input to the cocoon learning device 7 in each month.
In FIG. 12, as in this embodiment, the blacked-out graph is used to update the learning model only for the wrinkle data having a low certainty with respect to the determination result of the wrinkle type in the learning model except the first month (January) Indicates the number of data when used. On the other hand, the open graph shows the number of data when all the wrinkle data is used for updating the learning model in all months. As shown in FIG. 12, according to the present embodiment, it can be seen that the more the learning model is updated, the more the number of wrinkle data used for the update can be reduced. In the example shown in FIG. 12, in August, according to the present embodiment, the number of wrinkle data used for updating is reduced to about 1/3 compared to the case where all the wrinkle data is used for updating the learning model. I was able to.

図13は、各月における疵種一致率の一例を示す図である。図13では、図12に示した結果が得られたものと同じ疵データを処理した結果を示している。ここで、疵種一致率とは、ある疵について疵判定装置6で疵種を判定した結果と、当該疵を検査員が目視で確認した結果とが一致した割合を示す。
図13において、グラフ131は、本実施形態のように、最初の月(1月)を除いて、学習モデルにおける疵種の判別結果に対する確信度が低い疵データだけを学習モデルの更新に用いた場合の疵種一致率を示す。一方、グラフ132は、全ての月において、全ての疵データを学習モデルの更新に用いた場合の疵種一致率を示す。図13に示すように、本実施形態のようにすれば、疵種の識別性能を向上させることができることが分かる。これは、全ての疵データを学習モデルの更新に用いると、学習モデルが過学習の状態になり、疵種が未知の疵データに対する汎化性が劣るためであると考えられる。また、正解データを付与する疵データが多くなりすぎると、疵データに対して検査員が設定する正解データに誤りが発生する可能性が高くなると考えられる。特に、特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が高い領域に配置される疵データに対して設定する正解データに誤りがあった場合の方が、確信度が低い領域に配置される疵データに対して設定する正解データに誤りがあった場合よりも学習モデルの成長に、より悪影響を及ぼすと考えられる。
FIG. 13 is a diagram illustrating an example of the sow seed match rate in each month. FIG. 13 shows the result of processing the same soot data as that obtained from the result shown in FIG. Here, the soot seed match rate indicates the rate at which the result of determining the soot seed by the soot determining device 6 for a certain soot matches the result of visual inspection of the soot by the inspector.
In FIG. 13, as in the present embodiment, in the graph 131, except for the first month (January), only the wrinkle data with low confidence in the wrinkle type discrimination result in the learning model is used for updating the learning model. In this case, the species match rate is shown. On the other hand, the graph 132 shows the species match rate when all the cocoon data are used for updating the learning model in all the months. As shown in FIG. 13, it can be seen that, according to the present embodiment, it is possible to improve the identification performance of the grape species. This is presumably because when all the wrinkle data is used for updating the learning model, the learning model becomes over-learned and the generalization of the wrinkle data with the unknown hail species is inferior. In addition, if there is too much sputum data to which correct data is added, it is considered that there is a high possibility that an error will occur in correct data set by the inspector for the sputum data. In particular, in the feature amount space, if there is an error in the correct data set for the cocoon data that is placed in the region where the certainty of the discrimination result of the species in the learning model is high, the region with the low certainty This is considered to have a more adverse effect on the growth of the learning model than when there is an error in the correct answer data set for the arranged trap data.

以上のように本実施形態では、疵種「CL1」、「CL2」を完全に分離する特徴量の値の範囲の組と、疵種「CL1」、「CL2」とを相互に対応付けるための複数個(L個)の部分特徴量空間の集合として学習モデルを生成する。そして、入力された疵データのうち、特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が低い疵データだけを用いて、学習モデルを更新する。したがって、学習モデルの更新に有用な疵データを自動的に選択することができる。これにより、検査員による正解データの設定作業を軽減することができ、誤った正解データを疵データに設定してしまうことを防止することができる。よって、疵判定装置6における疵種の判別性能を向上させることができ(すなわち、学習モデルの信頼性を向上させることができ)、疵判定装置6の性能を長期間にわたって自動的に維持することが可能になる。その結果、疵判定装置6が安定的に稼働し、疵判定装置6の機能が、長期的に、鋼板全体にわたって発揮される。   As described above, in this embodiment, a plurality of feature value ranges that completely separate the species “CL1” and “CL2” and a plurality of species for associating the species “CL1” and “CL2” with each other. A learning model is generated as a set of L (L) partial feature amount spaces. Then, the learning model is updated using only the cocoon data having a low certainty of the discrimination result of the cocoon type in the learning model in the feature amount space among the input cocoon data. Therefore, it is possible to automatically select soot data useful for updating the learning model. Thereby, the correct data setting work by the inspector can be reduced, and erroneous correct data can be prevented from being set in the bag data. Therefore, the kind discrimination | determination performance in the eyelid determination apparatus 6 can be improved (that is, the reliability of a learning model can be improved), and the performance of the eyelid determination apparatus 6 can be automatically maintained over a long period of time. Is possible. As a result, the wrinkle determination device 6 operates stably, and the function of the wrinkle determination device 6 is exhibited over the entire steel sheet in the long term.

尚、本実施形態では、めっき製造ラインで製造されためっき鋼板10が疵検査対象物である場合を例に挙げて説明したが、疵検査対象物は、金属であれば、どのようなものであってもよい。
また、本実施形態では、疵種の種類が「2」、特徴量の種類が「20」である場合を例に挙げて説明したが、疵種の種類は3以上であってもよいし、特徴量の種類は、2以上であれば幾つであってもよい。
In the present embodiment, the case where the plated steel sheet 10 manufactured in the plating production line is a flaw inspection object has been described as an example, but the flaw inspection object is any metal as long as it is a metal. There may be.
Further, in the present embodiment, the case where the type of grape seed is “2” and the type of feature amount is “20” has been described as an example, but the kind of grape seed may be 3 or more, The number of feature amounts may be any number as long as it is two or more.

また、本実施形態では、疵種「CL1」への投票率に基づいて、学習モデルを更新する際に使用する疵データを抽出する場合を例に挙げて説明した。しかしながら、学習モデルを更新する際に使用する疵データを抽出する基準は、このようなものに限定されない。例えば、学習モデルとして、サポートベクタマシン(SVM)のように、特徴量空間における疵種の識別境界からの距離Dで疵種を判別するアルゴリズムを用いた場合には、例えば、次のようにすることができる。すなわち、入力された疵データ(学習モデルに使用するか否かを判定する対象となる「疵種が未知の疵データ」)のうち、−X<D<X(Xは正数)の範囲内にある疵データを、特徴量空間において、学習モデルにおける疵種の判別結果に対する確信度が低い疵データとし、入力された疵データのうち、この疵データのみを、学習モデルの更新に使用することができる。また、学習モデルとして、最近傍法のように、疵種が未知の疵データの近傍に存在する学習データ(疵種が与えられた疵データ)の疵種と数とから、疵種が未知の疵データの疵種を判別するアルゴリズムを用いた場合には、例えば、次のようにすることができる。すなわち、k最近傍法では入力した疵データから近い順にk個の事例を見つける。k個の事例のうち最も多数を占めるクラスに入力した疵データが分類される。ここで、k個のデータの中でクラスCL1とCL2の個数の割合が近ければ確信度が低いと言える。学習モデルにおける疵種の判別結果に対する確信度が低い疵データを求め、入力された疵データのうち、この疵データのみを、学習モデルの更新に使用することができる。   Further, in the present embodiment, the case where the bag data used when updating the learning model is extracted based on the vote rate for the bag type “CL1” has been described as an example. However, the criterion for extracting the eyelid data used when updating the learning model is not limited to this. For example, when an algorithm that discriminates the species by the distance D from the species identification boundary in the feature amount space, such as a support vector machine (SVM), is used as the learning model, for example, as follows. be able to. That is, within the range of −X <D <X (where X is a positive number) in the input soot data (“spot data whose kind of soup is unknown” to be used for determining whether or not to use in the learning model)疵 data in the feature amount space is 疵 data with low confidence in the discrimination result of the モ デ ル type in the learning model, and only this 疵 data among the input 疵 data is used for updating the learning model Can do. In addition, as a learning model, as in the nearest neighbor method, the species is unknown based on the species and number of learning data that exists in the vicinity of the species whose species is unknown (the species data given species). In the case of using an algorithm for determining the type of soot data, for example, the following can be performed. That is, in the k nearest neighbor method, k cases are found in order from the input soot data. The soot data input to the class occupying the largest number among the k cases is classified. Here, if the ratio of the number of classes CL1 and CL2 in the k data is close, it can be said that the certainty level is low. It is possible to obtain cocoon data having a low certainty for the discrimination result of the cocoon type in the learning model and use only the cocoon data among the inputted cocoon data for updating the learning model.

尚、本実施形態では、例えば、図2の疵データ取得部31を用いることにより取得手段の一例が実現され、教師データ生成部32を用いることにより付与手段の一例が実現され、特徴量空間配置部33、特徴量組み合わせ判別部34及び学習モデル生成・更新部35を用いることにより、生成手段の一例が実現される。また、例えば、不確信データ抽出部38を用いることにより、抽出手段の一例が実現される。また、例えば、特徴量空間配置部33、特徴量組み合わせ判別部34、学習モデル生成・更新部35を用いることにより更新手段の一例が実現される。
また、例えば、図11のステップS101の処理を実行することにより、取得工程の一例が実現され、ステップS103、S115の処理を実行することにより、付与工程の一例が実現され、ステップS104〜S108の処理を実行することにより、生成工程の一例が実現される。また、例えば、図11のステップS110〜S114の処理を実行することにより、抽出工程の一例が実現され、ステップS116〜S123の処理を実行することにより、更新工程の一例が実現される。
また、特定の疵種の一例は疵種「CL1」であり、所定の範囲の一例は30%≦VR≦70%(VRは投票率)である。
In the present embodiment, for example, an example of an acquisition unit is realized by using the eyelid data acquisition unit 31 of FIG. 2, and an example of an assignment unit is realized by using the teacher data generation unit 32, and feature amount space arrangement By using the unit 33, the feature amount combination determination unit 34, and the learning model generation / update unit 35, an example of a generation unit is realized. Further, for example, by using the uncertain data extraction unit 38, an example of an extraction unit is realized. Further, for example, an example of the updating unit is realized by using the feature amount space arranging unit 33, the feature amount combination determining unit 34, and the learning model generating / updating unit 35.
Further, for example, an example of an acquisition process is realized by executing the process of step S101 in FIG. 11, and an example of an adding process is realized by executing the processes of steps S103 and S115, and steps S104 to S108 are performed. By executing the processing, an example of the generation process is realized. Further, for example, an example of the extraction process is realized by executing the processes of steps S110 to S114 in FIG. 11, and an example of the update process is realized by executing the processes of steps S116 to S123.
An example of the specific type is the type “CL1”, and an example of the predetermined range is 30% ≦ VR ≦ 70% (VR is a vote rate).

尚、以上説明した本発明の実施形態は、コンピュータがプログラムを実行することによって実現することができる。また、プログラムをコンピュータに供給するための手段、例えばかかるプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体、又はかかるプログラムを伝送する伝送媒体も本発明の実施の形態として適用することができる。また、前記プログラムを記録したコンピュータ読み取り可能な記録媒体などのプログラムプロダクトも本発明の実施の形態として適用することができる。前記のプログラム、コンピュータ読み取り可能な記録媒体、伝送媒体及びプログラムプロダクトは、本発明の範疇に含まれる。
また、以上説明した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
The embodiment of the present invention described above can be realized by a computer executing a program. Further, a means for supplying the program to the computer, for example, a computer-readable recording medium such as a CD-ROM recording such a program, or a transmission medium for transmitting such a program may be applied as an embodiment of the present invention. it can. A program product such as a computer-readable recording medium that records the program can also be applied as an embodiment of the present invention. The programs, computer-readable recording media, transmission media, and program products are included in the scope of the present invention.
In addition, the embodiments of the present invention described above are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. Is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

1 帯状鋼板
2 搬送ロール
3 ロータリーエンコーダ
4 照明装置
5 撮像装置
6 疵判定装置
7 疵学習装置
8、9 表示装置
10 めっき鋼板
DESCRIPTION OF SYMBOLS 1 Strip | belt-shaped steel plate 2 Conveyance roll 3 Rotary encoder 4 Illumination device 5 Imaging device 6 疵 determination device 7 疵 Learning device 8, 9 Display device 10 Plated steel plate

Claims (5)

検査対象物の画像から、データ項目として疵の複数の特徴量をそれぞれ含む複数個の疵データを取得する取得手段と、
前記疵データそれぞれに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与する付与手段と、
前記取得手段により取得された疵データの特徴量の値であって、前記付与手段により正解データが付与された複数個の疵データそれぞれの複数の特徴量の値を、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、疵データの複数の特徴量の値から当該疵データの疵種を判別するための学習モデルを生成する生成手段と、
前記取得手段により取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出する抽出手段と、
前記生成手段により生成された学習モデルを更新する更新手段と、を有し、
前記付与手段は、前記更新手段により前記学習モデルを更新する際には、前記取得手段により取得された疵データのうち、前記抽出手段により抽出された疵データに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与し、
前記更新手段は、前記抽出手段により抽出された疵データの特徴量の値であって、前記付与手段により正解データが付与された疵データの複数の特徴量の値と、既に前記学習モデルの生成に使用された疵データの当該複数の特徴量の値とを、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、前記学習モデルを更新することを特徴とする疵学習装置。
An acquisition means for acquiring a plurality of wrinkle data each including a plurality of feature amounts of wrinkles as data items from the image of the inspection object;
A granting unit that grants certain types of correct answer data to each of the trap data based on an operation of the input device by a user;
The feature value values of the wrinkle data acquired by the acquisition unit, the plurality of feature values of each of the plurality of wrinkle data to which the correct data is added by the adding unit, and the plurality of feature amounts respectively. Generating means for generating a learning model for discriminating the species of the eyelid data from the values of a plurality of feature amounts of the eyelid data based on the result of arrangement in the feature amount space as each coordinate axis;
Among the cocoon data acquired by the acquisition unit, cocoon data having a low certainty for the discrimination result of the cocoon type in the learning model is extracted in a feature amount space having each of the plurality of feature amounts of the heel data as coordinate axes. Extraction means;
Updating means for updating the learning model generated by the generating means,
When the updating unit updates the learning model by the updating unit, among the cocoon data acquired by the acquiring unit, the cocoon data extracted by the extracting unit is used as a kind of correct answer data. Based on the operation of the input device by the user,
The updating means is a feature value value of the wrinkle data extracted by the extracting means, and a plurality of feature value values of the wrinkle data to which correct data is given by the giving means, and generation of the learning model already The learning model is updated based on a result of arranging the values of the plurality of feature amounts of the wrinkle data used in the above in a feature amount space having each of the plurality of feature amounts as respective coordinate axes.疵 Learning device.
前記学習モデルは、複数の疵種を分離できる特徴量の値の範囲の組と、当該複数の疵種とを相互に対応付けるための複数の部分特徴量空間であって、それぞれが、疵データの特徴量の値の組が与えられると、当該疵データの特徴量の値の組の部分特徴量空間における位置に基づいて、一の疵種を、疵種の判別結果として出力する複数の部分特徴量空間を有し、
前記抽出手段は、前記取得手段により取得された疵データの特徴量の値の組を前記複数の部分特徴量空間に与えることによりそれぞれの部分特徴量空間から判別結果として出力された疵種が複数あり、且つ、前記部分特徴量空間の総数に対する、当該複数の疵種のうちの特定の疵種の数が、所定の範囲にある場合に、当該疵データを、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データとして抽出することを特徴とする請求項1に記載の疵学習装置。
The learning model is a plurality of partial feature amount spaces for associating a set of feature value ranges that can separate a plurality of species and the plurality of species, each of which includes Given a set of feature values, a plurality of partial features that output a single species as a discrimination result of the species based on the position in the partial feature space of the feature value set of the relevant data Have quantity space,
The extracting means provides a plurality of feature value values of the eyelid data acquired by the acquiring means to the plurality of partial feature amount spaces, so that a plurality of species that are output as discrimination results from the respective partial feature amount spaces are provided. And when the number of specific types of the plurality of types is within a predetermined range with respect to the total number of the partial feature amount spaces, the type of the type in the learning model is determined. The wrinkle learning device according to claim 1, wherein the wrinkle learning device extracts the wrinkle data having a low certainty about the result.
検査対象物の画像から、データ項目として疵の複数の特徴量をそれぞれ含む複数個の疵データを取得する取得工程と、
前記疵データそれぞれに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与する付与工程と、
前記取得工程により取得された疵データの特徴量の値であって、前記付与工程により正解データが付与された複数個の疵データそれぞれの複数の特徴量の値を、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、疵データの複数の特徴量の値から当該疵データの疵種を判別するための学習モデルを生成する生成工程と、
前記取得工程により取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出する抽出工程と、
前記生成工程により生成された学習モデルを更新する更新工程と、を有し、
前記付与工程は、前記更新工程により前記学習モデルを更新する際には、前記取得工程により取得された疵データのうち、前記抽出工程により抽出された疵データに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与し、
前記更新工程は、前記抽出工程により抽出された疵データの特徴量の値であって、前記付与工程により正解データが付与された疵データの複数の特徴量の値と、既に前記学習モデルの生成に使用された疵データの当該複数の特徴量の値とを、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、前記学習モデルを更新することを特徴とする疵学習方法。
An acquisition step of acquiring a plurality of wrinkle data each including a plurality of feature amounts of wrinkles as data items from the image of the inspection object;
A granting step for granting each kind of correct answer data, based on the operation of the input device by the user, to each of the saddle data;
The feature value values of the wrinkle data acquired by the acquisition step, wherein the plurality of feature values of each of the plurality of wrinkle data to which the correct data is given by the adding step A generation step for generating a learning model for discriminating the species of the cocoon data from the values of the plurality of feature values of the cocoon data based on the result of arrangement in the feature amount space as each coordinate axis;
Of the cocoon data acquired by the acquisition step, cocoon data having a low certainty with respect to the discrimination result of the cocoon type in the learning model is extracted in the feature amount space having each of the plurality of feature amounts of the heel data as coordinate axes. An extraction process;
Updating the learning model generated by the generating step, and
In the granting step, when updating the learning model by the updating step, among the cocoon data acquired by the obtaining step, among the cocoon data extracted by the extracting step, 疵 kinds of correct answer data, Based on the operation of the input device by the user,
The update step is a feature value value of the wrinkle data extracted by the extraction step, and a plurality of feature value values of the wrinkle data to which correct data is given by the adding step, and generation of the learning model already The learning model is updated based on a result of arranging the values of the plurality of feature amounts of the wrinkle data used in the above in a feature amount space having each of the plurality of feature amounts as respective coordinate axes.疵 Learning method.
前記学習モデルは、複数の疵種を分離できる特徴量の値の範囲の組と、当該複数の疵種とを相互に対応付けるための複数の部分特徴量空間であって、それぞれが、疵データの特徴量の値の組が与えられると、当該疵データの特徴量の値の組の部分特徴量空間における位置に基づいて、一の疵種を、疵種の判別結果として出力する複数の部分特徴量空間を有し、
前記抽出工程は、前記取得工程により取得された疵データの特徴量の値の組を前記複数の部分特徴量空間に与えることによりそれぞれの部分特徴量空間から判別結果として出力された疵種が複数あり、且つ、前記部分特徴量空間の総数に対する、当該複数の疵種のうちの特定の疵種の数が、所定の範囲にある場合に、当該疵データを、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データとして抽出することを特徴とする請求項3に記載の疵学習方法。
The learning model is a plurality of partial feature amount spaces for associating a set of feature value ranges that can separate a plurality of species and the plurality of species, each of which includes Given a set of feature values, a plurality of partial features that output a single species as a discrimination result of the species based on the position in the partial feature space of the feature value set of the relevant data Have quantity space,
In the extracting step, a plurality of types of soot species output as discrimination results from each partial feature amount space are provided by providing a set of feature value values of the soot data acquired in the acquiring step to the plurality of partial feature amount spaces. And when the number of specific types of the plurality of types is within a predetermined range with respect to the total number of the partial feature amount spaces, the type of the type in the learning model is determined. The cocoon learning method according to claim 3, wherein the cocoon learning method is extracted as cocoon data having a low certainty about the result.
検査対象物の画像から、データ項目として疵の複数の特徴量をそれぞれ含む複数個の疵データを取得する取得工程と、
前記疵データそれぞれに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与する付与工程と、
前記取得工程により取得された疵データの特徴量の値であって、前記付与工程により正解データが付与された複数個の疵データそれぞれの複数の特徴量の値を、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、疵データの複数の特徴量の値から当該疵データの疵種を判別するための学習モデルを生成する生成工程と、
前記取得工程により取得された疵データのうち、当該疵データの複数の特徴量それぞれを各座標軸とする特徴量空間において、前記学習モデルにおける疵種の判別結果に対する確信度が低い疵データを抽出する抽出工程と、
前記生成工程により生成された学習モデルを更新する更新工程と、をコンピュータに実行させ、
前記付与工程は、前記更新工程により前記学習モデルを更新する際には、前記取得工程により取得された疵データのうち、前記抽出工程により抽出された疵データに対し、疵種の正解データを、ユーザによる入力装置の操作に基づいて付与し、
前記更新工程は、前記抽出工程により抽出された疵データの特徴量の値であって、前記付与工程により正解データが付与された疵データの複数の特徴量の値と、既に前記学習モデルの生成に使用された疵データの当該複数の特徴量の値とを、当該複数の特徴量それぞれを各座標軸とする特徴量空間に配置した結果に基づいて、前記学習モデルを更新することを特徴とするコンピュータプログラム。
An acquisition step of acquiring a plurality of wrinkle data each including a plurality of feature amounts of wrinkles as data items from the image of the inspection object;
A granting step for granting each kind of correct answer data, based on the operation of the input device by the user, to each of the saddle data;
The feature value values of the wrinkle data acquired by the acquisition step, wherein the plurality of feature values of each of the plurality of wrinkle data to which the correct data is given by the adding step A generation step for generating a learning model for discriminating the species of the cocoon data from the values of the plurality of feature values of the cocoon data based on the result of arrangement in the feature amount space as each coordinate axis;
Of the cocoon data acquired by the acquisition step, cocoon data having a low certainty with respect to the discrimination result of the cocoon type in the learning model is extracted in the feature amount space having each of the plurality of feature amounts of the cocoon data as coordinate axes. An extraction process;
Updating the learning model generated by the generating step, and causing the computer to execute,
In the granting step, when updating the learning model by the updating step, among the cocoon data acquired by the obtaining step, among the cocoon data extracted by the extracting step, 疵 kinds of correct answer data, Based on the operation of the input device by the user,
The update step is a feature value value of the wrinkle data extracted by the extraction step, and a plurality of feature value values of the wrinkle data to which correct data is given by the adding step, and generation of the learning model already The learning model is updated based on a result of arranging the values of the plurality of feature amounts of the wrinkle data used in the above in a feature amount space having each of the plurality of feature amounts as respective coordinate axes. Computer program.
JP2010057762A 2010-03-15 2010-03-15 Flaw learning device, flaw learning method and computer program Pending JP2011192032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010057762A JP2011192032A (en) 2010-03-15 2010-03-15 Flaw learning device, flaw learning method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010057762A JP2011192032A (en) 2010-03-15 2010-03-15 Flaw learning device, flaw learning method and computer program

Publications (1)

Publication Number Publication Date
JP2011192032A true JP2011192032A (en) 2011-09-29

Family

ID=44796866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010057762A Pending JP2011192032A (en) 2010-03-15 2010-03-15 Flaw learning device, flaw learning method and computer program

Country Status (1)

Country Link
JP (1) JP2011192032A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6004084B2 (en) * 2013-03-29 2016-10-05 富士通株式会社 Model updating method, apparatus, and program
JP6431231B1 (en) * 2017-12-24 2018-11-28 オリンパス株式会社 Imaging system, learning apparatus, and imaging apparatus
JP2020085705A (en) * 2018-11-28 2020-06-04 セイコーエプソン株式会社 Determination device and determination method
CN111598827A (en) * 2019-02-19 2020-08-28 富泰华精密电子(郑州)有限公司 Appearance flaw detection method, electronic device and storage medium
JP2020527227A (en) * 2017-07-03 2020-09-03 サウジ アラビアン オイル カンパニー Equipment and methods for non-destructive inspection of fiberglass and non-metal pipes
CN111699499A (en) * 2018-03-14 2020-09-22 欧姆龙株式会社 Inspection system, image recognition system, recognizer generation system, and learning data generation device
JP2020187072A (en) * 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device and method for setting image inspection device
US10878286B2 (en) 2016-02-24 2020-12-29 Nec Corporation Learning device, learning method, and recording medium
JP2021516386A (en) * 2018-03-05 2021-07-01 オムロン株式会社 Methods, devices, systems, programs, and storage media for detecting workpieces
CN113808035A (en) * 2021-08-25 2021-12-17 厦门微图软件科技有限公司 Flaw detection method based on semi-supervised learning
CN114199879A (en) * 2021-11-23 2022-03-18 北京科技大学 Method for identifying cold-rolled strip steel surface gathering type defects
JP7306933B2 (en) 2018-09-21 2023-07-11 古河電気工業株式会社 Image determination device, image inspection device, and image determination method
JP7423368B2 (en) 2020-03-23 2024-01-29 イビデン株式会社 Defect detection device and method
CN113808035B (en) * 2021-08-25 2024-04-26 厦门微图软件科技有限公司 Flaw detection method based on semi-supervised learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009250722A (en) * 2008-04-03 2009-10-29 Nippon Steel Corp Defect learning apparatus, defect learning method and computer program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009250722A (en) * 2008-04-03 2009-10-29 Nippon Steel Corp Defect learning apparatus, defect learning method and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200900354032; 松尾 祥和: '逐次テスト特徴法における成熟度の解析' 報処理学会研究報告 第2009巻 第29号, 20090306, p.229-234, 社団法人情報処理学会 *
JPN6012069074; 松尾 祥和: '逐次テスト特徴法における成熟度の解析' 報処理学会研究報告 第2009巻 第29号, 20090306, p.229-234, 社団法人情報処理学会 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014155690A1 (en) * 2013-03-29 2017-02-16 富士通株式会社 Model updating method, apparatus, and program
JP6004084B2 (en) * 2013-03-29 2016-10-05 富士通株式会社 Model updating method, apparatus, and program
US10878286B2 (en) 2016-02-24 2020-12-29 Nec Corporation Learning device, learning method, and recording medium
JP2020527227A (en) * 2017-07-03 2020-09-03 サウジ アラビアン オイル カンパニー Equipment and methods for non-destructive inspection of fiberglass and non-metal pipes
US11460412B2 (en) 2017-07-03 2022-10-04 Saudi Arabian Oil Company System for nondestructively inspecting fiberglass and nonmetallic pipes
JP6431231B1 (en) * 2017-12-24 2018-11-28 オリンパス株式会社 Imaging system, learning apparatus, and imaging apparatus
CN109978812A (en) * 2017-12-24 2019-07-05 奥林巴斯株式会社 Camera system, learning device, photographic device and learning method
JP2019114222A (en) * 2017-12-24 2019-07-11 オリンパス株式会社 Imaging system, learning device, and imaging device
JP7103421B2 (en) 2018-03-05 2022-07-20 オムロン株式会社 Methods, devices, systems, programs, and storage media for detecting workpieces
JP2021516386A (en) * 2018-03-05 2021-07-01 オムロン株式会社 Methods, devices, systems, programs, and storage media for detecting workpieces
CN111699499B (en) * 2018-03-14 2023-09-29 欧姆龙株式会社 Inspection, image recognition, recognizer generation system, and learning data generation device
US11715190B2 (en) 2018-03-14 2023-08-01 Omron Corporation Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device
CN111699499A (en) * 2018-03-14 2020-09-22 欧姆龙株式会社 Inspection system, image recognition system, recognizer generation system, and learning data generation device
JP7306933B2 (en) 2018-09-21 2023-07-11 古河電気工業株式会社 Image determination device, image inspection device, and image determination method
JP2020085705A (en) * 2018-11-28 2020-06-04 セイコーエプソン株式会社 Determination device and determination method
JP7119949B2 (en) 2018-11-28 2022-08-17 セイコーエプソン株式会社 Judgment device and judgment method
CN111598827A (en) * 2019-02-19 2020-08-28 富泰华精密电子(郑州)有限公司 Appearance flaw detection method, electronic device and storage medium
JP7267094B2 (en) 2019-05-16 2023-05-01 株式会社キーエンス Image inspection device and image inspection device setting method
JP2020187072A (en) * 2019-05-16 2020-11-19 株式会社キーエンス Image inspection device and method for setting image inspection device
JP7423368B2 (en) 2020-03-23 2024-01-29 イビデン株式会社 Defect detection device and method
CN113808035A (en) * 2021-08-25 2021-12-17 厦门微图软件科技有限公司 Flaw detection method based on semi-supervised learning
CN113808035B (en) * 2021-08-25 2024-04-26 厦门微图软件科技有限公司 Flaw detection method based on semi-supervised learning
CN114199879A (en) * 2021-11-23 2022-03-18 北京科技大学 Method for identifying cold-rolled strip steel surface gathering type defects

Similar Documents

Publication Publication Date Title
JP2011192032A (en) Flaw learning device, flaw learning method and computer program
EP3483833B1 (en) Data generation apparatus, data generation method, and data generation program
CN111919117B (en) Cell image analysis device, cell image analysis system, learning data generation method, learning data generation program, manufacturing method, and learning model generation method
JP2016109495A (en) Classifier generation device, appearance inspection device, classifier generation method, and program
JP2008082821A (en) Defect classification method, its device, and defect inspection device
JP2014142871A (en) Instructor data creation support device, instructor data creation device, image classification device, instructor data creation support method, instructor data creation method, and image classification method
JP6973623B2 (en) Trained model generation method, trained model, surface defect detection method, steel material manufacturing method, pass / fail judgment method, grade judgment method, surface defect judgment program, pass / fail judgment program, judgment system, and steel material manufacturing equipment.
US10726535B2 (en) Automatically generating image datasets for use in image recognition and detection
CN111986195B (en) Appearance defect detection method and system
JP2019106119A (en) Detection system, information processing apparatus, evaluation method, and program
JP2022507678A (en) Optimization of setup stage in automated visual inspection process
JP2007263848A (en) X-ray inspection system
JP2020177430A (en) Information processing apparatus, information processing method, and program
JP2018081629A (en) Determination device, method for determination, and determination program
JP5163505B2 (en) Acupuncture learning device, acupuncture learning method, and computer program
JP5211810B2 (en) Acupuncture learning device, acupuncture learning method, and computer program
JP2007198968A (en) Image-classifying method and image-classifying apparatus
US20070043722A1 (en) Classification system
CN116579984A (en) Intelligent cloth inspection method and system for autonomous fault learning
JP7293907B2 (en) Visual inspection management system, visual inspection management device, visual inspection management method and program
JP7119949B2 (en) Judgment device and judgment method
JP2022142018A (en) Stain determination system of air conditioner, stain determination method and program
JP5975295B2 (en) Inspection apparatus and program
CA2997335C (en) Automatically generating image datasets for use in image recognition and detection
JP2021064215A (en) Surface property inspection device and surface property inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130611