JP2017102906A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2017102906A JP2017102906A JP2016205462A JP2016205462A JP2017102906A JP 2017102906 A JP2017102906 A JP 2017102906A JP 2016205462 A JP2016205462 A JP 2016205462A JP 2016205462 A JP2016205462 A JP 2016205462A JP 2017102906 A JP2017102906 A JP 2017102906A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- parameter
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、工場等で製造された製品が、良品か不良品かの外観検査を自動化する方法の一つとして、多数の特徴量を用いた方法が知られている。この方法は、学習用の複数の良品と不良品の画像から画素値の平均、最大値等多数の特徴量を抽出し、抽出した特徴量で構成される特徴空間上で良品と不良品を分類する識別器を学習し、識別器を用いて、被検対象物が良品か不良品かを判定するものである。 2. Description of the Related Art Conventionally, a method using a large number of feature quantities is known as one of methods for automating the appearance inspection of whether a product manufactured in a factory or the like is a non-defective product or a defective product. This method extracts a large number of feature values such as average and maximum pixel values from multiple good and defective images for learning, and classifies good and defective products on the feature space consisting of the extracted feature values. The discriminator to be learned is learned, and the discriminator is used to determine whether the test object is a non-defective product or a defective product.
このような画像処理による不良品の検出方法では、適切な識別器を学習するには、学習データとして誤りのない良品データと不良品データが必要となる。これに対し、特許文献1には、学習データとして与えられたデータセット中の良品データの中から適切ではない良品データを除く技術が開示されている。 In such a defective product detection method using image processing, in order to learn an appropriate discriminator, non-defective product data and defective product data are required as learning data. On the other hand, Patent Document 1 discloses a technique for excluding non-defective product data from non-defective product data in a data set given as learning data.
また、実際の検査工程の立ち上げ時など、良品データは十分な数を用意できるが、不良品の発生率が低く、十分な数のデータを用意することができない場合がある。これに対し、1つのラベルデータのみから識別器の学習が可能な1クラス識別器モデルも知られている。1クラス識別器は、良品データを表現する特徴空間を学習し、学習した空間に属するか否かにより良品と不良品を判定するものである。 In addition, a sufficient number of non-defective product data can be prepared at the start of an actual inspection process, but there is a case where a defective product generation rate is low and a sufficient number of data cannot be prepared. On the other hand, a one-class classifier model that can learn a classifier from only one label data is also known. The one class discriminator learns a feature space expressing good product data, and determines whether the product is good or defective based on whether or not it belongs to the learned space.
しかしながら、1クラス識別モデルを用いた場合でも、識別器の学習時に必要なハイパーパラメータの決定には、不良品データを用いたり、ユーザが手動でハイパーパラメータを決定したりする必要がある。このため、不良品データが十分でないために、適切な識別器を学習するのが難しい場合があった。また、ユーザがハイパーパラメータを決定する場合には、適切なハイパーパラメータを決定するのが難しかった。 However, even when the one-class identification model is used, it is necessary to use defective product data or manually determine the hyperparameters in order to determine the hyperparameters necessary for learning the classifier. For this reason, since there is not enough defective product data, it may be difficult to learn an appropriate classifier. Further, when the user determines a hyper parameter, it is difficult to determine an appropriate hyper parameter.
本発明はこのような問題点に鑑みなされたもので、十分な不良品データを用いることができない場合であっても、識別器の適切なパラメータを決定することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to determine appropriate parameters of a discriminator even when sufficient defective product data cannot be used.
そこで、本発明は、情報処理装置であって、対象データが特定カテゴリデータ及び非特定カテゴリデータのいずれであるかを判定する判定用の識別器を生成するために利用する複数の学習データを受け付ける受付手段と、前記学習データが前記特定カテゴリデータであることの確からしさを示す第1の尤度を求める第1のデータ評価手段と、複数の学習データそれぞれの前記第1の尤度に基づいて、前記判定用の識別器のパラメータを決定するパラメータ決定手段とを有することを特徴とする。 Therefore, the present invention is an information processing apparatus that accepts a plurality of learning data used to generate a discriminator for determination that determines whether target data is specific category data or non-specific category data. Based on reception means, first data evaluation means for obtaining a first likelihood indicating the certainty that the learning data is the specific category data, and the first likelihood of each of a plurality of learning data And parameter determining means for determining parameters of the discriminator for determination.
本発明によれば、十分な不良品データを用いることができない場合であっても、識別器の適切なパラメータを決定することができる。 According to the present invention, even if sufficient defective product data cannot be used, it is possible to determine appropriate parameters of the discriminator.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施形態に係る情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、正解データとして与えられた複数の学習データを含む学習データセットを用いて正解データと不正解データとを識別する識別器を学習する。情報処理装置100はさらに、学習された識別器を用いて、判定対象の対象データが正解データであるか不正解データであるかの判定を行う。なお、識別器は、あるカテゴリに分類されるデータである特定カテゴリデータと、特定カテゴリデータ以外のデータである非特定カテゴリデータとを識別するものであればよく、識別対象は、正解データと不正解データに限定されるものではない。 FIG. 1 is a diagram illustrating a hardware configuration of the information processing apparatus 100 according to the present embodiment. The information processing apparatus 100 learns a discriminator that identifies correct answer data and incorrect answer data using a learning data set including a plurality of learning data given as correct answer data. The information processing apparatus 100 further uses the learned discriminator to determine whether the target data to be determined is correct data or incorrect data. The discriminator only needs to identify specific category data that is data classified into a certain category and non-specific category data that is data other than the specific category data. It is not limited to correct data.
なお、本実施形態においては、情報処理装置100が工場等における製品の外観検査に利用される場合を例に説明する。すなわち、良品の撮影画像(良品データ)が正解データとなり、不良品の撮影画像(不良品データ)が不正解データとなる。そして、情報処理装置100は、学習により得られた、判定用の識別器を用いて、実際の検査対象物の撮影画像を対象データとして、対象データが良品データであるか不良品データであるかを判定する。これにより、対象データに示される検査対象物が良品であるか不良品であるかを判定することができる。 In the present embodiment, a case where the information processing apparatus 100 is used for an appearance inspection of a product in a factory or the like will be described as an example. In other words, a non-defective photographed image (defective product data) becomes correct data, and a non-defective photographed image (defective product data) becomes incorrect data. Then, the information processing apparatus 100 uses the discriminator for determination obtained by learning, with the captured image of the actual inspection target as target data, whether the target data is good product data or defective product data. Determine. Thereby, it can be determined whether the inspection target object indicated by the target data is a non-defective product or a defective product.
情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、入力部106と、通信部107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。ROM102は、オペレーティングシステム(OS)や各処理プログラム、デバイスドライバ等を記憶している。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、画像データや各種プログラム等各種情報を記憶する。なお、後述する情報処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
The information processing apparatus 100 includes a
表示部105は、各種情報を表示する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、ネットワークを介して画像形成装置等の外部装置との通信処理を行う。
The
図2は、情報処理装置100のソフトウェア構成を示す図である。情報処理装置100は、受付部201と、特徴量抽出部202と、分類部203と、パラメータ決定部204と、学習部205と、識別部206とを有している。受付部201は、学習データ及び判定対象データの入力を受け付ける。ここで、学習データとは、良品データ及び不良品データのいずれであるかがわかっているデータである。一方、判定対象データは、良品データ及び不良品データのいずれであるかが不明なデータであり、いずれのデータであるかの判定対象となるデータである。特徴量抽出部202は、学習データ及び判定対象データの特徴量を抽出する。分類部203は、特徴量に基づいて、各学習データが良品データであることの確からしさを評価し、評価結果に応じて、学習データセットを2つのデータセットに分類する。パラメータ決定部204は、判定用の識別器のパラメータを推定する。学習部205は、判定用の識別器を学習する。
FIG. 2 is a diagram illustrating a software configuration of the information processing apparatus 100. The information processing apparatus 100 includes a
なお、情報処理装置100は、図2に示す各機能部をハードウェア構成として有することとしてもよい。この場合、情報処理装置100は、各機能部に対応する演算部や回路を有するものとすればよい。 Note that the information processing apparatus 100 may include each functional unit illustrated in FIG. 2 as a hardware configuration. In this case, the information processing apparatus 100 may have a calculation unit and a circuit corresponding to each functional unit.
図3は、情報処理装置100による学習処理を示すフローチャートである。S301において、受付部201は、学習データセットを受け付ける。学習データセットに含まれる学習データとしての画像は、検査対象の物体が撮像装置によって撮像された学習画像である。学習画像として撮像される物体は、良品であることが予めわかっている物体である。なお、本実施形態においては、情報処理装置100は、撮像装置等外部装置から入力された画像を受け付けることとするが、他の例としては、情報処理装置100は、予め自装置のHDD104等の記憶部に記憶されている学習データセットを読み出してもよい。
FIG. 3 is a flowchart showing learning processing by the information processing apparatus 100. In S301, the
次に、S302において、特徴量抽出部202は、各学習データから予め定められた複数の種類の特徴量を抽出する。特徴量としては、画像の輝度値の平均、分散、歪度、尖度、最頻値、エントロピー等が挙げられる。また、特徴量としては、Co−Occurrence Matrixを用いたテクスチャー特徴量、SIFTを用いた局所特徴量等が挙げられる。Co−Occurrence Matrixを用いたテクスチャー特徴量及びIFTを用いた局所特徴量については、それぞれ以下に示す文献1、2を参照することができる。
参考文献1
Robert M. Haralick, K. Sharnmugam, and Itshak Dinstein, "Texture Features for Image Classification", IEEE Transactions on System, Man and Cybernatic, Vol.6, pp. 610-621, 1973.
参考文献2
Lowe, David G, "Object Recognition from Local Scale-invariant Features", Proceedings of the International, Conference on Computer Vision 2 pp. 1150-1157, 1999.
Next, in S302, the feature
Reference 1
Robert M. Haralick, K. Sharnmugam, and Itshak Dinstein, "Texture Features for Image Classification", IEEE Transactions on System, Man and Cybernatic, Vol.6, pp. 610-621, 1973.
Reference 2
Lowe, David G, "Object Recognition from Local Scale-invariant Features", Proceedings of the International, Conference on Computer Vision 2 pp. 1150-1157, 1999.
特徴量抽出部202は、これらの特徴量のうち予め定められた複数の特徴量を抽出するものとする。そして、特徴量抽出部202は、抽出した複数の特徴量を順に並べた特徴ベクトルを最終的な特徴量として得る。なお、抽出対象の特徴量の種類については、設定ファイル等としてROM102等に記録されているものとする。また、CPU101は、入力部106を介したユーザ操作に基づいて、設定ファイルの内容を変更することができるものとする。
It is assumed that the feature
次に、S303において、分類部203は、学習データセットを良品データセット及び不良品候補データセットの2つのデータセットに分類し(分類処理)、良品データ又は不良品候補データを示すラベルを付与する。本処理については、図4を参照しつつ後に詳述する。次に、S304において、パラメータ決定部204は、S303において得られた特徴量と、S303において付与されたラベルと、に基づいて、識別器のパラメータを決定する。本処理については、図5を参照しつつ後に詳述する。
Next, in S303, the
次に、S305において、学習部205は、S303において得られた特徴量と、S304において決定したパラメータと、に基づいて、判定用の識別器を学習する。以上で、学習処理が終了する。なお、本実施形態においては、識別器として、One class Support Vector Machine(SVM)を用いものとする。one class SVMについては、以下の文献を参照することができる。
Vapnik, V. (1995). "Support-vector networks". Machine Learning 20 (3): 273.
本実施形態では、識別器としてOne class SVMを用いているが、識別器は、クラス分類が可能な識別モデルであればよく実施形態に限定されるものではない。他の例としては、識別器として、マハラノビス距離や部分空間法の一種である投影距離法、ニューラルネットワークなどを用いてもよい。
Next, in S305, the
Vapnik, V. (1995). "Support-vector networks". Machine Learning 20 (3): 273.
In the present embodiment, One class SVM is used as a discriminator. However, the discriminator is not limited to the embodiment as long as it is a discriminating model capable of class classification. As another example, a Mahalanobis distance, a projection distance method which is a kind of subspace method, a neural network, or the like may be used as a discriminator.
図4は、図3を参照しつつ説明した学習データセット分類処理(S303)における詳細な処理を示すフローチャートである。ここで、S302において受け付けた学習データセットをD={d1,d2,d3,…dN}とする。Nは、学習データセットに含まれる学習データの数である。また、各学習データをdi={xi,li}(1≦i≦N)とする。ここで、xiは特徴量ベクトル、liは各学習データに付与されたラベルである。本実施形態においては、学習データは、いずれも良品データであるため、受け付けた学習データには、良品データであることを表すラベル(li=+1)が付与されている。なお、学習データにラベルが付与されていない場合には、受付部201は、各学習データにラベルを付与(設定)するものとする。
FIG. 4 is a flowchart showing detailed processing in the learning data set classification processing (S303) described with reference to FIG. Here, it is assumed that the learning data set received in S302 is D = {d 1 , d 2 , d 3 ,... D N }. N is the number of learning data included in the learning data set. Further, each learning data is assumed to be d i = {x i , l i } (1 ≦ i ≦ N). Here, x i is a feature vector, and l i is a label given to each learning data. In the present embodiment, since all the learning data is non-defective data, a label (l i = + 1) indicating that it is non-defective data is given to the received learning data. Note that if no label is assigned to the learning data, the accepting
S401において、分類部203は、識別器の学習に必要となるハイパーパラメータ
次に、S402において、分類部203は、S401において設定したパラメータφと、学習データセットDと、を用いて、識別器を学習(生成)する。ここで学習する識別器は、学習データセットを分類するために用いる学習用の識別器である。本実施形態においては、判定処理において用いられる判定用の識別器と同じ識別器を用いて学習データセットの分類を行うこととするが、他の例としては、判定用の識別器と異なる種類の識別器を用いてもよい。
Next, in S402, the
次に、S403において、分類部203は、学習データの識別処理を行う。具体的には、分類部203は、S403において学習した識別器を用いて、学習データxiに対し、良品クラスへの帰属度
次に、S404において、分類部203は、帰属度siと閾値Tvとの比較処理により、(式1)に示すような投票処理を行う。すなわち、分類部203は、帰属度siが、閾値Tvよりも小さい学習データに対し投票を行う。
なお、本実施形態においては、帰属度siが閾値Tvより小さいデータに対して投票を行ったが、投票処理はこれに限定されるものではない。他の例としては、分類部203は、閾値Tvではなく学習データセットDに含まれるデータ数Nに対する割合で投票してもよい。また、本実施形態においては、投票の値を1としているが、他の例としては、分類部203は、重み付けにより投票の値を決定してもよい。分類部203は、例えば、(式2)に示すように、帰属度に比例した値を投票してもよい。また、他の例としては、分類部203は、(式3)に示すように、学習データセット中のすべての帰属度との順位から値を決定してもよい。
次に、S405において、分類部203は、未選択のパラメータが存在するか否かを確認する。分類部203は、未選択のパラメータが存在する場合には(S405でYes)、処理をS401へ進める。そして、S401において、分類部203は、パラメータの候補集合Φから未選択のパラメータを選択し、これを設定し、その後の処理を継続する。分類部203は、未選択のパラメータが存在しない場合には(S405でNo)、処理をS406へ進める。
In step S <b> 405, the
S406において、分類部203は、投票結果に基づいて、学習データxiが良品データ及び不良品候補データのいずれであるかを判定する。具体的には、分類部203は、(式4)により、viが閾値Th以上の場合には不良品候補データと判定し、学習データxiに、不良品候補データのラベル(li=0)を付与する。一方、viが閾値Th未満の場合には良品データと判定し、学習データxiに良品データのラベル(li=+1)を付与する。これにより、学習データセットは、良品データセットと不良品候補データセットの2つのデータセットに分類される。すなわち、本処理は、複数の学習データを2つのデータセットに分類する分類処理の一例である。
図5は、図3を参照しつつ説明したパラメータ決定処理(S304)における詳細な処理を示すフローチャートである。本実施形態においては、パラメータ決定部204は、交差検定法を用いてパラメータを決定する。なお、本実施形態においては、ハイパーパラメータの決定には、交差検定法を用いることとしたが、交差検定法以外の手法を用いてもよい。
FIG. 5 is a flowchart showing detailed processing in the parameter determination processing (S304) described with reference to FIG. In the present embodiment, the
ここで、一般的な交差検定法について説明する。交差検定法では、学習データセットDの良品データと不良品データのそれぞれをK個のグループに分割する。そして、分割したK個のグループのうち1つ以外を学習用に利用し、残りの1つを評価(検定)用に利用する。すなわち、良品データ群である良品データセットDOKをK個のグループに分割し、そのうちの1のグループをDOK(1)、残りのグループをDOK(K-1)とする。同様に、不良品データ群である不良品データセットDNGをK個のグループに分割し、そのうちの1つのグループをDNG(1)、残りのグループをDNG(K-1)とする。そして、任意のパラメータを評価するために、良品グループDOK(K-1)及び不良品グループDNG(K-1)を用いて、識別器の学習を行う。そして、学習した識別器を用いて残りの良品グループDOK(1)及び不良品グループDNG(1)の分離度を算出する。この処理を学習グループ及び評価グループを入れ替えて繰り返して評価を行い、パラメータを選択する。これにより良品データセットと不良品データセットを最も分離するパラメータを選択することが可能となる。 Here, a general cross-validation method will be described. In the cross-validation method, each of the non-defective product data and the defective product data in the learning data set D is divided into K groups. Then, one of the divided K groups is used for learning, and the remaining one is used for evaluation (verification). That is, the good data set D OK , which is a good data group, is divided into K groups, one of which is D OK (1) and the remaining group is D OK (K-1) . Similarly, the defective product data set DNG , which is a defective product data group, is divided into K groups, one of which is DNG (1) and the remaining group is DNG (K-1) . In order to evaluate an arbitrary parameter, the discriminator is learned using the non - defective product group D OK (K-1) and the defective product group D NG (K-1) . Then, the degree of separation of the remaining good product group D OK (1) and defective product group D NG (1) is calculated using the learned classifier. This process is repeated by replacing the learning group and the evaluation group, and the parameters are selected. Thereby, it is possible to select a parameter that most separates the non-defective product data set and the defective product data set.
しかしながら、上記の方法で、本実施形態の良品データと不良品候補データを分類するパラメータを選択した場合、良品データと不良品候補データの間が識別境界となる。そのため、ユーザが良品データとして与えているにも関わらず、不良品候補データは不良品データと判定される可能性がある。そこで、本実施形態においては、以下に説明する処理を行うことにより、良品データと不良品候補データを分類するパラメータではなく、不良品候補データよりも良品データがより良品として確からしいと判定されるようなパラメータを選択する。 However, when the parameter for classifying the non-defective product data and the defective product candidate data according to the present embodiment is selected by the above method, the discrimination boundary is between the non-defective product data and the defective product candidate data. For this reason, there is a possibility that the defective product candidate data is determined as defective product data although the user gives it as good product data. Therefore, in the present embodiment, by performing the processing described below, it is determined that the non-defective product data is more likely to be a non-defective product than the defective product candidate data, not the parameters for classifying the non-defective product data and the defective product candidate data. Select parameters like
まず、S501において、パラメータ決定部204は、学習データセットDを、S303において付与されたラベルに基づいて、良品データセットDOKと不良品候補データセットDNGCとに分割し、各データセットをK個のグループに分割する。次に、S502において、パラメータ決定部204は、パラメータ候補を選択する。次に、S503において、パラメータ決定部204は、良品データセットDOKのK個のグループから1つのグループDOK(1)を評価グループとして選択する。同様に、パラメータ決定部204は、不良品候補データセットDNGCのK個のグループから1つのグループDNGC(1)を評価グループとして選択する。
First, in S501,
次に、S504において、パラメータ決定部204は、評価グループ以外の良品グループトDOK(K-1)と、評価グループ以外の不良品候補グループDNGC(K-1)とを用いて、識別器を学習する。すなわち、パラメータ決定部204は、良品データと不良品候補データの両方を良品データとみなして、学習用の識別器を学習する(学習処理)。次に、S505において、パラメータ決定部204は、S503において選択した評価グループDOK(1)、DNGC(1)を用いて、S504における学習に用いられたパラメータの有効性を評価する(パラメータ評価処理)。なお、本実施形態においては、Area Under the Curve(AUC)を評価値として用いる。すなわち、パラメータ決定部204は、次式により、評価値C(φ)を算出する。
C(φ)=AUC(DOK(1)、DNGC(1))
なお、本実施形態においては、評価値としてAUCを用いたがこれに限定されるものではない。評価値は、2クラスの分離度を評価できる値であればよく、できればよく、AICやBIC等であってもよい。
Next, in S504, the
C (φ) = AUC (D OK (1) , D NGC (1) )
In the present embodiment, AUC is used as the evaluation value, but the present invention is not limited to this. The evaluation value only needs to be a value that can evaluate the degree of separation between the two classes, and may be an AIC, a BIC, or the like.
次に、S506において、パラメータ決定部204は、評価グループとして選択されていないグループが存在するか否かを確認する。パラメータ決定部204は、未選択のグループが存在する場合には(S506でYes)、処理をS503へ進める。そして、S503において、パラメータ決定部204は、未選択のグループを評価グループとして選択し、その後の処理を行う。このように、パラメータ決定部204は、評価グループを変更しながら、S502〜S505の処理を繰り返す。一方、パラメータ決定部204は、すべてのグループが評価グループとして選択済みの場合には(S506でNo)、処理をS507へ進める。
In step S506, the
S507において、パラメータ決定部204は、未選択のパラメータ候補が存在するか否かを確認する。パラメータ決定部204は、未選択のパラメータ候補が存在する場合には(S507でYes)、処理をS502へ進める。そして、S502において、パラメータ決定部204は、未選択のパラメータ候補を選択し、その後の処理を行う。このように、パラメータ決定部204は、各パラメータ候補に対し、評価値を算出する。一方、パラメータ決定部204は、すべてのパラメータ候補が選択済みの場合には(S507でNo)、処理をS508へ進める。
In step S507, the
S508において、パラメータ決定部204は、S502〜S505の処理を繰り返すことにより、各パラメータ候補φに対して得られた複数の評価値を用いて、適切なパラメータを選択する。パラメータ決定部204は、例えば、各パラメータ候補に対して得られた複数の評価値の平均値を求め、平均値が最大となるパラメータφを選択する。また、他の例としては、パラメータ決定部204は、各パラメータ候補の複数の評価値のうち最小値が最大となるパラメータφを選択してもよい。また、他の例としては、パラメータ決定部204は、各パラメータ候補の複数の評価値のメディアン値を求め、メディアン値が最大となるパラメータを選択してもよい。以上で、パラメータ決定処理が終了する。
In S508, the
図6は、情報処理装置100による判定処理を示すフローチャートである。判定処理は、図3等を参照しつつ説明した学習処理により得られた、判定用の識別器を利用し、検査対象の物体の撮影画像が良品データ及び不良品データのいずれであるかを判定する処理である。S601において、受付部201は、検査対象の物体の撮影画像、すなわち対象データを受け付ける。本実施形態においては、受付部201は、撮像装置から対象データを受け付けることとするが、他の例としては、情報処理装置100は、予め自装置のHDD104等の記憶部に記憶されている対象データを読み出してもよい。
FIG. 6 is a flowchart illustrating the determination process performed by the information processing apparatus 100. The determination process uses the determination discriminator obtained by the learning process described with reference to FIG. 3 and the like, and determines whether the captured image of the object to be inspected is non-defective product data or defective product data It is processing to do. In step S601, the
次に、S602において、特徴量抽出部202は、対象データから、予め定められた複数の種類の特徴量を抽出する。ここで抽出する特徴量の種類及び数は、S302において抽出する特徴量の種類及び数と等しいものとする。なお、他の例としては、S602においては、特徴量抽出部202は、学習処理により得られた識別器を用いることにより対象データを良品データと不良品データに分類可能な特徴量のみを抽出することとしてもよい。
In step S <b> 602, the feature
次に、S603において、識別部206は、学習処理により得られた識別器を用いて、S602において抽出された特徴量に基づいて、対象データが良品データであるか不良品データであるかを識別する。以上で、判定処理が終了する。
Next, in S603, the
以上のように、本実施形態においては、パラメータ決定部204は、良品グループと不良品候補グループの両方の学習データを良品データとみなして、識別器を学習する。一方で、パラメータ決定部204は、学習した識別器の評価においては、良品グループの学習データを良品データ、不良品候補グループの学習データを不良品データとみなして、分離度(評価値)を算出する。このため、選択されたパラメータにより学習された判定用の識別器では、ユーザが良品データとして与えた学習データは、良品と判定される。ただし、不良品候補データセットに分類された学習データは、良品グループに分類された学習データに比べて良品データであることの確からしさの値が低く判定される。
As described above, in this embodiment, the
仮に、不良品候補データセットを含まない良品データセットの学習データのみを良品データとみなして識別器を学習した場合には、良品データセットと不良品候補データセットを分離するようなパラメータが選択される。このため、不良品候補データセットに属するような対象データを不良品データと判定するような識別器が学習されてしまう可能性がある。これに対し、本実施形態においては、パラメータ決定部204は、良品データセットの学習データだけでなく不良品候補データセットの学習データを良品データとして用いて識別器を学習する。これにより、不良品候補データセットに分類された学習データは、良品グループに分類された学習データに比べて良品データであることの確からしさの値が低く判定されるような識別器を学習することができる。すなわち、良品データであることが予めわかっている学習データセットのみから、判定用の識別器の適切なパラメータを決定することができる。
If the discriminator is trained by considering only the training data of the non-defective product data set that does not include the defective product candidate data set as the non-defective product data, a parameter that separates the good product data set from the defective product candidate data set is selected. The For this reason, a discriminator that determines target data belonging to a defective product candidate data set as defective product data may be learned. On the other hand, in this embodiment, the
なお、本実施形態に係る情報処理装置100は、学習処理と判定処理の両方を行うが、これにかえて、情報処理装置100は、学習処理のみを行うものとしてもよい。この場合、情報処理装置100と別の、判定処理を行う装置に学習処理により得られた識別器をセットする。そして、判定処理を行う装置において、判定処理を行う。 Note that the information processing apparatus 100 according to the present embodiment performs both the learning process and the determination process, but instead, the information processing apparatus 100 may perform only the learning process. In this case, the discriminator obtained by the learning process is set in a device that performs a determination process different from the information processing apparatus 100. And in the apparatus which performs a determination process, a determination process is performed.
(第2の実施形態)
次に、第2の実施形態に係る情報処理装置100について説明する。第2の実施形態に係る情報処理装置100は、正解データと、少量の不正解データとを含む学習データセットを用いて、正解データと不正解データとを識別する識別器を学習する。第2の実施形態においても、情報処理装置100が工場等における製品の外観検査に利用される場合を例に説明する。すなわち、正解データは、良品の撮影画像(良品データ)である。また、不正解データは、不良品の撮影画像(不良品データ)である。
(Second Embodiment)
Next, the information processing apparatus 100 according to the second embodiment will be described. The information processing apparatus 100 according to the second embodiment learns a discriminator that discriminates between correct answer data and incorrect answer data using a learning data set including correct answer data and a small amount of incorrect answer data. Also in the second embodiment, a case where the information processing apparatus 100 is used for an appearance inspection of a product in a factory or the like will be described as an example. That is, the correct answer data is a non-defective photographed image (non-defective product data). The incorrect answer data is a photographed image (defective product data) of a defective product.
判定用の識別器の学習に十分な量だけ不良品データとしての学習データが与えられている場合には、良品データ及び不良品データの両方を用いて、判別用の識別器を学習することができる。しかしながら、不良品データが少量の場合には、少量の不良品データに過学習した識別器となり、良品データと不良品データの分離精度が低下する可能性がある。これに対し、第2の実施形態に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同様に、良品データとして与えられた学習データを、良品データセットと不良品候補データセットとに分類し、処理を行う。以下、第2の実施形態に係る情報処理装置100について、第1の実施形態に係る情報処理装置100と異なる点について説明する。 When learning data as defective product data is provided in an amount sufficient for learning of a discriminator for determination, it is possible to learn the discriminator for discrimination using both good product data and defective product data. it can. However, when there is a small amount of defective product data, the discriminator is over-learned with a small amount of defective product data, and the separation accuracy between good product data and defective product data may be reduced. On the other hand, the information processing apparatus 100 according to the second embodiment, like the information processing apparatus 100 according to the first embodiment, uses learning data given as good product data as a good product data set and defective product candidate data. Sort into sets and process. Hereinafter, the difference between the information processing apparatus 100 according to the second embodiment and the information processing apparatus 100 according to the first embodiment will be described.
図3を参照しつつ、第2の実施形態に係る情報処理装置100による学習処理について説明する。第2の実施形態においては、S301において、良品データとした与えられた学習データと、不良品データとして与えられた少量の学習データとを含む学習データセットを受け付ける。以下、良品データとして与えられた学習データを良品の学習データと称する。また、不良品データとして与えられた学習データを不良品の学習データと称する。 A learning process performed by the information processing apparatus 100 according to the second embodiment will be described with reference to FIG. In the second embodiment, in S301, a learning data set including learning data given as good product data and a small amount of learning data given as defective product data is accepted. Hereinafter, the learning data given as good product data is referred to as good product learning data. The learning data given as defective product data is referred to as defective product learning data.
なお、学習データセットに含まれる良品データとした与えられた学習データには、良品データのグループを表すラベル(li=+1)が付与されている。また、不良品データとして与えられた学習データには、不良品データのグループを表すラベル(li=−1)が付与されている。なお、学習データにラベルが付与されていない場合には、受付部201は、各学習データにラベルを付与(設定)するものとする。
It should be noted that a label (l i = + 1) indicating a group of non-defective data is assigned to the given learning data that is non-defective data included in the learning data set. Further, a label (l i = −1) representing a group of defective product data is given to the learning data given as defective product data. Note that if no label is assigned to the learning data, the accepting
次に、特徴量抽出処理(S302)においては、特徴量抽出部202は、良品の学習データを処理対象として、第1の実施形態において説明したのと同様に特徴量を抽出する処理を行う。続く、学習データ分類処理(S303)においても、分類部203は、良品の学習データを処理対象として、第1の実施形態において説明したのと同様に、良品の学習データを、良品データセット及び不良品候補データセットに分類する。
Next, in the feature amount extraction process (S302), the feature
続く、パラメータ決定処理(S304)については、図5を参照しつつ説明する。第2の実施形態においては、パラメータ決定部204は、不良品候補データセットの学習データだけでなく、不良品の学習データを用いてパラメータ候補の評価を行う。具体的には、S504において、パラメータ決定部204は、良品グループDOK(K-1)と不良品候補グループDNGC(K-1)を良品データとして識別器の学習を行う。次に、S505において、パラメータ決定部204は、不良品候補グループDNGC(1)と、不良品データ群DNGを不良品データとして、分離度を算出することにより、パラメータ候補を評価する。なお、第2の実施形態に係る情報処理装置100のこれ以外の構成及び処理は、第1の実施形態に係る情報処理装置100の構成及び処理と同様である。
The subsequent parameter determination process (S304) will be described with reference to FIG. In the second embodiment, the
以上のように、第2の実施形態に係る情報処理装置100は、不良品の学習データが十分でない場合に、第1の実施形態において説明したのと同様に、良品データセットの学習データの一部を不良品データとみなして判定用の識別器を学習する。このため、不良品の学習データの過学習となっていない、適切なパラメータを決定することができる。 As described above, the information processing apparatus 100 according to the second embodiment, when the learning data for defective products is not sufficient, is similar to that described in the first embodiment, The discriminator for determination is learned by regarding the part as defective product data. For this reason, it is possible to determine an appropriate parameter that is not overlearning of learning data of defective products.
なお、情報処理装置100は、不良品データを用いてパラメータを決定すればよく、そのための具体的な処理は、実施形態に限定されるものではない。例えば、S505において、パラメータ決定部204は、良品グループDOK(1)と不良品候補グループDNGC(1)との分離度
また、他の例としては、不良品候補グループは、良品データとして与えられた学習データであることに鑑み、パラメータ決定部204は、(式7)又は(式8)に示すような分離度の積を評価値として用いてもよい。
以上、上述した各実施形態によれば、十分な不良品データを用いることができない場合であっても、識別器の適切なパラメータを決定することができる。 As mentioned above, according to each embodiment mentioned above, even if it is a case where sufficient inferior goods data cannot be used, an appropriate parameter of a discriminator can be determined.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 情報処理装置
202 特徴量抽出部
203 分類部
204 パラメータ決定部
205 学習部
206 識別部
DESCRIPTION OF SYMBOLS 100
Claims (14)
前記学習データが前記特定カテゴリデータであることの確からしさを示す第1の尤度を求める第1のデータ評価手段と、
複数の学習データそれぞれの前記第1の尤度に基づいて、前記判定用の識別器のパラメータを決定するパラメータ決定手段と
を有することを特徴とする情報処理装置。 Receiving means for receiving a plurality of learning data used to generate a discriminator for determination that determines whether the target data is specific category data or non-specific category data;
First data evaluation means for obtaining a first likelihood indicating the certainty that the learning data is the specific category data;
An information processing apparatus comprising: parameter determination means for determining a parameter of the determination discriminator based on the first likelihood of each of a plurality of learning data.
前記複数の学習用の識別器それぞれを用いて、前記学習データが前記特定カテゴリデータであることの確からしさを示す、前記学習用の識別器に依存した第2の尤度を求める第2のデータ評価手段と
をさらに有し、
前記第1のデータ評価手段は、前記学習データに対して前記第2のデータ評価手段により得られた、複数の第2の尤度に基づいて、前記学習データの前記第1の尤度を求めることを特徴とする請求項1に記載の情報処理装置。 First learning means for generating a plurality of learning discriminators using each of a plurality of parameters and the learning data;
Second data for obtaining a second likelihood depending on the learning classifier, which indicates the certainty that the learning data is the specific category data, using each of the plurality of learning classifiers. An evaluation means,
The first data evaluation unit obtains the first likelihood of the learning data based on a plurality of second likelihoods obtained by the second data evaluation unit for the learning data. The information processing apparatus according to claim 1.
前記パラメータ決定手段は、前記第1のデータセットと前記第2のデータセットとに基づいて、前記パラメータを決定することを特徴とする請求項1に記載の情報処理装置。 Based on the first likelihood, the plurality of learning data is a first data set, and a second data set that is less likely to be the specific category data than the first data set; And a classification means for classifying
The information processing apparatus according to claim 1, wherein the parameter determination unit determines the parameter based on the first data set and the second data set.
前記第1のデータセットの学習データを正解データ、前記第2のデータセットの学習データを不正解データとみなして、前記第2の学習手段による学習に用いられた各パラメータを評価するパラメータ評価手段と
をさらに有し、
前記パラメータ決定手段は、前記パラメータ評価手段による評価結果に基づいて、前記複数のパラメータの中から前記判定用の識別器のパラメータを決定することを特徴とする請求項5に記載の情報処理装置。 Second learning means for generating learning discriminators using each of a plurality of parameters by regarding learning data of both the first data set and the second data set as correct answer data;
Parameter evaluation means for evaluating each parameter used for learning by the second learning means, assuming that the learning data of the first data set is correct data and the learning data of the second data set is incorrect data And
The information processing apparatus according to claim 5, wherein the parameter determination unit determines a parameter of the discriminator for determination from the plurality of parameters based on an evaluation result by the parameter evaluation unit.
前記パラメータ評価手段は、さらに不正解の学習データを用いて、前記パラメータを評価することを特徴とする請求項6に記載の情報処理装置。 The accepting means further accepts incorrect answer learning data given as incorrect answer data,
The information processing apparatus according to claim 6, wherein the parameter evaluation unit further evaluates the parameter using incorrect answer learning data.
対象データが特定カテゴリデータ及び非特定カテゴリデータのいずれであるかを判定する判定用の識別器を生成するために利用する複数の学習データを受け付ける受付ステップと、
前記学習データが前記特定カテゴリデータであることの確からしさを示す第1の尤度を求める第1のデータ評価ステップと、
複数の学習データそれぞれの前記第1の尤度に基づいて、前記判定用の識別器のパラメータを決定するパラメータ決定ステップと
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
An accepting step for receiving a plurality of learning data used for generating a discriminator for determination that determines whether the target data is specific category data or non-specific category data;
A first data evaluation step for obtaining a first likelihood indicating the certainty that the learning data is the specific category data;
And a parameter determining step for determining a parameter of the discriminator for determination based on the first likelihood of each of a plurality of learning data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/358,580 US20170147909A1 (en) | 2015-11-25 | 2016-11-22 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015229735 | 2015-11-25 | ||
JP2015229735 | 2015-11-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017102906A true JP2017102906A (en) | 2017-06-08 |
Family
ID=59015507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016205462A Pending JP2017102906A (en) | 2015-11-25 | 2016-10-19 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017102906A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019003408A (en) * | 2017-06-15 | 2019-01-10 | 株式会社日立製作所 | Evaluation method, computer, and program for hyperparameter |
CN109800884A (en) * | 2017-11-14 | 2019-05-24 | 阿里巴巴集团控股有限公司 | Processing method, device, equipment and the computer storage medium of model parameter |
WO2019176087A1 (en) * | 2018-03-16 | 2019-09-19 | 三菱電機株式会社 | Learning device and learning method |
JP2019204232A (en) * | 2018-05-22 | 2019-11-28 | 株式会社ジェイテクト | Information processing method, information processor, and program |
JP2020095702A (en) * | 2018-11-29 | 2020-06-18 | キヤノン株式会社 | Information processing device, imaging device, method for controlling information processing device, and program |
WO2020158630A1 (en) * | 2019-01-31 | 2020-08-06 | 株式会社カネカ | Detecting device, learner, computer program, detecting method, and method for generating learner |
CN111758117A (en) * | 2018-03-14 | 2020-10-09 | 欧姆龙株式会社 | Inspection system, recognition system, and learning data generation device |
JP2021064390A (en) * | 2016-10-28 | 2021-04-22 | グーグル エルエルシーGoogle LLC | Neural architecture search |
-
2016
- 2016-10-19 JP JP2016205462A patent/JP2017102906A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7210531B2 (en) | 2016-10-28 | 2023-01-23 | グーグル エルエルシー | neural architecture search |
US11829874B2 (en) | 2016-10-28 | 2023-11-28 | Google Llc | Neural architecture search |
JP2021064390A (en) * | 2016-10-28 | 2021-04-22 | グーグル エルエルシーGoogle LLC | Neural architecture search |
JP2019003408A (en) * | 2017-06-15 | 2019-01-10 | 株式会社日立製作所 | Evaluation method, computer, and program for hyperparameter |
CN109800884A (en) * | 2017-11-14 | 2019-05-24 | 阿里巴巴集团控股有限公司 | Processing method, device, equipment and the computer storage medium of model parameter |
CN109800884B (en) * | 2017-11-14 | 2023-05-26 | 阿里巴巴集团控股有限公司 | Model parameter processing method, device, equipment and computer storage medium |
CN111758117B (en) * | 2018-03-14 | 2023-10-27 | 欧姆龙株式会社 | Inspection system, recognition system, and learning data generation device |
CN111758117A (en) * | 2018-03-14 | 2020-10-09 | 欧姆龙株式会社 | Inspection system, recognition system, and learning data generation device |
WO2019176087A1 (en) * | 2018-03-16 | 2019-09-19 | 三菱電機株式会社 | Learning device and learning method |
JPWO2019176087A1 (en) * | 2018-03-16 | 2020-05-28 | 三菱電機株式会社 | Learning device and learning method |
CN111837143A (en) * | 2018-03-16 | 2020-10-27 | 三菱电机株式会社 | Learning device and learning method |
JP2019204232A (en) * | 2018-05-22 | 2019-11-28 | 株式会社ジェイテクト | Information processing method, information processor, and program |
JP2020095702A (en) * | 2018-11-29 | 2020-06-18 | キヤノン株式会社 | Information processing device, imaging device, method for controlling information processing device, and program |
JPWO2020158630A1 (en) * | 2019-01-31 | 2021-10-07 | 株式会社カネカ | Detector, learner, computer program, detection method and learner generation method |
WO2020158630A1 (en) * | 2019-01-31 | 2020-08-06 | 株式会社カネカ | Detecting device, learner, computer program, detecting method, and method for generating learner |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017102906A (en) | Information processing apparatus, information processing method, and program | |
Kuncheva et al. | PCA feature extraction for change detection in multidimensional unlabeled data | |
JP6708385B2 (en) | Discriminator creating device, discriminator creating method, and program | |
Razavi-Far et al. | Similarity-learning information-fusion schemes for missing data imputation | |
Tharwat | Linear vs. quadratic discriminant analysis classifier: a tutorial | |
WO2018121690A1 (en) | Object attribute detection method and device, neural network training method and device, and regional detection method and device | |
Sedlmair et al. | Data‐driven evaluation of visual quality measures | |
US10970650B1 (en) | AUC-maximized high-accuracy classifier for imbalanced datasets | |
JP5214760B2 (en) | Learning apparatus, method and program | |
US9002101B2 (en) | Recognition device, recognition method, and computer program product | |
US9053393B2 (en) | Learning method and apparatus for pattern recognition | |
US20170147909A1 (en) | Information processing apparatus, information processing method, and storage medium | |
Abdelzad et al. | Detecting out-of-distribution inputs in deep neural networks using an early-layer output | |
JP7058941B2 (en) | Dictionary generator, dictionary generation method, and program | |
JP5214716B2 (en) | Identification device | |
JP2011013732A (en) | Information processing apparatus, information processing method, and program | |
JP6897749B2 (en) | Learning methods, learning systems, and learning programs | |
JP6584250B2 (en) | Image classification method, classifier configuration method, and image classification apparatus | |
US9842279B2 (en) | Data processing method for learning discriminator, and data processing apparatus therefor | |
Sharma et al. | Comparative study of distinctive image classification techniques | |
JP5214679B2 (en) | Learning apparatus, method and program | |
Jung et al. | Uncertainty estimation for multi-view data: the power of seeing the whole picture | |
JP2019215728A (en) | Information processing apparatus, information processing method and program | |
Sowkarthika et al. | Data complexity-based dynamic ensembling of SVMs in classification | |
Kader et al. | Effective workflow for high-performance recognition of fruits using machine learning approaches |