JP2017102906A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2017102906A
JP2017102906A JP2016205462A JP2016205462A JP2017102906A JP 2017102906 A JP2017102906 A JP 2017102906A JP 2016205462 A JP2016205462 A JP 2016205462A JP 2016205462 A JP2016205462 A JP 2016205462A JP 2017102906 A JP2017102906 A JP 2017102906A
Authority
JP
Japan
Prior art keywords
data
learning
parameter
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016205462A
Other languages
Japanese (ja)
Inventor
大佑 和泉
Daisuke Izumi
大佑 和泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/358,580 priority Critical patent/US20170147909A1/en
Publication of JP2017102906A publication Critical patent/JP2017102906A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine an appropriate parameter of a discriminator even when sufficient data of defective items cannot be used.SOLUTION: An information processing apparatus comprises: receiving means that receives a plurality of pieces of learning data used for creating a discriminator for determination that determines whether object data is specific category data or non-specific category data; first data evaluation means that determines first likelihood indicating the probability that the learning data are the specific category data; and parameter determination means that determines parameters of the discriminator for determination on the basis of the first likelihood of each of the plurality of pieces of learning data.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、工場等で製造された製品が、良品か不良品かの外観検査を自動化する方法の一つとして、多数の特徴量を用いた方法が知られている。この方法は、学習用の複数の良品と不良品の画像から画素値の平均、最大値等多数の特徴量を抽出し、抽出した特徴量で構成される特徴空間上で良品と不良品を分類する識別器を学習し、識別器を用いて、被検対象物が良品か不良品かを判定するものである。   2. Description of the Related Art Conventionally, a method using a large number of feature quantities is known as one of methods for automating the appearance inspection of whether a product manufactured in a factory or the like is a non-defective product or a defective product. This method extracts a large number of feature values such as average and maximum pixel values from multiple good and defective images for learning, and classifies good and defective products on the feature space consisting of the extracted feature values. The discriminator to be learned is learned, and the discriminator is used to determine whether the test object is a non-defective product or a defective product.

このような画像処理による不良品の検出方法では、適切な識別器を学習するには、学習データとして誤りのない良品データと不良品データが必要となる。これに対し、特許文献1には、学習データとして与えられたデータセット中の良品データの中から適切ではない良品データを除く技術が開示されている。   In such a defective product detection method using image processing, in order to learn an appropriate discriminator, non-defective product data and defective product data are required as learning data. On the other hand, Patent Document 1 discloses a technique for excluding non-defective product data from non-defective product data in a data set given as learning data.

また、実際の検査工程の立ち上げ時など、良品データは十分な数を用意できるが、不良品の発生率が低く、十分な数のデータを用意することができない場合がある。これに対し、1つのラベルデータのみから識別器の学習が可能な1クラス識別器モデルも知られている。1クラス識別器は、良品データを表現する特徴空間を学習し、学習した空間に属するか否かにより良品と不良品を判定するものである。   In addition, a sufficient number of non-defective product data can be prepared at the start of an actual inspection process, but there is a case where a defective product generation rate is low and a sufficient number of data cannot be prepared. On the other hand, a one-class classifier model that can learn a classifier from only one label data is also known. The one class discriminator learns a feature space expressing good product data, and determines whether the product is good or defective based on whether or not it belongs to the learned space.

特開2011−70635号公報JP 2011-70635 A

しかしながら、1クラス識別モデルを用いた場合でも、識別器の学習時に必要なハイパーパラメータの決定には、不良品データを用いたり、ユーザが手動でハイパーパラメータを決定したりする必要がある。このため、不良品データが十分でないために、適切な識別器を学習するのが難しい場合があった。また、ユーザがハイパーパラメータを決定する場合には、適切なハイパーパラメータを決定するのが難しかった。   However, even when the one-class identification model is used, it is necessary to use defective product data or manually determine the hyperparameters in order to determine the hyperparameters necessary for learning the classifier. For this reason, since there is not enough defective product data, it may be difficult to learn an appropriate classifier. Further, when the user determines a hyper parameter, it is difficult to determine an appropriate hyper parameter.

本発明はこのような問題点に鑑みなされたもので、十分な不良品データを用いることができない場合であっても、識別器の適切なパラメータを決定することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to determine appropriate parameters of a discriminator even when sufficient defective product data cannot be used.

そこで、本発明は、情報処理装置であって、対象データが特定カテゴリデータ及び非特定カテゴリデータのいずれであるかを判定する判定用の識別器を生成するために利用する複数の学習データを受け付ける受付手段と、前記学習データが前記特定カテゴリデータであることの確からしさを示す第1の尤度を求める第1のデータ評価手段と、複数の学習データそれぞれの前記第1の尤度に基づいて、前記判定用の識別器のパラメータを決定するパラメータ決定手段とを有することを特徴とする。   Therefore, the present invention is an information processing apparatus that accepts a plurality of learning data used to generate a discriminator for determination that determines whether target data is specific category data or non-specific category data. Based on reception means, first data evaluation means for obtaining a first likelihood indicating the certainty that the learning data is the specific category data, and the first likelihood of each of a plurality of learning data And parameter determining means for determining parameters of the discriminator for determination.

本発明によれば、十分な不良品データを用いることができない場合であっても、識別器の適切なパラメータを決定することができる。   According to the present invention, even if sufficient defective product data cannot be used, it is possible to determine appropriate parameters of the discriminator.

情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of information processing apparatus. 情報処理装置のソフトウェア構成を示す図である。It is a figure which shows the software structure of information processing apparatus. 学習処理を示すフローチャートである。It is a flowchart which shows a learning process. 学習データ分類処理を示すフローチャートである。It is a flowchart which shows a learning data classification process. パラメータ決定処理を示すフローチャートである。It is a flowchart which shows a parameter determination process. 判定処理を示すフローチャートである。It is a flowchart which shows a determination process.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、正解データとして与えられた複数の学習データを含む学習データセットを用いて正解データと不正解データとを識別する識別器を学習する。情報処理装置100はさらに、学習された識別器を用いて、判定対象の対象データが正解データであるか不正解データであるかの判定を行う。なお、識別器は、あるカテゴリに分類されるデータである特定カテゴリデータと、特定カテゴリデータ以外のデータである非特定カテゴリデータとを識別するものであればよく、識別対象は、正解データと不正解データに限定されるものではない。   FIG. 1 is a diagram illustrating a hardware configuration of the information processing apparatus 100 according to the present embodiment. The information processing apparatus 100 learns a discriminator that identifies correct answer data and incorrect answer data using a learning data set including a plurality of learning data given as correct answer data. The information processing apparatus 100 further uses the learned discriminator to determine whether the target data to be determined is correct data or incorrect data. The discriminator only needs to identify specific category data that is data classified into a certain category and non-specific category data that is data other than the specific category data. It is not limited to correct data.

なお、本実施形態においては、情報処理装置100が工場等における製品の外観検査に利用される場合を例に説明する。すなわち、良品の撮影画像(良品データ)が正解データとなり、不良品の撮影画像(不良品データ)が不正解データとなる。そして、情報処理装置100は、学習により得られた、判定用の識別器を用いて、実際の検査対象物の撮影画像を対象データとして、対象データが良品データであるか不良品データであるかを判定する。これにより、対象データに示される検査対象物が良品であるか不良品であるかを判定することができる。   In the present embodiment, a case where the information processing apparatus 100 is used for an appearance inspection of a product in a factory or the like will be described as an example. In other words, a non-defective photographed image (defective product data) becomes correct data, and a non-defective photographed image (defective product data) becomes incorrect data. Then, the information processing apparatus 100 uses the discriminator for determination obtained by learning, with the captured image of the actual inspection target as target data, whether the target data is good product data or defective product data. Determine. Thereby, it can be determined whether the inspection target object indicated by the target data is a non-defective product or a defective product.

情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、入力部106と、通信部107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。ROM102は、オペレーティングシステム(OS)や各処理プログラム、デバイスドライバ等を記憶している。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、画像データや各種プログラム等各種情報を記憶する。なお、後述する情報処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。   The information processing apparatus 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD 104, a display unit 105, an input unit 106, and a communication unit 107. The CPU 101 reads the control program stored in the ROM 102 and executes various processes. The ROM 102 stores an operating system (OS), processing programs, device drivers, and the like. The RAM 103 is used as a temporary storage area such as a main memory and a work area for the CPU 101. The HDD 104 stores various information such as image data and various programs. Note that the functions and processing of the information processing apparatus 100 to be described later are realized by the CPU 101 reading a program stored in the ROM 102 or the HDD 104 and executing this program.

表示部105は、各種情報を表示する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、ネットワークを介して画像形成装置等の外部装置との通信処理を行う。   The display unit 105 displays various information. The input unit 106 includes a keyboard and a mouse, and accepts various operations by the user. A communication unit 107 performs communication processing with an external apparatus such as an image forming apparatus via a network.

図2は、情報処理装置100のソフトウェア構成を示す図である。情報処理装置100は、受付部201と、特徴量抽出部202と、分類部203と、パラメータ決定部204と、学習部205と、識別部206とを有している。受付部201は、学習データ及び判定対象データの入力を受け付ける。ここで、学習データとは、良品データ及び不良品データのいずれであるかがわかっているデータである。一方、判定対象データは、良品データ及び不良品データのいずれであるかが不明なデータであり、いずれのデータであるかの判定対象となるデータである。特徴量抽出部202は、学習データ及び判定対象データの特徴量を抽出する。分類部203は、特徴量に基づいて、各学習データが良品データであることの確からしさを評価し、評価結果に応じて、学習データセットを2つのデータセットに分類する。パラメータ決定部204は、判定用の識別器のパラメータを推定する。学習部205は、判定用の識別器を学習する。   FIG. 2 is a diagram illustrating a software configuration of the information processing apparatus 100. The information processing apparatus 100 includes a reception unit 201, a feature amount extraction unit 202, a classification unit 203, a parameter determination unit 204, a learning unit 205, and an identification unit 206. The accepting unit 201 accepts input of learning data and determination target data. Here, the learning data is data for which it is known whether the data is good product data or defective product data. On the other hand, the determination target data is data in which it is unknown whether it is non-defective product data or defective product data, and is data that is a determination target of which data. The feature amount extraction unit 202 extracts feature amounts of learning data and determination target data. The classification unit 203 evaluates the probability that each learning data is non-defective data based on the feature amount, and classifies the learning data set into two data sets according to the evaluation result. The parameter determination unit 204 estimates the parameters of the discriminator for determination. The learning unit 205 learns a determination classifier.

なお、情報処理装置100は、図2に示す各機能部をハードウェア構成として有することとしてもよい。この場合、情報処理装置100は、各機能部に対応する演算部や回路を有するものとすればよい。   Note that the information processing apparatus 100 may include each functional unit illustrated in FIG. 2 as a hardware configuration. In this case, the information processing apparatus 100 may have a calculation unit and a circuit corresponding to each functional unit.

図3は、情報処理装置100による学習処理を示すフローチャートである。S301において、受付部201は、学習データセットを受け付ける。学習データセットに含まれる学習データとしての画像は、検査対象の物体が撮像装置によって撮像された学習画像である。学習画像として撮像される物体は、良品であることが予めわかっている物体である。なお、本実施形態においては、情報処理装置100は、撮像装置等外部装置から入力された画像を受け付けることとするが、他の例としては、情報処理装置100は、予め自装置のHDD104等の記憶部に記憶されている学習データセットを読み出してもよい。   FIG. 3 is a flowchart showing learning processing by the information processing apparatus 100. In S301, the reception unit 201 receives a learning data set. An image as learning data included in the learning data set is a learning image in which an object to be inspected is captured by an imaging device. An object captured as a learning image is an object that is known in advance to be a non-defective product. In the present embodiment, the information processing apparatus 100 accepts an image input from an external apparatus such as an imaging apparatus. However, as another example, the information processing apparatus 100 may include an HDD 104 or the like of its own apparatus in advance. You may read the learning data set memorize | stored in the memory | storage part.

次に、S302において、特徴量抽出部202は、各学習データから予め定められた複数の種類の特徴量を抽出する。特徴量としては、画像の輝度値の平均、分散、歪度、尖度、最頻値、エントロピー等が挙げられる。また、特徴量としては、Co−Occurrence Matrixを用いたテクスチャー特徴量、SIFTを用いた局所特徴量等が挙げられる。Co−Occurrence Matrixを用いたテクスチャー特徴量及びIFTを用いた局所特徴量については、それぞれ以下に示す文献1、2を参照することができる。

参考文献1
Robert M. Haralick, K. Sharnmugam, and Itshak Dinstein, "Texture Features for Image Classification", IEEE Transactions on System, Man and Cybernatic, Vol.6, pp. 610-621, 1973.

参考文献2
Lowe, David G, "Object Recognition from Local Scale-invariant Features", Proceedings of the International, Conference on Computer Vision 2 pp. 1150-1157, 1999.
Next, in S302, the feature amount extraction unit 202 extracts a plurality of types of feature amounts determined in advance from each learning data. Examples of the feature amount include an average luminance value, variance, skewness, kurtosis, mode value, entropy, and the like. Examples of the feature quantity include a texture feature quantity using Co-Occurrence Matrix, a local feature quantity using SIFT, and the like. References 1 and 2 shown below can be referred to for the texture feature quantity using Co-Occurrence Matrix and the local feature quantity using IFT, respectively.

Reference 1
Robert M. Haralick, K. Sharnmugam, and Itshak Dinstein, "Texture Features for Image Classification", IEEE Transactions on System, Man and Cybernatic, Vol.6, pp. 610-621, 1973.

Reference 2
Lowe, David G, "Object Recognition from Local Scale-invariant Features", Proceedings of the International, Conference on Computer Vision 2 pp. 1150-1157, 1999.

特徴量抽出部202は、これらの特徴量のうち予め定められた複数の特徴量を抽出するものとする。そして、特徴量抽出部202は、抽出した複数の特徴量を順に並べた特徴ベクトルを最終的な特徴量として得る。なお、抽出対象の特徴量の種類については、設定ファイル等としてROM102等に記録されているものとする。また、CPU101は、入力部106を介したユーザ操作に基づいて、設定ファイルの内容を変更することができるものとする。   It is assumed that the feature quantity extraction unit 202 extracts a plurality of predetermined feature quantities from among these feature quantities. Then, the feature quantity extraction unit 202 obtains a feature vector in which a plurality of extracted feature quantities are arranged in order as a final feature quantity. Note that the type of feature quantity to be extracted is recorded in the ROM 102 or the like as a setting file or the like. Further, it is assumed that the CPU 101 can change the contents of the setting file based on a user operation via the input unit 106.

次に、S303において、分類部203は、学習データセットを良品データセット及び不良品候補データセットの2つのデータセットに分類し(分類処理)、良品データ又は不良品候補データを示すラベルを付与する。本処理については、図4を参照しつつ後に詳述する。次に、S304において、パラメータ決定部204は、S303において得られた特徴量と、S303において付与されたラベルと、に基づいて、識別器のパラメータを決定する。本処理については、図5を参照しつつ後に詳述する。   Next, in S303, the classification unit 203 classifies the learning data set into two data sets, a good product data set and a defective product candidate data set (classification process), and assigns a label indicating the good product data or the defective product candidate data. . This process will be described in detail later with reference to FIG. Next, in S304, the parameter determination unit 204 determines a parameter of the classifier based on the feature amount obtained in S303 and the label given in S303. This process will be described in detail later with reference to FIG.

次に、S305において、学習部205は、S303において得られた特徴量と、S304において決定したパラメータと、に基づいて、判定用の識別器を学習する。以上で、学習処理が終了する。なお、本実施形態においては、識別器として、One class Support Vector Machine(SVM)を用いものとする。one class SVMについては、以下の文献を参照することができる。

Vapnik, V. (1995). "Support-vector networks". Machine Learning 20 (3): 273.

本実施形態では、識別器としてOne class SVMを用いているが、識別器は、クラス分類が可能な識別モデルであればよく実施形態に限定されるものではない。他の例としては、識別器として、マハラノビス距離や部分空間法の一種である投影距離法、ニューラルネットワークなどを用いてもよい。
Next, in S305, the learning unit 205 learns a discriminator for determination based on the feature amount obtained in S303 and the parameter determined in S304. This completes the learning process. In this embodiment, a one class support vector machine (SVM) is used as the discriminator. For the one class SVM, the following documents can be referred to.

Vapnik, V. (1995). "Support-vector networks". Machine Learning 20 (3): 273.

In the present embodiment, One class SVM is used as a discriminator. However, the discriminator is not limited to the embodiment as long as it is a discriminating model capable of class classification. As another example, a Mahalanobis distance, a projection distance method which is a kind of subspace method, a neural network, or the like may be used as a discriminator.

図4は、図3を参照しつつ説明した学習データセット分類処理(S303)における詳細な処理を示すフローチャートである。ここで、S302において受け付けた学習データセットをD={d1,d2,d3,…dN}とする。Nは、学習データセットに含まれる学習データの数である。また、各学習データをdi={xi,li}(1≦i≦N)とする。ここで、xiは特徴量ベクトル、liは各学習データに付与されたラベルである。本実施形態においては、学習データは、いずれも良品データであるため、受け付けた学習データには、良品データであることを表すラベル(li=+1)が付与されている。なお、学習データにラベルが付与されていない場合には、受付部201は、各学習データにラベルを付与(設定)するものとする。 FIG. 4 is a flowchart showing detailed processing in the learning data set classification processing (S303) described with reference to FIG. Here, it is assumed that the learning data set received in S302 is D = {d 1 , d 2 , d 3 ,... D N }. N is the number of learning data included in the learning data set. Further, each learning data is assumed to be d i = {x i , l i } (1 ≦ i ≦ N). Here, x i is a feature vector, and l i is a label given to each learning data. In the present embodiment, since all the learning data is non-defective data, a label (l i = + 1) indicating that it is non-defective data is given to the received learning data. Note that if no label is assigned to the learning data, the accepting unit 201 assigns (sets) a label to each learning data.

S401において、分類部203は、識別器の学習に必要となるハイパーパラメータ

Figure 2017102906
を設定する。本実施形態では、識別器としてOne class SVMを用いるため、ハイパーパラメータの候補集合Φは、予め用意し、情報処理装置100のHDD104等に記憶しておいてもよいし、任意のハイパーパラメータφで学習した結果から更新してもよい。One Class SVMでは、誤分類を許容する範囲を決定するCパラメータや、カーネルとしてRBFを用いた場合は、RBFカーネルのγパラメータなどがハイパーパラメータとなる。その他、One class SVMの他に識別器として部分空間法を用いた場合は、ハイパーパラメータは部分空間次元数となり、ニューラルネットワークを用いた場合は隠れ層や出力層のノード数となる。また、入力特徴量の次元数に対して次元削減を実施した場合、削減後の次元数を決定する部分をハイパーパラメータとしても良い。例えば、次元削減を実施するためにPrincipal Component nalysis(PCA)を用いた場合、削減後の次元数を寄与率から決定することがある。この場合、寄与率を複数パターン用意し、ハイパーパラメータの候補集合に含めて計算しても良い。次元削減の方法はPCAに限定するものではなく、その他の方法を用いても構わない。以下、ハイパーパラメータを単にパラメータと称する。 In S401, the classification unit 203 determines the hyperparameters necessary for learning the classifier.
Figure 2017102906
Set. In this embodiment, since One class SVM is used as a discriminator, a hyperparameter candidate set Φ may be prepared in advance and stored in the HDD 104 or the like of the information processing apparatus 100, or an arbitrary hyperparameter φ. You may update from the learning result. In the One Class SVM, a hyperparameter such as a C parameter that determines a range in which misclassification is allowed, or a γ parameter of the RBF kernel when the RBF is used as a kernel. In addition, when the subspace method is used as a discriminator in addition to the One class SVM, the hyperparameter is the number of subspace dimensions, and when the neural network is used, the hyperparameter is the number of nodes in the hidden layer or the output layer. In addition, when dimension reduction is performed on the number of dimensions of the input feature quantity, a part that determines the number of dimensions after reduction may be a hyper parameter. For example, when Principal Component Analysis (PCA) is used to implement dimension reduction, the number of dimensions after reduction may be determined from the contribution rate. In this case, a plurality of patterns of contribution rates may be prepared and included in the hyperparameter candidate set. The dimension reduction method is not limited to PCA, and other methods may be used. Hereinafter, the hyper parameter is simply referred to as a parameter.

次に、S402において、分類部203は、S401において設定したパラメータφと、学習データセットDと、を用いて、識別器を学習(生成)する。ここで学習する識別器は、学習データセットを分類するために用いる学習用の識別器である。本実施形態においては、判定処理において用いられる判定用の識別器と同じ識別器を用いて学習データセットの分類を行うこととするが、他の例としては、判定用の識別器と異なる種類の識別器を用いてもよい。   Next, in S402, the classification unit 203 learns (generates) a discriminator using the parameter φ set in S401 and the learning data set D. The discriminator to be learned here is a discriminator for learning used for classifying the learning data set. In the present embodiment, the learning data set is classified using the same discriminator as the discriminating discriminator used in the determination process. However, as another example, a different type of discriminator from the discriminating discriminator is used. A discriminator may be used.

次に、S403において、分類部203は、学習データの識別処理を行う。具体的には、分類部203は、S403において学習した識別器を用いて、学習データxiに対し、良品クラスへの帰属度

Figure 2017102906
を求める。ここで、帰属度は、良品データ(正解データ)であることの確からしさを示す、学習用の識別器に依存した尤度の一例である。また、S403の処理は、学習用の識別器に依存した尤度を求めるデータ評価処理の一例である。 Next, in S403, the classification unit 203 performs learning data identification processing. Specifically, the classification unit 203 uses the classifier learned in S403, and the degree of belonging to the good product class with respect to the learning data x i
Figure 2017102906
Ask for. Here, the degree of attribution is an example of the likelihood depending on the learning discriminator indicating the certainty of being good product data (correct data). The process of S403 is an example of a data evaluation process for obtaining a likelihood that depends on a learning classifier.

次に、S404において、分類部203は、帰属度siと閾値Tvとの比較処理により、(式1)に示すような投票処理を行う。すなわち、分類部203は、帰属度siが、閾値Tvよりも小さい学習データに対し投票を行う。

Figure 2017102906
なお、S404の処理は、学習用の識別器に依存した複数の尤度に基づいて、学習データの尤度を求めるデータ評価処理の一例である。 Next, in S404, the classification unit 203 performs a voting process as shown in (Expression 1) by a comparison process between the degree of attribution s i and the threshold value T v . In other words, the classifying unit 203 votes for learning data having a degree of belonging s i smaller than the threshold value T v .
Figure 2017102906
Note that the process of S404 is an example of a data evaluation process for obtaining the likelihood of learning data based on a plurality of likelihoods depending on the learning discriminator.

なお、本実施形態においては、帰属度siが閾値Tvより小さいデータに対して投票を行ったが、投票処理はこれに限定されるものではない。他の例としては、分類部203は、閾値Tvではなく学習データセットDに含まれるデータ数Nに対する割合で投票してもよい。また、本実施形態においては、投票の値を1としているが、他の例としては、分類部203は、重み付けにより投票の値を決定してもよい。分類部203は、例えば、(式2)に示すように、帰属度に比例した値を投票してもよい。また、他の例としては、分類部203は、(式3)に示すように、学習データセット中のすべての帰属度との順位から値を決定してもよい。

Figure 2017102906
ここで、Sは、帰属度siの集合である。すなわち、S={s1,s2,s3,…sN}である。また、
Figure 2017102906
は、帰属度集合Sに含まれるデータを降順にソートしたときの帰属度Sの順位を返す関数である。 In the present embodiment, voting is performed on data with the degree of attribution s i smaller than the threshold value T v , but the voting process is not limited to this. As another example, the classification section 203 may be voted in proportion to the data number N included in the threshold T v, rather than training dataset D. In this embodiment, the vote value is 1. However, as another example, the classification unit 203 may determine the vote value by weighting. For example, the classification unit 203 may vote a value proportional to the degree of attribution as shown in (Expression 2). As another example, the classification unit 203 may determine a value from the ranks with all the degrees of belonging in the learning data set, as shown in (Expression 3).
Figure 2017102906
Here, S is a set of attribution degrees s i . That is, S = {s 1 , s 2 , s 3 ,... S N }. Also,
Figure 2017102906
Is a function that returns the rank of the attribute S when the data included in the attribute set S is sorted in descending order.

次に、S405において、分類部203は、未選択のパラメータが存在するか否かを確認する。分類部203は、未選択のパラメータが存在する場合には(S405でYes)、処理をS401へ進める。そして、S401において、分類部203は、パラメータの候補集合Φから未選択のパラメータを選択し、これを設定し、その後の処理を継続する。分類部203は、未選択のパラメータが存在しない場合には(S405でNo)、処理をS406へ進める。   In step S <b> 405, the classification unit 203 confirms whether there is an unselected parameter. If there is an unselected parameter (Yes in S405), the classification unit 203 advances the process to S401. In step S <b> 401, the classification unit 203 selects an unselected parameter from the parameter candidate set Φ, sets it, and continues the subsequent processing. If there is no unselected parameter (No in S405), the classification unit 203 advances the process to S406.

S406において、分類部203は、投票結果に基づいて、学習データxiが良品データ及び不良品候補データのいずれであるかを判定する。具体的には、分類部203は、(式4)により、viが閾値Th以上の場合には不良品候補データと判定し、学習データxiに、不良品候補データのラベル(li=0)を付与する。一方、viが閾値Th未満の場合には良品データと判定し、学習データxiに良品データのラベル(li=+1)を付与する。これにより、学習データセットは、良品データセットと不良品候補データセットの2つのデータセットに分類される。すなわち、本処理は、複数の学習データを2つのデータセットに分類する分類処理の一例である。

Figure 2017102906
In S406, the classification unit 203 determines whether the learning data x i is non-defective product data or defective product candidate data based on the voting result. Specifically, the classification section 203, by (Equation 4), v i is determined that the defective candidate data when less than the threshold T h, the learning data x i, the defective candidate data label (l i = 0). On the other hand, v i is judged to be good data in the case of less than the threshold value T h, imparts label non-defective data in the learning data x i (l i = + 1 ). As a result, the learning data set is classified into two data sets, a good product data set and a defective product candidate data set. That is, this process is an example of a classification process for classifying a plurality of learning data into two data sets.
Figure 2017102906

図5は、図3を参照しつつ説明したパラメータ決定処理(S304)における詳細な処理を示すフローチャートである。本実施形態においては、パラメータ決定部204は、交差検定法を用いてパラメータを決定する。なお、本実施形態においては、ハイパーパラメータの決定には、交差検定法を用いることとしたが、交差検定法以外の手法を用いてもよい。   FIG. 5 is a flowchart showing detailed processing in the parameter determination processing (S304) described with reference to FIG. In the present embodiment, the parameter determination unit 204 determines parameters using a cross-validation method. In the present embodiment, the cross-validation method is used to determine the hyperparameter, but a method other than the cross-validation method may be used.

ここで、一般的な交差検定法について説明する。交差検定法では、学習データセットDの良品データと不良品データのそれぞれをK個のグループに分割する。そして、分割したK個のグループのうち1つ以外を学習用に利用し、残りの1つを評価(検定)用に利用する。すなわち、良品データ群である良品データセットDOKをK個のグループに分割し、そのうちの1のグループをDOK(1)、残りのグループをDOK(K-1)とする。同様に、不良品データ群である不良品データセットDNGをK個のグループに分割し、そのうちの1つのグループをDNG(1)、残りのグループをDNG(K-1)とする。そして、任意のパラメータを評価するために、良品グループDOK(K-1)及び不良品グループDNG(K-1)を用いて、識別器の学習を行う。そして、学習した識別器を用いて残りの良品グループDOK(1)及び不良品グループDNG(1)の分離度を算出する。この処理を学習グループ及び評価グループを入れ替えて繰り返して評価を行い、パラメータを選択する。これにより良品データセットと不良品データセットを最も分離するパラメータを選択することが可能となる。 Here, a general cross-validation method will be described. In the cross-validation method, each of the non-defective product data and the defective product data in the learning data set D is divided into K groups. Then, one of the divided K groups is used for learning, and the remaining one is used for evaluation (verification). That is, the good data set D OK , which is a good data group, is divided into K groups, one of which is D OK (1) and the remaining group is D OK (K-1) . Similarly, the defective product data set DNG , which is a defective product data group, is divided into K groups, one of which is DNG (1) and the remaining group is DNG (K-1) . In order to evaluate an arbitrary parameter, the discriminator is learned using the non - defective product group D OK (K-1) and the defective product group D NG (K-1) . Then, the degree of separation of the remaining good product group D OK (1) and defective product group D NG (1) is calculated using the learned classifier. This process is repeated by replacing the learning group and the evaluation group, and the parameters are selected. Thereby, it is possible to select a parameter that most separates the non-defective product data set and the defective product data set.

しかしながら、上記の方法で、本実施形態の良品データと不良品候補データを分類するパラメータを選択した場合、良品データと不良品候補データの間が識別境界となる。そのため、ユーザが良品データとして与えているにも関わらず、不良品候補データは不良品データと判定される可能性がある。そこで、本実施形態においては、以下に説明する処理を行うことにより、良品データと不良品候補データを分類するパラメータではなく、不良品候補データよりも良品データがより良品として確からしいと判定されるようなパラメータを選択する。   However, when the parameter for classifying the non-defective product data and the defective product candidate data according to the present embodiment is selected by the above method, the discrimination boundary is between the non-defective product data and the defective product candidate data. For this reason, there is a possibility that the defective product candidate data is determined as defective product data although the user gives it as good product data. Therefore, in the present embodiment, by performing the processing described below, it is determined that the non-defective product data is more likely to be a non-defective product than the defective product candidate data, not the parameters for classifying the non-defective product data and the defective product candidate data. Select parameters like

まず、S501において、パラメータ決定部204は、学習データセットDを、S303において付与されたラベルに基づいて、良品データセットDOKと不良品候補データセットDNGCとに分割し、各データセットをK個のグループに分割する。次に、S502において、パラメータ決定部204は、パラメータ候補を選択する。次に、S503において、パラメータ決定部204は、良品データセットDOKのK個のグループから1つのグループDOK(1)を評価グループとして選択する。同様に、パラメータ決定部204は、不良品候補データセットDNGCのK個のグループから1つのグループDNGC(1)を評価グループとして選択する。 First, in S501, parameter determination section 204, the training data set D, based on the label assigned in S303, and divided into a defective candidate data sets D NGC good data set D OK, each data set K Divide into groups. Next, in S502, the parameter determination unit 204 selects parameter candidates. Next, in S503, the parameter determination unit 204 selects one group D OK (1) as an evaluation group from the K groups of the non-defective product data set D OK . Similarly, the parameter determination unit 204 selects one group D NGC (1) from the K groups of the defective product candidate data set D NGC as an evaluation group.

次に、S504において、パラメータ決定部204は、評価グループ以外の良品グループトDOK(K-1)と、評価グループ以外の不良品候補グループDNGC(K-1)とを用いて、識別器を学習する。すなわち、パラメータ決定部204は、良品データと不良品候補データの両方を良品データとみなして、学習用の識別器を学習する(学習処理)。次に、S505において、パラメータ決定部204は、S503において選択した評価グループDOK(1)、DNGC(1)を用いて、S504における学習に用いられたパラメータの有効性を評価する(パラメータ評価処理)。なお、本実施形態においては、Area Under the Curve(AUC)を評価値として用いる。すなわち、パラメータ決定部204は、次式により、評価値C(φ)を算出する。

C(φ)=AUC(DOK(1)、DNGC(1)

なお、本実施形態においては、評価値としてAUCを用いたがこれに限定されるものではない。評価値は、2クラスの分離度を評価できる値であればよく、できればよく、AICやBIC等であってもよい。
Next, in S504, the parameter determining unit 204 uses the non-defective product group D OK (K-1) other than the evaluation group and the defective product candidate group D NGC (K-1) other than the evaluation group to determine the classifier. To learn. That is, the parameter determination unit 204 regards both good product data and defective product candidate data as good product data, and learns a learning classifier (learning process). Next, in S505, the parameter determining unit 204 evaluates the effectiveness of the parameters used for learning in S504 using the evaluation groups D OK (1) and D NGC (1) selected in S503 (parameter evaluation). processing). In the present embodiment, Area Under the Curve (AUC) is used as the evaluation value. That is, the parameter determination unit 204 calculates the evaluation value C (φ) by the following formula.

C (φ) = AUC (D OK (1) , D NGC (1) )

In the present embodiment, AUC is used as the evaluation value, but the present invention is not limited to this. The evaluation value only needs to be a value that can evaluate the degree of separation between the two classes, and may be an AIC, a BIC, or the like.

次に、S506において、パラメータ決定部204は、評価グループとして選択されていないグループが存在するか否かを確認する。パラメータ決定部204は、未選択のグループが存在する場合には(S506でYes)、処理をS503へ進める。そして、S503において、パラメータ決定部204は、未選択のグループを評価グループとして選択し、その後の処理を行う。このように、パラメータ決定部204は、評価グループを変更しながら、S502〜S505の処理を繰り返す。一方、パラメータ決定部204は、すべてのグループが評価グループとして選択済みの場合には(S506でNo)、処理をS507へ進める。   In step S506, the parameter determination unit 204 checks whether there is a group that is not selected as the evaluation group. If there is an unselected group (Yes in S506), the parameter determination unit 204 advances the process to S503. In step S503, the parameter determination unit 204 selects an unselected group as an evaluation group, and performs subsequent processing. As described above, the parameter determination unit 204 repeats the processes of S502 to S505 while changing the evaluation group. On the other hand, when all the groups have been selected as evaluation groups (No in S506), parameter determination unit 204 advances the process to S507.

S507において、パラメータ決定部204は、未選択のパラメータ候補が存在するか否かを確認する。パラメータ決定部204は、未選択のパラメータ候補が存在する場合には(S507でYes)、処理をS502へ進める。そして、S502において、パラメータ決定部204は、未選択のパラメータ候補を選択し、その後の処理を行う。このように、パラメータ決定部204は、各パラメータ候補に対し、評価値を算出する。一方、パラメータ決定部204は、すべてのパラメータ候補が選択済みの場合には(S507でNo)、処理をS508へ進める。   In step S507, the parameter determination unit 204 confirms whether there are unselected parameter candidates. If there is an unselected parameter candidate (Yes in S507), the parameter determination unit 204 advances the process to S502. In step S502, the parameter determination unit 204 selects an unselected parameter candidate, and performs subsequent processing. Thus, the parameter determination unit 204 calculates an evaluation value for each parameter candidate. On the other hand, if all parameter candidates have been selected (No in S507), the parameter determination unit 204 advances the process to S508.

S508において、パラメータ決定部204は、S502〜S505の処理を繰り返すことにより、各パラメータ候補φに対して得られた複数の評価値を用いて、適切なパラメータを選択する。パラメータ決定部204は、例えば、各パラメータ候補に対して得られた複数の評価値の平均値を求め、平均値が最大となるパラメータφを選択する。また、他の例としては、パラメータ決定部204は、各パラメータ候補の複数の評価値のうち最小値が最大となるパラメータφを選択してもよい。また、他の例としては、パラメータ決定部204は、各パラメータ候補の複数の評価値のメディアン値を求め、メディアン値が最大となるパラメータを選択してもよい。以上で、パラメータ決定処理が終了する。   In S508, the parameter determination unit 204 selects an appropriate parameter using a plurality of evaluation values obtained for each parameter candidate φ by repeating the processes of S502 to S505. For example, the parameter determination unit 204 obtains an average value of a plurality of evaluation values obtained for each parameter candidate, and selects a parameter φ that maximizes the average value. As another example, the parameter determination unit 204 may select a parameter φ having a maximum minimum value among a plurality of evaluation values of each parameter candidate. As another example, the parameter determination unit 204 may obtain a median value of a plurality of evaluation values of each parameter candidate and select a parameter that maximizes the median value. This completes the parameter determination process.

図6は、情報処理装置100による判定処理を示すフローチャートである。判定処理は、図3等を参照しつつ説明した学習処理により得られた、判定用の識別器を利用し、検査対象の物体の撮影画像が良品データ及び不良品データのいずれであるかを判定する処理である。S601において、受付部201は、検査対象の物体の撮影画像、すなわち対象データを受け付ける。本実施形態においては、受付部201は、撮像装置から対象データを受け付けることとするが、他の例としては、情報処理装置100は、予め自装置のHDD104等の記憶部に記憶されている対象データを読み出してもよい。   FIG. 6 is a flowchart illustrating the determination process performed by the information processing apparatus 100. The determination process uses the determination discriminator obtained by the learning process described with reference to FIG. 3 and the like, and determines whether the captured image of the object to be inspected is non-defective product data or defective product data It is processing to do. In step S601, the reception unit 201 receives a captured image of an object to be inspected, that is, target data. In the present embodiment, the receiving unit 201 receives target data from the imaging device. As another example, the information processing device 100 is a target stored in advance in a storage unit such as the HDD 104 of the own device. Data may be read out.

次に、S602において、特徴量抽出部202は、対象データから、予め定められた複数の種類の特徴量を抽出する。ここで抽出する特徴量の種類及び数は、S302において抽出する特徴量の種類及び数と等しいものとする。なお、他の例としては、S602においては、特徴量抽出部202は、学習処理により得られた識別器を用いることにより対象データを良品データと不良品データに分類可能な特徴量のみを抽出することとしてもよい。   In step S <b> 602, the feature amount extraction unit 202 extracts a plurality of types of feature amounts determined in advance from the target data. The type and number of feature values extracted here are the same as the type and number of feature values extracted in S302. As another example, in S602, the feature amount extraction unit 202 extracts only feature amounts that can classify target data into non-defective product data and defective product data by using a discriminator obtained by learning processing. It is good as well.

次に、S603において、識別部206は、学習処理により得られた識別器を用いて、S602において抽出された特徴量に基づいて、対象データが良品データであるか不良品データであるかを識別する。以上で、判定処理が終了する。   Next, in S603, the identification unit 206 identifies whether the target data is non-defective product data or defective product data based on the feature amount extracted in S602 by using the classifier obtained by the learning process. To do. This is the end of the determination process.

以上のように、本実施形態においては、パラメータ決定部204は、良品グループと不良品候補グループの両方の学習データを良品データとみなして、識別器を学習する。一方で、パラメータ決定部204は、学習した識別器の評価においては、良品グループの学習データを良品データ、不良品候補グループの学習データを不良品データとみなして、分離度(評価値)を算出する。このため、選択されたパラメータにより学習された判定用の識別器では、ユーザが良品データとして与えた学習データは、良品と判定される。ただし、不良品候補データセットに分類された学習データは、良品グループに分類された学習データに比べて良品データであることの確からしさの値が低く判定される。   As described above, in this embodiment, the parameter determination unit 204 learns the learning data of both the good product group and the defective product candidate group as good product data, and learns the discriminator. On the other hand, in the evaluation of the learned discriminator, the parameter determination unit 204 regards the non-defective product group learning data as non-defective product data and the defective product candidate group learning data as defective product data, and calculates the degree of separation (evaluation value). To do. For this reason, in the discriminating device for determination learned by the selected parameter, the learning data given by the user as non-defective product data is determined to be non-defective. However, the learning data classified into the defective product candidate data set is determined to have a lower probability of being non-defective data than the learning data classified into the good product group.

仮に、不良品候補データセットを含まない良品データセットの学習データのみを良品データとみなして識別器を学習した場合には、良品データセットと不良品候補データセットを分離するようなパラメータが選択される。このため、不良品候補データセットに属するような対象データを不良品データと判定するような識別器が学習されてしまう可能性がある。これに対し、本実施形態においては、パラメータ決定部204は、良品データセットの学習データだけでなく不良品候補データセットの学習データを良品データとして用いて識別器を学習する。これにより、不良品候補データセットに分類された学習データは、良品グループに分類された学習データに比べて良品データであることの確からしさの値が低く判定されるような識別器を学習することができる。すなわち、良品データであることが予めわかっている学習データセットのみから、判定用の識別器の適切なパラメータを決定することができる。   If the discriminator is trained by considering only the training data of the non-defective product data set that does not include the defective product candidate data set as the non-defective product data, a parameter that separates the good product data set from the defective product candidate data set is selected. The For this reason, a discriminator that determines target data belonging to a defective product candidate data set as defective product data may be learned. On the other hand, in this embodiment, the parameter determination unit 204 learns the discriminator using not only the learning data of the non-defective product data set but also the learning data of the defective product candidate data set as the non-defective product data. Thus, learning is performed such that the learning data classified into the defective product candidate data set is determined to have a low probability of being non-defective data compared to the learning data classified into the good product group. Can do. That is, it is possible to determine an appropriate parameter of the discriminator for determination from only a learning data set that is known in advance to be non-defective data.

なお、本実施形態に係る情報処理装置100は、学習処理と判定処理の両方を行うが、これにかえて、情報処理装置100は、学習処理のみを行うものとしてもよい。この場合、情報処理装置100と別の、判定処理を行う装置に学習処理により得られた識別器をセットする。そして、判定処理を行う装置において、判定処理を行う。   Note that the information processing apparatus 100 according to the present embodiment performs both the learning process and the determination process, but instead, the information processing apparatus 100 may perform only the learning process. In this case, the discriminator obtained by the learning process is set in a device that performs a determination process different from the information processing apparatus 100. And in the apparatus which performs a determination process, a determination process is performed.

(第2の実施形態)
次に、第2の実施形態に係る情報処理装置100について説明する。第2の実施形態に係る情報処理装置100は、正解データと、少量の不正解データとを含む学習データセットを用いて、正解データと不正解データとを識別する識別器を学習する。第2の実施形態においても、情報処理装置100が工場等における製品の外観検査に利用される場合を例に説明する。すなわち、正解データは、良品の撮影画像(良品データ)である。また、不正解データは、不良品の撮影画像(不良品データ)である。
(Second Embodiment)
Next, the information processing apparatus 100 according to the second embodiment will be described. The information processing apparatus 100 according to the second embodiment learns a discriminator that discriminates between correct answer data and incorrect answer data using a learning data set including correct answer data and a small amount of incorrect answer data. Also in the second embodiment, a case where the information processing apparatus 100 is used for an appearance inspection of a product in a factory or the like will be described as an example. That is, the correct answer data is a non-defective photographed image (non-defective product data). The incorrect answer data is a photographed image (defective product data) of a defective product.

判定用の識別器の学習に十分な量だけ不良品データとしての学習データが与えられている場合には、良品データ及び不良品データの両方を用いて、判別用の識別器を学習することができる。しかしながら、不良品データが少量の場合には、少量の不良品データに過学習した識別器となり、良品データと不良品データの分離精度が低下する可能性がある。これに対し、第2の実施形態に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同様に、良品データとして与えられた学習データを、良品データセットと不良品候補データセットとに分類し、処理を行う。以下、第2の実施形態に係る情報処理装置100について、第1の実施形態に係る情報処理装置100と異なる点について説明する。   When learning data as defective product data is provided in an amount sufficient for learning of a discriminator for determination, it is possible to learn the discriminator for discrimination using both good product data and defective product data. it can. However, when there is a small amount of defective product data, the discriminator is over-learned with a small amount of defective product data, and the separation accuracy between good product data and defective product data may be reduced. On the other hand, the information processing apparatus 100 according to the second embodiment, like the information processing apparatus 100 according to the first embodiment, uses learning data given as good product data as a good product data set and defective product candidate data. Sort into sets and process. Hereinafter, the difference between the information processing apparatus 100 according to the second embodiment and the information processing apparatus 100 according to the first embodiment will be described.

図3を参照しつつ、第2の実施形態に係る情報処理装置100による学習処理について説明する。第2の実施形態においては、S301において、良品データとした与えられた学習データと、不良品データとして与えられた少量の学習データとを含む学習データセットを受け付ける。以下、良品データとして与えられた学習データを良品の学習データと称する。また、不良品データとして与えられた学習データを不良品の学習データと称する。   A learning process performed by the information processing apparatus 100 according to the second embodiment will be described with reference to FIG. In the second embodiment, in S301, a learning data set including learning data given as good product data and a small amount of learning data given as defective product data is accepted. Hereinafter, the learning data given as good product data is referred to as good product learning data. The learning data given as defective product data is referred to as defective product learning data.

なお、学習データセットに含まれる良品データとした与えられた学習データには、良品データのグループを表すラベル(li=+1)が付与されている。また、不良品データとして与えられた学習データには、不良品データのグループを表すラベル(li=−1)が付与されている。なお、学習データにラベルが付与されていない場合には、受付部201は、各学習データにラベルを付与(設定)するものとする。 It should be noted that a label (l i = + 1) indicating a group of non-defective data is assigned to the given learning data that is non-defective data included in the learning data set. Further, a label (l i = −1) representing a group of defective product data is given to the learning data given as defective product data. Note that if no label is assigned to the learning data, the accepting unit 201 assigns (sets) a label to each learning data.

次に、特徴量抽出処理(S302)においては、特徴量抽出部202は、良品の学習データを処理対象として、第1の実施形態において説明したのと同様に特徴量を抽出する処理を行う。続く、学習データ分類処理(S303)においても、分類部203は、良品の学習データを処理対象として、第1の実施形態において説明したのと同様に、良品の学習データを、良品データセット及び不良品候補データセットに分類する。   Next, in the feature amount extraction process (S302), the feature amount extraction unit 202 performs a process of extracting feature amounts in the same manner as described in the first embodiment with respect to non-defective learning data. In the subsequent learning data classification process (S303), the classification unit 203 uses the non-defective learning data as a processing target, and converts the non-defective learning data into the non-defective data set and the non-defective data set as described in the first embodiment. Classify into good product candidate data sets.

続く、パラメータ決定処理(S304)については、図5を参照しつつ説明する。第2の実施形態においては、パラメータ決定部204は、不良品候補データセットの学習データだけでなく、不良品の学習データを用いてパラメータ候補の評価を行う。具体的には、S504において、パラメータ決定部204は、良品グループDOK(K-1)と不良品候補グループDNGC(K-1)を良品データとして識別器の学習を行う。次に、S505において、パラメータ決定部204は、不良品候補グループDNGC(1)と、不良品データ群DNGを不良品データとして、分離度を算出することにより、パラメータ候補を評価する。なお、第2の実施形態に係る情報処理装置100のこれ以外の構成及び処理は、第1の実施形態に係る情報処理装置100の構成及び処理と同様である。 The subsequent parameter determination process (S304) will be described with reference to FIG. In the second embodiment, the parameter determination unit 204 evaluates parameter candidates by using not only defective data learning data but also defective data learning data. Specifically, in S504, the parameter determination unit 204 learns the discriminator using the non - defective product group D OK (K-1) and the defective product candidate group D NGC (K-1) as good product data. Next, in S505, the parameter determination unit 204 evaluates the parameter candidates by calculating the degree of separation using the defective product candidate group D NGC (1) and the defective product data group D NG as defective product data. The remaining configuration and processing of the information processing apparatus 100 according to the second embodiment are the same as the configuration and processing of the information processing apparatus 100 according to the first embodiment.

以上のように、第2の実施形態に係る情報処理装置100は、不良品の学習データが十分でない場合に、第1の実施形態において説明したのと同様に、良品データセットの学習データの一部を不良品データとみなして判定用の識別器を学習する。このため、不良品の学習データの過学習となっていない、適切なパラメータを決定することができる。   As described above, the information processing apparatus 100 according to the second embodiment, when the learning data for defective products is not sufficient, is similar to that described in the first embodiment, The discriminator for determination is learned by regarding the part as defective product data. For this reason, it is possible to determine an appropriate parameter that is not overlearning of learning data of defective products.

なお、情報処理装置100は、不良品データを用いてパラメータを決定すればよく、そのための具体的な処理は、実施形態に限定されるものではない。例えば、S505において、パラメータ決定部204は、良品グループDOK(1)と不良品候補グループDNGC(1)との分離度

Figure 2017102906
を算出する。パラメータ決定部204は、さらに、良品グループDOK(1)と不良品データ群DNGとの分離度
Figure 2017102906
を算出する。そして、パラメータ決定部204は、(式5)により2つの分離度の積L'を、評価値として用いてもよい。
Figure 2017102906
また、他の例としては、パラメータ決定部204は、(式6)に示すように、上記2つの分離度の線形和を評価値として用いてもよい。
Figure 2017102906
Note that the information processing apparatus 100 may determine parameters using defective product data, and specific processing for that purpose is not limited to the embodiment. For example, in S505, the parameter determination unit 204 determines the degree of separation between the non-defective product group D OK (1) and the defective product candidate group D NGC (1).
Figure 2017102906
Is calculated. The parameter determination unit 204 further determines the degree of separation between the good product group D OK (1) and the defective product data group D NG.
Figure 2017102906
Is calculated. Then, the parameter determination unit 204 may use the product L ′ of the two separation degrees as an evaluation value according to (Equation 5).
Figure 2017102906
As another example, the parameter determination unit 204 may use a linear sum of the two degrees of separation as an evaluation value, as shown in (Expression 6).
Figure 2017102906

また、他の例としては、不良品候補グループは、良品データとして与えられた学習データであることに鑑み、パラメータ決定部204は、(式7)又は(式8)に示すような分離度の積を評価値として用いてもよい。

Figure 2017102906
また、パラメータ決定部204は、(式9)又は(式10)に示すように、分離度の線形和を評価値として用いてもよい。
Figure 2017102906
As another example, considering that the defective product candidate group is learning data given as non-defective product data, the parameter determination unit 204 has a separation degree as shown in (Expression 7) or (Expression 8). The product may be used as the evaluation value.
Figure 2017102906
Moreover, the parameter determination part 204 may use the linear sum of a separation degree as an evaluation value, as shown in (Formula 9) or (Formula 10).
Figure 2017102906

以上、上述した各実施形態によれば、十分な不良品データを用いることができない場合であっても、識別器の適切なパラメータを決定することができる。   As mentioned above, according to each embodiment mentioned above, even if it is a case where sufficient inferior goods data cannot be used, an appropriate parameter of a discriminator can be determined.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 情報処理装置
202 特徴量抽出部
203 分類部
204 パラメータ決定部
205 学習部
206 識別部
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 202 Feature-value extraction part 203 Classification part 204 Parameter determination part 205 Learning part 206 Identification part

Claims (14)

対象データが特定カテゴリデータ及び非特定カテゴリデータのいずれであるかを判定する判定用の識別器を生成するために利用する複数の学習データを受け付ける受付手段と、
前記学習データが前記特定カテゴリデータであることの確からしさを示す第1の尤度を求める第1のデータ評価手段と、
複数の学習データそれぞれの前記第1の尤度に基づいて、前記判定用の識別器のパラメータを決定するパラメータ決定手段と
を有することを特徴とする情報処理装置。
Receiving means for receiving a plurality of learning data used to generate a discriminator for determination that determines whether the target data is specific category data or non-specific category data;
First data evaluation means for obtaining a first likelihood indicating the certainty that the learning data is the specific category data;
An information processing apparatus comprising: parameter determination means for determining a parameter of the determination discriminator based on the first likelihood of each of a plurality of learning data.
前記第1のデータ評価手段は、前記学習データの特徴量に基づいて、前記第1の尤度を求めることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first data evaluation unit obtains the first likelihood based on a feature amount of the learning data. 複数のパラメータそれぞれと、前記学習データと、を用いて、複数の学習用の識別器を生成する第1の学習手段と、
前記複数の学習用の識別器それぞれを用いて、前記学習データが前記特定カテゴリデータであることの確からしさを示す、前記学習用の識別器に依存した第2の尤度を求める第2のデータ評価手段と
をさらに有し、
前記第1のデータ評価手段は、前記学習データに対して前記第2のデータ評価手段により得られた、複数の第2の尤度に基づいて、前記学習データの前記第1の尤度を求めることを特徴とする請求項1に記載の情報処理装置。
First learning means for generating a plurality of learning discriminators using each of a plurality of parameters and the learning data;
Second data for obtaining a second likelihood depending on the learning classifier, which indicates the certainty that the learning data is the specific category data, using each of the plurality of learning classifiers. An evaluation means,
The first data evaluation unit obtains the first likelihood of the learning data based on a plurality of second likelihoods obtained by the second data evaluation unit for the learning data. The information processing apparatus according to claim 1.
前記第1の学習手段は、前記複数のパラメータそれぞれと、前記学習データの特徴量と、を用いて、前記学習用の識別器を生成することを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the first learning unit generates the learning discriminator using each of the plurality of parameters and a feature amount of the learning data. . 前記第1の尤度に基づいて、前記複数の学習データを第1のデータセットと、前記第1のデータセットに比べて前記特定カテゴリデータであることの確からしさの低い第2のデータセットと、に分類する分類手段をさらに有し、
前記パラメータ決定手段は、前記第1のデータセットと前記第2のデータセットとに基づいて、前記パラメータを決定することを特徴とする請求項1に記載の情報処理装置。
Based on the first likelihood, the plurality of learning data is a first data set, and a second data set that is less likely to be the specific category data than the first data set; And a classification means for classifying
The information processing apparatus according to claim 1, wherein the parameter determination unit determines the parameter based on the first data set and the second data set.
前記第1のデータセット及び前記第2のデータセットの両方の学習データを正解データとみなして、複数のパラメータそれぞれを用いて、学習用の識別器を生成する第2の学習手段と、
前記第1のデータセットの学習データを正解データ、前記第2のデータセットの学習データを不正解データとみなして、前記第2の学習手段による学習に用いられた各パラメータを評価するパラメータ評価手段と
をさらに有し、
前記パラメータ決定手段は、前記パラメータ評価手段による評価結果に基づいて、前記複数のパラメータの中から前記判定用の識別器のパラメータを決定することを特徴とする請求項5に記載の情報処理装置。
Second learning means for generating learning discriminators using each of a plurality of parameters by regarding learning data of both the first data set and the second data set as correct answer data;
Parameter evaluation means for evaluating each parameter used for learning by the second learning means, assuming that the learning data of the first data set is correct data and the learning data of the second data set is incorrect data And
The information processing apparatus according to claim 5, wherein the parameter determination unit determines a parameter of the discriminator for determination from the plurality of parameters based on an evaluation result by the parameter evaluation unit.
前記パラメータ評価手段は、前記第1のデータセットの学習データと前記第2のデータセットの学習データの分離度に基づいて、前記パラメータを評価することを特徴とする請求項6に記載の情報処理装置。   7. The information processing according to claim 6, wherein the parameter evaluation unit evaluates the parameter based on a degree of separation between learning data of the first data set and learning data of the second data set. apparatus. 前記受付手段は、不正解データとして与えられた不正解の学習データをさらに受け付け、
前記パラメータ評価手段は、さらに不正解の学習データを用いて、前記パラメータを評価することを特徴とする請求項6に記載の情報処理装置。
The accepting means further accepts incorrect answer learning data given as incorrect answer data,
The information processing apparatus according to claim 6, wherein the parameter evaluation unit further evaluates the parameter using incorrect answer learning data.
前記パラメータ評価手段は、前記第1のデータセットの学習データと前記第2のデータセットの学習データの分離度と、前記第1のデータセットの学習データと不正解の学習データの分離度と、に基づいて、前記パラメータを評価することを特徴とする請求項8に記載の情報処理装置。   The parameter evaluation means includes a degree of separation between learning data of the first data set and learning data of the second data set, a degree of separation between learning data of the first data set and learning data of incorrect answers, The information processing apparatus according to claim 8, wherein the parameter is evaluated based on the information. 前記パラメータ評価手段は、前記第2のデータセットの学習データと不正解の学習データの分離度に基づいて、前記パラメータを評価することを特徴とする請求項9に記載の情報処理装置。   The information processing apparatus according to claim 9, wherein the parameter evaluation unit evaluates the parameter based on a degree of separation between learning data of the second data set and incorrect learning data. 前記パラメータ評価手段は、前記第1のデータセットの学習データと不正解の学習データの分離度と、前記第2のデータセットの学習データと不正解の学習データの分離度に基づいて、前記パラメータを評価することを特徴とする請求項8に記載の情報処理装置。   The parameter evaluation means is configured to determine the parameter based on the degree of separation between the learning data of the first data set and the learning data for incorrect answers and the degree of separation between the learning data for the second data set and learning data for incorrect answers. The information processing apparatus according to claim 8, wherein the information processing apparatus is evaluated. 前記パラメータ決定手段により決定されたパラメータに基づいて、前記判定用の識別器を学習する第3の学習手段をさらに有することを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。   The information processing according to any one of claims 1 to 11, further comprising third learning means for learning the discriminator for determination based on the parameter determined by the parameter determination means. apparatus. 情報処理装置が実行する情報処理方法であって、
対象データが特定カテゴリデータ及び非特定カテゴリデータのいずれであるかを判定する判定用の識別器を生成するために利用する複数の学習データを受け付ける受付ステップと、
前記学習データが前記特定カテゴリデータであることの確からしさを示す第1の尤度を求める第1のデータ評価ステップと、
複数の学習データそれぞれの前記第1の尤度に基づいて、前記判定用の識別器のパラメータを決定するパラメータ決定ステップと
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus,
An accepting step for receiving a plurality of learning data used for generating a discriminator for determination that determines whether the target data is specific category data or non-specific category data;
A first data evaluation step for obtaining a first likelihood indicating the certainty that the learning data is the specific category data;
And a parameter determining step for determining a parameter of the discriminator for determination based on the first likelihood of each of a plurality of learning data.
コンピュータを、請求項1乃至12の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 12.
JP2016205462A 2015-11-25 2016-10-19 Information processing apparatus, information processing method, and program Pending JP2017102906A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/358,580 US20170147909A1 (en) 2015-11-25 2016-11-22 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015229735 2015-11-25
JP2015229735 2015-11-25

Publications (1)

Publication Number Publication Date
JP2017102906A true JP2017102906A (en) 2017-06-08

Family

ID=59015507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016205462A Pending JP2017102906A (en) 2015-11-25 2016-10-19 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2017102906A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019003408A (en) * 2017-06-15 2019-01-10 株式会社日立製作所 Evaluation method, computer, and program for hyperparameter
CN109800884A (en) * 2017-11-14 2019-05-24 阿里巴巴集团控股有限公司 Processing method, device, equipment and the computer storage medium of model parameter
WO2019176087A1 (en) * 2018-03-16 2019-09-19 三菱電機株式会社 Learning device and learning method
JP2019204232A (en) * 2018-05-22 2019-11-28 株式会社ジェイテクト Information processing method, information processor, and program
JP2020095702A (en) * 2018-11-29 2020-06-18 キヤノン株式会社 Information processing device, imaging device, method for controlling information processing device, and program
WO2020158630A1 (en) * 2019-01-31 2020-08-06 株式会社カネカ Detecting device, learner, computer program, detecting method, and method for generating learner
CN111758117A (en) * 2018-03-14 2020-10-09 欧姆龙株式会社 Inspection system, recognition system, and learning data generation device
JP2021064390A (en) * 2016-10-28 2021-04-22 グーグル エルエルシーGoogle LLC Neural architecture search

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7210531B2 (en) 2016-10-28 2023-01-23 グーグル エルエルシー neural architecture search
US11829874B2 (en) 2016-10-28 2023-11-28 Google Llc Neural architecture search
JP2021064390A (en) * 2016-10-28 2021-04-22 グーグル エルエルシーGoogle LLC Neural architecture search
JP2019003408A (en) * 2017-06-15 2019-01-10 株式会社日立製作所 Evaluation method, computer, and program for hyperparameter
CN109800884A (en) * 2017-11-14 2019-05-24 阿里巴巴集团控股有限公司 Processing method, device, equipment and the computer storage medium of model parameter
CN109800884B (en) * 2017-11-14 2023-05-26 阿里巴巴集团控股有限公司 Model parameter processing method, device, equipment and computer storage medium
CN111758117B (en) * 2018-03-14 2023-10-27 欧姆龙株式会社 Inspection system, recognition system, and learning data generation device
CN111758117A (en) * 2018-03-14 2020-10-09 欧姆龙株式会社 Inspection system, recognition system, and learning data generation device
WO2019176087A1 (en) * 2018-03-16 2019-09-19 三菱電機株式会社 Learning device and learning method
JPWO2019176087A1 (en) * 2018-03-16 2020-05-28 三菱電機株式会社 Learning device and learning method
CN111837143A (en) * 2018-03-16 2020-10-27 三菱电机株式会社 Learning device and learning method
JP2019204232A (en) * 2018-05-22 2019-11-28 株式会社ジェイテクト Information processing method, information processor, and program
JP2020095702A (en) * 2018-11-29 2020-06-18 キヤノン株式会社 Information processing device, imaging device, method for controlling information processing device, and program
JPWO2020158630A1 (en) * 2019-01-31 2021-10-07 株式会社カネカ Detector, learner, computer program, detection method and learner generation method
WO2020158630A1 (en) * 2019-01-31 2020-08-06 株式会社カネカ Detecting device, learner, computer program, detecting method, and method for generating learner

Similar Documents

Publication Publication Date Title
JP2017102906A (en) Information processing apparatus, information processing method, and program
Kuncheva et al. PCA feature extraction for change detection in multidimensional unlabeled data
JP6708385B2 (en) Discriminator creating device, discriminator creating method, and program
Razavi-Far et al. Similarity-learning information-fusion schemes for missing data imputation
Tharwat Linear vs. quadratic discriminant analysis classifier: a tutorial
WO2018121690A1 (en) Object attribute detection method and device, neural network training method and device, and regional detection method and device
Sedlmair et al. Data‐driven evaluation of visual quality measures
US10970650B1 (en) AUC-maximized high-accuracy classifier for imbalanced datasets
JP5214760B2 (en) Learning apparatus, method and program
US9002101B2 (en) Recognition device, recognition method, and computer program product
US9053393B2 (en) Learning method and apparatus for pattern recognition
US20170147909A1 (en) Information processing apparatus, information processing method, and storage medium
Abdelzad et al. Detecting out-of-distribution inputs in deep neural networks using an early-layer output
JP7058941B2 (en) Dictionary generator, dictionary generation method, and program
JP5214716B2 (en) Identification device
JP2011013732A (en) Information processing apparatus, information processing method, and program
JP6897749B2 (en) Learning methods, learning systems, and learning programs
JP6584250B2 (en) Image classification method, classifier configuration method, and image classification apparatus
US9842279B2 (en) Data processing method for learning discriminator, and data processing apparatus therefor
Sharma et al. Comparative study of distinctive image classification techniques
JP5214679B2 (en) Learning apparatus, method and program
Jung et al. Uncertainty estimation for multi-view data: the power of seeing the whole picture
JP2019215728A (en) Information processing apparatus, information processing method and program
Sowkarthika et al. Data complexity-based dynamic ensembling of SVMs in classification
Kader et al. Effective workflow for high-performance recognition of fruits using machine learning approaches