JP7440798B2 - Learning device, prediction device, learning method and program - Google Patents
Learning device, prediction device, learning method and program Download PDFInfo
- Publication number
- JP7440798B2 JP7440798B2 JP2022530395A JP2022530395A JP7440798B2 JP 7440798 B2 JP7440798 B2 JP 7440798B2 JP 2022530395 A JP2022530395 A JP 2022530395A JP 2022530395 A JP2022530395 A JP 2022530395A JP 7440798 B2 JP7440798 B2 JP 7440798B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- identification
- unknown class
- classifiers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000011156 evaluation Methods 0.000 claims description 71
- 230000006870 function Effects 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 description 35
- 239000013598 vector Substances 0.000 description 24
- 238000012545 processing Methods 0.000 description 19
- 238000009826 distribution Methods 0.000 description 15
- 230000006978 adaptation Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 8
- 239000004065 semiconductor Substances 0.000 description 7
- 230000010365 information processing Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000013403 standard screening design Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- IJJWOSAXNHWBPR-HUBLWGQQSA-N 5-[(3as,4s,6ar)-2-oxo-1,3,3a,4,6,6a-hexahydrothieno[3,4-d]imidazol-4-yl]-n-(6-hydrazinyl-6-oxohexyl)pentanamide Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)NCCCCCC(=O)NN)SC[C@@H]21 IJJWOSAXNHWBPR-HUBLWGQQSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、学習装置、予測装置、学習方法及びプログラムの技術に関する。 The present invention relates to a learning device, a prediction device, a learning method, and a program technique.
機械学習を用いた予測モデル学習には、一般的に教師あり学習と呼ばれる枠組みが用いられる。教師あり学習とは、あるデータとそのデータに対する正解クラスラベルとのペアを大量に用意し、データとクラスラベルとのペアからその関係性を学習する枠組みである。 A framework called supervised learning is generally used for predictive model learning using machine learning. Supervised learning is a framework that prepares a large number of pairs of certain data and correct class labels for that data, and learns the relationships between the data and class label pairs.
教師あり学習を実現するためには、大量のデータとクラスラベルとのペアを用意する必要があるが、これを作成することは基本的に高コストである。そこで、すでに教師ありデータが存在する領域(以下「ドメイン」という。)で学習したモデルを、目標とするドメインで活用する方法がとられることがある。例えば、手書き文字を認識する場合に、比較的教師ありデータが容易に得られるデジタルフォントデータを用いて識別器を学習した後に、教師ありデータが少ない(あるいはまったくない)手書き文字データで識別器を再訓練するような方法がとられることがある。 In order to implement supervised learning, it is necessary to prepare pairs of large amounts of data and class labels, but creating these pairs is basically expensive. Therefore, a method is sometimes taken in which a model learned in an area where supervised data already exists (hereinafter referred to as a "domain") is utilized in a target domain. For example, when recognizing handwritten characters, after training a discriminator using digital font data for which supervised data is relatively easy to obtain, the discriminator is trained using handwritten character data with little (or no supervised data). Retraining methods may be used.
しかし学習を行った元のドメイン(以下「元ドメイン」という:先の例の場合はデジタルフォントデータ)と、目標とするドメイン(以下「目標ドメイン」という:先の例の場合は手書き文字データ)とでは、データの生成分布が異なる場合がある。図6は、このような問題の概略を示す図である。図6において、実線で囲まれた領域は元ドメイン10であり、破線で囲まれた領域は目標ドメイン20であり、直線で示された線は識別境界30である。例えば、同じ「あ」という文字でも、デジタルフォントと手書き文字とでは、その形が大きく異なることがある。生成分布が異なる場合、図6のように元ドメイン10で学習した識別境界30は、目標ドメイン20に対して信頼性がないことがある。このような場合、学習したモデルが目標ドメイン20において期待する識別精度を達成することができないという問題が生じる。このように、ドメイン間に差異がある場合における学習問題はドメイン適応問題と呼ばれる。
However, the original domain for which learning was performed (hereinafter referred to as the "source domain"; in the case of the previous example, the digital font data) and the target domain (hereinafter referred to as the "target domain"; in the case of the previous example, the handwritten character data) The data generation distribution may differ between the two. FIG. 6 is a diagram schematically showing such a problem. In FIG. 6, the region surrounded by solid lines is the
従来、このようなドメイン適応問題を解決するために、下記のような公知の技術が存在する。特許文献1に開示された技術では、元ドメインにおけるサンプルの生成分布と、目標ドメインにおけるサンプルの生成分布と、の間の分布感距離であるMMDの値を最小化するような元ドメインから目標ドメインへの変換則が学習される。そして、学習された変換則を用いて元ドメインのデータを変換し、変換された元ドメインのデータを用いた教師あり学習により、モデルの学習が行われる。
Conventionally, in order to solve such domain adaptation problems, the following known techniques exist. In the technique disclosed in
非特許文献1では、元ドメインのデータと目標ドメインのデータとについて、ドメインの識別が困難になるような特徴空間へ射影する特徴抽出器と、その特徴空間での元ドメインのデータとそのデータに付与されたクラスラベルとの関係性と、が同時に学習される。元ドメインのデータと目標ドメインのデータとを特徴空間上識別困難にすることは、両者の生成分布を特徴空間上で近づけることを意味する。このような処理は、例えば、図6の状態から図7の状態に変化させることを意味してもよい。これにより、元ドメインのデータで教師あり学習を行うことによって得られたモデルについて、目標ドメインのデータへの予測精度が改善される。
Non-Patent
非特許文献2では、非特許文献1で学習する共通特徴空間を、特徴抽出器とそれに連なる2つの識別器を用いて学習する。非特許文献1で学習されたモデルよりも、非特許文献2で学習されたモデルの方が、目標ドメインデータへの予測精度が高くなることが知られている。
In Non-Patent Document 2, the common feature space learned in Non-Patent
元ドメインと目標ドメインとの間の差異に依存して、さまざまな付随問題が生じることがある。付随問題の一つとして、元ドメインに与えられているクラス以外のデータが、目標ドメインに存在する場合に生じる問題がある。先の手書き文字認識の場合を例にとると、デジタルフォントデータには「あ」、「い」、「う」しか存在しないにもかかわらず、手書き文字データには「え」、「お」が含まれるような場合にこのような問題が生じる。元ドメインによってラベルが付与されているクラスを既知クラス(先の例の場合は「あ」、「い」、「う」)と称し、それ以外のクラスを未知クラス(先の例の場合は「え」、「お」)と称する。通常、教師あり学習をした識別器は、未知クラスに属するデータが入力された場合であっても、既知クラスのいずれかのクラスに属すると予測してしまう。このような動作により、文字認識の精度が低下してしまうという問題が生じうる。 Various collateral problems may arise depending on the differences between the source and target domains. One of the accompanying problems is the problem that occurs when data other than the class given to the source domain exists in the target domain. Taking the case of handwritten character recognition mentioned above as an example, even though the digital font data only contains "a", "i", and "u", the handwritten character data contains "e" and "o". Such a problem arises when it is included. Classes that are labeled by the original domain are called known classes (in the previous example, "A", "I", and "U"), and other classes are called unknown classes (in the previous example, "A", "I", and "U"). ``E'', ``O''). Normally, a classifier that has undergone supervised learning predicts that even if data belonging to an unknown class is input, the data belongs to one of the known classes. Such an operation may cause a problem in that the accuracy of character recognition decreases.
また、別の問題として以下のような問題もある。通常、元ドメインと目標ドメインとはそれぞれ単一のドメインから構成されることが想定されている。しかし、元ドメインと目標ドメインとのいずれもが、複数のドメインにより形成されうる場合がある。例えば、手書き文字データが、異なる複数の個人により書かれていた場合や、異なる筆記用具を用いて書かれていた場合には、元ドメインや目標ドメインが複数のドメインにより形成されるおそれがある。この場合、それぞれ生成分布が変化するため、目標ドメイン内に複数のドメインが内在すると考えることができる。ドメインが複数のドメインにより形成されている場合、非特許文献1のような方法では、期待される予測精度を実現できない問題が生じる。
In addition, there are other problems as follows. Normally, it is assumed that the source domain and the target domain each consist of a single domain. However, both the source domain and the target domain may be formed by multiple domains. For example, when handwritten character data is written by multiple different individuals or using different writing instruments, there is a possibility that the source domain and the target domain are formed by multiple domains. In this case, since the generation distribution changes, it can be considered that a plurality of domains exist within the target domain. When a domain is formed by a plurality of domains, a problem arises in which the method described in
元ドメインに複数のドメインが内在する問題に対応する技術に関する文献として、非特許文献4がある。非特許文献4に開示された技術では、元ドメインに内在する各ドメインと目標ドメインとの間で識別が困難になるような特徴が学習される。また反対に、目標ドメインに複数のドメインが内在する問題に対応する技術に関する文献として、非特許文献5がある。非特許文献5に開示された技術では、目標ドメインに内在する複数ドメインの領域間でドメインの識別が困難になるような特徴が学習される。
元ドメインと目標ドメインとで生成分布が異なるドメイン適応問題と、それに付随して発生する種々の付随問題を解決するために、それぞれ非特許文献3、非特許文献4、非特許文献5のような技術が提案されてきた。しかしながら、それぞれの技術は、その技術が考慮している付随問題に対しては良好な性能を示すものの、他の付随問題に対しては有効ではない。
In order to solve the domain adaptation problem in which the generation distribution is different between the source domain and the target domain, and the various incidental problems that occur along with it, we have proposed methods such as those in Non-patent Document 3, Non-patent
例えば、元ドメインに複数のドメインが内在する問題に対応する技術である非特許文献4の技術を、目標ドメインに複数のドメインが内在する問題に対して適用しても、十分な性能が得られない。
For example, even if the technique of Non-Patent
一般的に、処理の対象においてどのような問題が存在するかを事前に知ることができるケースは稀である。そのため、どのような問題に対する技術を適用すればよいかを判断することが困難である。また、上述した問題が複数混在するようなケースには、技術の適用が困難になるという問題も存在する。 Generally, it is rare that it is possible to know in advance what kind of problems exist in the target of processing. Therefore, it is difficult to judge what kind of problem the technology should be applied to. Furthermore, in cases where multiple of the above-mentioned problems coexist, there is also the problem that it becomes difficult to apply the technology.
上記事情に鑑み、本発明は、このような問題を鑑みてなされたものであり、ドメインに関するより広範な問題に対して良好な性能を達成する技術の提供を目的としている。 In view of the above circumstances, the present invention has been made in view of such problems, and aims to provide a technique that achieves good performance for a wider range of domain-related problems.
本発明の一態様は、入力されたデータの特徴量を出力する特徴抽出器と、前記特徴量に基づいて、前記データについて既知クラス及び未知クラスへの帰属確率を取得する複数の識別器と、前記識別器によって取得された前記帰属確率に基づいて、前記データが未知クラスであるか否か判断する未知クラス識別器と、前記データに対して、前記複数の識別器によって得られたそれぞれの帰属確率の違いを示す識別不一致度の値を出力する識別不一致評価部と、前記未知クラスではなく、且つ、教師ラベルが付与されていないデータを用いて、前記特徴抽出器については前記識別不一致度の値を小さくするように、複数の前記識別器については前記識別不一致度の値を大きくするように、前記特徴抽出器及び複数の前記識別器のパラメータの反復学習を行う学習部と、を備える学習装置である。 One aspect of the present invention includes: a feature extractor that outputs feature amounts of input data; and a plurality of discriminators that obtain probability of belonging to a known class and an unknown class for the data based on the feature amounts. an unknown class discriminator that determines whether the data is an unknown class based on the attribution probability obtained by the discriminator; and an unknown class discriminator that determines whether the data is an unknown class based on the attribution probability obtained by the discriminator; The feature extractor calculates the identification discrepancy value by using the identification discrepancy evaluator that outputs the identification discrepancy value that indicates the difference in probability, and the data that is not the unknown class and to which no teacher label is attached. a learning unit that iteratively learns the parameters of the feature extractor and the plurality of classifiers so as to decrease the value and increase the value of the discrimination inconsistency degree for the plurality of classifiers; It is a device.
本発明の一態様は、上記の学習装置によって得られたパラメータに基づいて、入力されたデータの特徴量を出力する特徴抽出器と、上記の学習装置によって得られたパラメータと前記特徴量とに基づいて、前記データについて既知クラス及び未知クラスへの帰属確率を取得する識別器と、を備える予測装置である。 One aspect of the present invention provides a feature extractor that outputs a feature amount of input data based on a parameter obtained by the above learning device, and a feature extractor that outputs a feature amount of input data based on a parameter obtained by the above learning device; and a discriminator that obtains the probability of belonging of the data to a known class and an unknown class based on the data.
本発明の一態様は、特徴抽出器を用いて、入力されたデータの特徴量を出力する特徴抽出ステップと、複数の識別器を用いて、前記特徴量に基づいて、前記データについて既知クラス及び未知クラスへの帰属確率をそれぞれ取得する識別ステップと、取得された前記帰属確率に基づいて、前記データが未知クラスであるか否か判断する未知クラス識別ステップと、前記データに対して、前記複数の識別器によって得られたそれぞれの帰属確率の違いを示す識別不一致度の値を出力する識別不一致評価ステップと、前記未知クラスではなく、且つ、教師ラベルが付与されていないデータを用いて、前記特徴抽出器については前記識別不一致度の値を小さくするように、複数の前記識別器については前記識別不一致度の値を大きくするように、前記特徴抽出器及び複数の前記識別器のパラメータの反復学習を行う学習ステップと、を有する学習方法である。 One aspect of the present invention includes a feature extraction step of outputting a feature amount of input data using a feature extractor, and a feature extraction step of outputting a feature amount of input data using a plurality of discriminators to identify a known class for the data based on the feature amount. an identification step of acquiring respective belonging probabilities to unknown classes; an unknown class identification step of determining whether the data is an unknown class based on the acquired belonging probabilities; an identification discrepancy evaluation step of outputting a value of the classification discrepancy degree indicating the difference in the respective attribution probabilities obtained by the classifiers; Repetition of the parameters of the feature extractor and the plurality of classifiers so that the value of the degree of discrimination inconsistency is decreased for the feature extractor, and the value of the degree of discrimination inconsistency is increased for the plurality of classifiers. This learning method includes a learning step for performing learning.
本発明の一態様は、上記の学習装置としてコンピューターを動作させるためのプログラムである。 One aspect of the present invention is a program for operating a computer as the learning device described above.
本発明により、このような問題を鑑みてなされたものであり、ドメインに関するより広範な問題に対して良好な性能を達成することが可能となる。 The present invention has been made in view of such problems, and makes it possible to achieve good performance for a wider range of domain-related problems.
<概略>
まず、本実施形態の概略について説明する。本実施形態は、未知クラスが存在する問題(以下「第一問題」という。)が存在した場合であっても適切に動作する。さらに、本実施形態は、各ドメインのデータに部分的にしかラベルづけがされていないという問題(以下「第二問題」という。)や、データのドメイン帰属情報が未知であるという問題(以下「第三問題」という。)が存在する場合であっても、適切に動作するように構成されてもよい。また、これら3つの付随問題のうち複数の問題が内在している場合であっても適切に動作するように構成されてもよい。
<Summary>
First, the outline of this embodiment will be explained. This embodiment operates appropriately even when there is a problem in which an unknown class exists (hereinafter referred to as the "first problem"). Furthermore, this embodiment solves the problem that the data in each domain is only partially labeled (hereinafter referred to as the "second problem") and the problem that the domain attribution information of the data is unknown (hereinafter referred to as the "second problem"). The configuration may be configured to operate appropriately even if the third problem exists. Furthermore, the system may be configured to operate appropriately even when a plurality of problems among these three incidental problems are present.
より具体的には以下の通りである。図1及び図2は、本実施形態の概略を示す図である。図1及び図2では、実線で囲まれた領域は元ドメイン10であり、破線で囲まれた領域は目標ドメイン20であり、直線で示された線は識別境界30である。線分40は、既知クラスと未知クラスとの境界として特定された情報を示す。矢印50は、ドメイン適応を構成していることを示す。
More specifically, it is as follows. FIGS. 1 and 2 are diagrams schematically showing the present embodiment. In FIGS. 1 and 2, the region surrounded by solid lines is the
本実施形態は、未知クラスが存在するという第一問題に対しては、教師ラベルの与えられていないデータの中から未知クラスに属するものを識別して特定することで対処する。本実施形態は、第二問題及び第三問題に対しては、ラベル付けがされているデータを元ドメイン、教師ラベルが与えられていないデータのうち既知クラスに属するものを目標ドメインとみなしたドメイン適応を構成することで対処する。 This embodiment deals with the first problem of the existence of an unknown class by identifying and specifying data belonging to the unknown class from among data to which no teacher label has been given. In this embodiment, for the second and third problems, labeled data is considered as the source domain, and data that is not given a teacher label and belongs to a known class is considered as the target domain. Deal with it by configuring adaptations.
<学習装置の構成例>
次に、本実施形態に係る学習装置の構成について説明する。図3は、本実施形態に係る学習装置100の一例を示す機能ブロック図である。学習装置100は、例えばパーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。学習装置100は、制御部90、未知クラス情報記憶部130及び学習結果記憶部140を備える。制御部90は、CPU(Central Processing Unit)等のプロセッサーとメモリーとを用いて構成される。制御部90は、プロセッサーがプログラムを実行することによって、特徴抽出器101、第一識別器102、第二識別器103、識別損失評価部104、未知クラス識別器105、識別不一致評価部106及び学習部107として機能する。なお、制御部90の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
<Example of configuration of learning device>
Next, the configuration of the learning device according to this embodiment will be explained. FIG. 3 is a functional block diagram showing an example of the
学習装置100は、教師ありデータ記憶部110及び教師なしデータ記憶部120からデータを取得して動作する。教師ありデータ記憶部110は、磁気ハードディスク装置や半導体記憶装置等の記憶装置、CD-ROM等の記録媒体等のようにデータを記憶できる機器又は媒体を用いて構成される。教師ありデータ記憶部110は、教師ありデータ集合を記憶する。教師ありデータ集合は、所望のクラスラベルが付与されたデータの集合である。教師なしデータ記憶部120は、磁気ハードディスク装置や半導体記憶装置等の記憶装置、CD-ROM等の記録媒体等のようにデータを記憶できる機器又は媒体を用いて構成される。教師なしデータ記憶部120は、教師なしデータ集合を記憶する。教師なしデータ集合は、所望のクラスラベルが付与されていないデータの集合である。
The
特徴抽出器101は、教師ありデータ集合及び教師なしデータ集合を入力として受け取り、各データから特徴ベクトルを抽出する。特徴抽出器101は、抽出された特徴ベクトルを第一識別器102及び第二識別器103に出力する。特徴抽出器101は、このような特徴ベクトルを抽出することができるパラメータを持つ関数に基づいて動作する。特徴ベクトルとは、例えばデータの特徴を数ベクトルで表したものである。言い換えると、特徴ベクトルは、必要なデータの特徴をn次元の要素を持つベクトルで表したものである。nは任意の整数値であり、例えばn=512であってもよい。なお、特徴ベクトルは、便宜上ベクトルの形式を持つものとして説明するが、形式は本発明の要点とは無関係であり、任意の形式をとることができる。特徴抽出器101は、特徴ベクトルを出力する度に、学習結果記憶部140に記憶されているパラメータを読み込んで特徴ベクトルを出力する。
The
第一識別器102は、特徴抽出器101によって出力された特徴ベクトルを入力として受け取る。第一識別器102は、入力された特徴ベクトルの元データに対する各クラスと未知クラスへの帰属確率の推定値(以下「推定帰属確率」という。)を出力する。推定帰属確率は、データが各既知クラス及び未知クラスに帰属する尤もらしさを表す確率である。第一識別器102は、このような推定帰属確率を出力することができるパラメータを持つ関数に基づいて動作する。第一識別器102は、推定帰属確率を出力する度に、学習結果記憶部140に記憶されているパラメータを読み込んで推定帰属確率を出力する。
The
第二識別器103は、特徴抽出器101によって出力された特徴ベクトルを入力として受け取る。第二識別器103は、入力された特徴ベクトルの元データに対する各クラスと未知クラスへの帰属確率の推定値(推定帰属確率)を出力する。第二識別器103は、このような推定帰属確率を出力することができるパラメータを持つ関数に基づいて動作する。第二識別器103は、推定帰属確率を出力する度に、学習結果記憶部140に記憶されているパラメータを読み込んで推定帰属確率を出力する。なお、第一識別器102及び第二識別器103には同一の特徴ベクトルが入力される。
The
特徴抽出器101、第一識別器102及び第二識別器103に適用される関数は、パラメータに対して微分可能であるものであれば、任意のものを用いることができる。本実施形態では、CNN(Convolutional Neural Network)が用いられる。ただし、CNNは一例に過ぎず、これに限定される必要は無い。
Any functions can be used as the functions applied to the
識別損失評価部104は、処理対象のデータと、この処理対象のデータが未知クラスであるか否かを示す情報と、処理対象のデータに対して第一識別器102及び第二識別器103が出力した推定帰属確率と、処理対象のデータに対する所望の帰属確率(以下「教師帰属確率」という。)と、を入力として受ける。識別損失評価部104は、これらの差異を表す第一の損失関数である識別損失関数の値(以下「識別損失評価値」という。)を求める。教師帰属確率とは、学習の際に正解となるクラスラベルに応じた帰属確率である。
The identification
未知クラス識別器105は、処理対象のデータと、処理対象のデータに対して第一識別器102及び第二識別器103が出力した推定帰属確率と、を入力として受ける。未知クラス識別器105は、処理対象のデータが未知クラスであるか否かについて識別する。未知クラス識別器105は、識別結果を示す情報(以下「未知クラス情報」という。)を未知クラス情報記憶部130に記録する。未知クラス情報記憶部130に記録された情報は、識別損失評価部104及び識別不一致評価部106において使用される。
The
識別不一致評価部106は、処理対象のデータと、処理対象のデータに対して第一識別器102及び第二識別器103が出力した推定帰属確率と、を入力として受ける。識別不一致評価部106は、第一識別器102及び第二識別器103の推定帰属確率の不一致度を示す値(以下「識別不一致度評価値」という。)を取得する。
The identification
学習部107は、識別損失評価部104によって得られた識別損失関数と、識別不一致評価部106によって得られた識別不一致度評価値と、を入力として受ける。学習部107は、入力された値を用いて、特徴抽出器101、第一識別器102及び第二識別器103のパラメータの反復学習を行う。学習部107は、反復学習によって得られた特徴抽出器101、第一識別器102及び第二識別器103のパラメータを、学習結果記憶部140に記録する。特徴抽出器101に関する反復学習は、識別損失評価値及び識別不一致度評価値が共に小さくなるように行われる。第一識別器102及び第二識別器103に関する反復学習は、識別損失評価値が小さくなるように且つ識別不一致度評価値が大きくなるように行われる。
The
<予測装置の構成例>
次に、本実施形態に係る予測装置の構成について説明する。図4は、本実施形態に係る予測装置200の一例を示す機能ブロック図である。予測装置200は、例えばパーソナルコンピューターやサーバー装置等の情報処理装置を用いて構成される。予測装置200は、制御部91及び記憶部230を備える。制御部91は、CPU等のプロセッサーとメモリーとを用いて構成される。制御部91は、プロセッサーがプログラムを実行することによって、特徴抽出器201及び識別器202として機能する。なお、制御部91の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。上記のプログラムは、コンピューター読み取り可能な記録媒体に記録されても良い。コンピューター読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM、半導体記憶装置(例えばSSD)等の可搬媒体、コンピューターシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。上記のプログラムは、電気通信回線を介して送信されてもよい。
<Example of configuration of prediction device>
Next, the configuration of the prediction device according to this embodiment will be explained. FIG. 4 is a functional block diagram showing an example of the
記憶部230は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部230は、学習装置100の学習部107によって行われた反復学習で得られた学習結果としてのパラメータを記憶する。
The
特徴抽出器201は、処理対象のデータ(予測対象のデータ)240を受けると、記憶部230からパラメータを読み出し、パラメータに基づき動作する。特徴抽出器201は、処理対象のデータ240について特徴ベクトルを出力する。識別器202は、記憶部230からパラメータを読み出し、パラメータに基づいて動作する。識別器202は、特徴抽出器201によって得られた特徴ベクトルに基づいて、処理対象のデータ240について推定帰属確率を求める。識別器202の出力は、処理対象のデータ240についての、各クラスに対する推定帰属確率そのものであってもよいし、どのクラスに属するかの予測結果を示す情報であってもよい。
When the
<学習装置の動作例>
図5は、学習装置100の動作例を示すフローチャートである。次に、学習装置100の動作例について説明する。学習装置100は、教師ありデータ集合110及び教師なしデータ集合120を受けて、図5に示される学習処理ルーチンを実行する。
<Example of operation of learning device>
FIG. 5 is a flowchart showing an example of the operation of the
まず、学習装置100の制御部90は、一つ以上の教師ありデータ集合110及び教師なしデータ集合120を読み込む(ステップS101)。次に、制御部90は、学習の反復回数が予め定められた予定回数以下であるか否かの分岐判定を行う(ステップS102)。反復回数が予定回数以下であれば、ステップS103の処理が実行される。一方、反復回数が予定回数より多ければステップS104の処理が実行される。
First, the
ここで、ステップS102における分岐処理の意義について説明する。この分岐処理によって、未知クラスの識別方法が変化する。第一識別器102及び第二識別器103が既知クラスK個と未知クラスとを合わせた(K+1)個のクラスを識別できるように学習する。しかし、既知クラスに関しては教師ありデータとしてデータとその教師帰属確率の組が得られるのに対して、未知クラスに関してはどのデータが未知クラスであるかは不明である。そこで、反復回数が予定回数以下である場合は、教師なしデータに対して未知クラスの識別を行い、結果を識別履歴として記録する。一方、反復回数が予定回数より多い場合は、(K+1)個のクラスを識別できるように第一識別機102及び第二識別器103を学習し、未知クラスの識別結果を識別履歴として記録する。
Here, the significance of the branch processing in step S102 will be explained. This branching process changes the method of identifying unknown classes. The
反復回数が予定階数以下である場合には、未知クラスの識別を行うことで未知クラスの教師帰属確率を推定することができるが、誤りも含まれてしまう。そのため、識別履歴を記録しながら(K+1)個のクラスの識別を学習することで、誤りの少ない未知クラス識別が可能になる。 If the number of iterations is less than the predetermined rank, the teacher belonging probability of the unknown class can be estimated by identifying the unknown class, but this may include errors. Therefore, by learning the classification of (K+1) classes while recording the classification history, it is possible to identify unknown classes with fewer errors.
ステップS103では、教師ありデータ集合110及び教師なしデータ集合120に対して特徴抽出器101、第一識別器102、第二識別器103及び未知クラス識別器105を適用して、識別損失評価値、識別不一致度評価値、未知クラスか否かの判定が得られる。
In step S103, the
ステップS104では、教師なしデータ集合120について未知クラス識別履歴を読み込む。そして、ステップS105において、教師ありデータ集合110及び教師なしデータ集合120、未知クラス識別履歴に対して、特徴抽出器101、第一識別器102、第二識別器103及び未知クラス識別器105を適用して、識別損失評価値、識別不一致度評価値、未知クラスか否かの判定が得られる。
In step S104, the unknown class identification history for the
ステップS103又はステップS105の処理が終わると、学習部107は、識別損失評価値及び識別不一致度評価値に基づいて、特徴抽出器101、第一識別器102及び第二識別器103のパラメータの値(学習結果記憶部140に記録される値)をそれぞれ更新する(ステップS106)。
When the process of step S103 or step S105 is finished, the
特徴抽出器101、第一識別器102、第二識別器103のパラメータを学習結果記憶部140に格納する。次に、未知クラス識別器105は、ステップS103又はS105で得られた未知クラスデータであるかの識別結果を未知クラス情報記憶部130に記録する(ステップS107)。
The parameters of the
そして、制御部90は、終了条件を満たすかを判定する(ステップS108)。終了条件を満たしている場合(ステップS108-YES)、制御部90は処理を終了する。終了条件を満たしていない場合(ステップS108-NO)、制御部90は、ステップS101に戻って処理を繰り返す。
Then, the
以上説明した反復学習により、特徴抽出器101、第一識別器102及び第二識別器103のパラメータが学習される。特徴抽出器101に関しては、識別損失評価値及び識別不一致度評価値を用いて、識別損失評価値と識別不一致度評価値が小さくなるように学習が行われる。識別損失関数は、第一識別器102及び第二識別器103が出力したデータの推定帰属確率と、データの所与の教師帰属確率と、の類似度が高いほど小さい値を出力する。識別不一致度評価値は、第一識別器102及び第二識別器103が出力したデータの推定帰属確率についての識別器間の差を示す。また、第一識別器101及び第二識別器102に関しては、識別損失評価値は小さく、識別不一致度評価値は大きくなるように学習が行われる。
Through the iterative learning described above, the parameters of the
[各処理の詳細]
次に学習装置100の各処理部の処理の詳細について説明する。
[反復回数が予定回数以下の場合]
ステップ102において、反復回数が予定回数以下の場合における識別損失評価部104、未知クラス識別器105、識別不一致評価部106、の各処理について説明する。
[Details of each process]
Next, details of processing of each processing unit of the
[If the number of repetitions is less than the planned number]
In
識別損失関数は、特徴抽出器101の出力した特徴ベクトルを入力として第一識別器102及び第二識別器103が出力したデータの推定帰属確率とデータの所与の教師帰属確率との類似度が高いほど小さい値を出力するものである。識別損失関数は、後述する式2及び式3に対応する。また、値は、識別損失評価値に対応するものである。
The discrimination loss function calculates the degree of similarity between the estimated attribution probability of the data output by the
[識別損失評価部の処理]
特徴抽出器101は、データxを入力として特徴ベクトルfを出力しパラメータφを持つような関数Fを用いることで実現される。第一識別器102は、特徴ベクトルfを入力として推定帰属確率y1を出力するパラメータθ1を持つ関数として表現することができる。第二識別器103は、特徴ベクトルfを入力として推定帰属確率y2を出力するパラメータθ2を持つ関数として表現することができる。第一識別器102及び第二識別器103を実現する関数は、特徴抽出器101を実現する関数Fを用いて、確率関数として下記式1のように表すことができる。なお、iは2つの識別器を区別するための添え字として用いる。
[Processing of identification loss evaluation unit]
The
式はφ、θi、及びxが与えられた下でのyiが出現する確率である。望ましい特徴抽出器101、第一識別器102及び第二識別器103は、教師ありデータ集合からデータsが与えられた時、各クラスへの教師帰属確率tが出現するようなものである。すなわち、正解となるクラスが識別可能な帰属確率が求められる特徴抽出器101、第一識別器102及び第二識別器103である。データsと対応する教師帰属確率tの出現確率をp(s,t)とすると、学習は下記式2が小さくなるようにパラメータφ、θiを決定できれば良い。
The formula is the probability that yi will appear given φ, θi, and x.
Eb[a]は、aの確率bに対する期待値である。本実施形態の場合は、教師ありデータは教師ありデータ集合から取得されるので、期待値は下記式3のように総和の形で近似的に置き換えられる。 Eb[a] is the expected value of probability b of a. In the case of this embodiment, since supervised data is obtained from a supervised data set, the expected value is approximately replaced in the form of a summation as shown in Equation 3 below.
なお、S、T、はそれぞれ1つ以上のデータと、対応する教師帰属確率の集合である。式3が本実施形態の一例における識別損失関数であり、これを任意のS、Tに対して評価した値が識別損失評価値である。 Note that S and T are each a set of one or more data and corresponding teacher attribution probabilities. Equation 3 is the discrimination loss function in an example of this embodiment, and the value obtained by evaluating this for arbitrary S and T is the discrimination loss evaluation value.
式3をφ、θ1、θ2について小さくすることで、sに対してtを出力できるような望ましい特徴抽出器101、第一識別機102及び第二識別器103を得ることができる。このようなφ、θ1、θ2を求める方法は様々ある。単純には、特徴抽出器を実現する関数Fと、第一識別器102及び第二識別器103と、を表す確率関数がそれぞれのパラメータφ、θ1、θ2に対して微分可能である場合、局所最小化できることが知られている。そのため、本実施形態の一例においては、特徴抽出器101として、データxを入力された下でそのデータの特徴ベクトルfを出力する関数であること、φについて微分可能であること、第一識別器102及び第二識別器103として特徴ベクトルfを入力として推定帰属確率y1、y2を出力する関数であること、それぞれθ1、θ2に対して微分可能であること、という条件を満たす関数を選んでもよい。
By reducing Equation 3 with respect to φ, θ1, and θ2, it is possible to obtain a
[識別不一致評価部の処理]
ある推定帰属確率p1,p2の識別不一致度評価値は、p1k,p2kをそれぞれ推定帰属確率p1,p2のクラスkに対する帰属確率を表すものとした時、下記式4のように表される。ここでKは識別すべき既知クラスの数、K+1は既知クラスのいずれにも該当しない未知クラスを表す。
[Processing of identification discrepancy evaluation unit]
The discrimination inconsistency evaluation value for certain estimated belonging probabilities p1 and p2 is expressed as shown in the
識別不一致評価部106は、教師なしデータ集合120のデータuに対して第一識別器102及び第二識別器103が出力する推定帰属確率y1、y2の不一致度を評価する。すなわち識別不一致評価部106は、式4の推定帰属確率の識別不一致度評価値を用いて、下記式5に示す、教師なしデータ集合のデータuの出現確率p(u)について、第一識別器102及び第二識別器103の推定帰属確率の識別不一致度評価値Ladvを出力する。
The identification
Eb[a]は、aの確率bに対する期待値である。本実施形態の場合は、教師なしデータは教師なしデータ集合から取得されるので、期待値は下記式6のように総和の形で近似的に置き換えられる。 Eb[a] is the expected value of probability b of a. In the case of this embodiment, since the unsupervised data is obtained from an unsupervised data set, the expected value is approximately replaced in the form of a sum as shown in Equation 6 below.
なお、Uは1つ以上のデータである。式6が本実施形態の一例における識別不一致度であり、これを任意のUに対して評価した値が識別不一致度評価値である。 Note that U is one or more pieces of data. Equation 6 is the identification mismatch degree in an example of this embodiment, and the value obtained by evaluating this for any U is the identification mismatch degree evaluation value.
[未知クラス識別器処理]
データxに対する第一識別器102及び第二識別器103が出力する推定帰属確率y1、y2は上述の式1を用いて表すことができる。第一識別器102及び第二識別器103が出力する推定帰属確率y1、y2の平均推定帰属確率yについて出力された帰属確率yの曖昧性を示す情報エントロピーH(y|x)は下記式7のように表される。
[Unknown class classifier processing]
Estimated attribution probabilities y1 and y2 output by the
教師なしデータ集合の教師なしデータuが未知クラスデータであるか否かの判別は、式4に示される情報エントロピーの値が予め定めた閾値σより大きいか否かによって決まる。すなわち、反復回数e回目における教師なしデータuが未知クラスデータであるか否かの識別yu,eは下記式8のように表される。
Determination of whether the unsupervised data u of the unsupervised data set is unknown class data is determined by whether the value of information entropy shown in
[反復回数が一定より大きい場合]
ステップS105において教師なしデータ集合を既知クラスデータ集合UIと未知クラスデータ集合UOとに分割する処理について説明する。教師なしデータ集合のデータuについて、反復回数tの時の未知クラスデータであるか否かについての識別結果は、後述のステップS107でyu,tとして未知クラス情報記憶部130に格納されている。ステップS104では、過去T回の識別結果を未知クラス情報記憶部130から読み出し、過去T/2回以上未知クラスデータであると識別された教師なしデータ集合のデータuについては、未知クラスデータ集合UOに属するもの、それ以外のデータは既知クラスデータ集合UIに属するものする。すなわち、反復回数eにおいて教師なしデータ集合をUとした時、Uは下記式9及び式10にしたがい、既知クラスデータ集合UIと未知クラスデータ集合UOとに分割される。
[If the number of repetitions is greater than a certain value]
The process of dividing the unsupervised data set into the known class data set U I and the unknown class data set U O in step S105 will be described. The identification result as to whether or not data u of the unsupervised data set is unknown class data at the number of iterations t is stored in the unknown class
次にステップS105に係る評価処理について説明する。識別損失評価部104及び識別不一致評価部106の処理については、反復回数が一定以下の場合の処理であるステップS103とほぼ同様の処理を行う。
Next, the evaluation process related to step S105 will be explained. The processing of the identification
[識別損失評価部の処理]
識別損失評価部104は、教師ありデータとその教師帰属確率の集合(S,T)と未知クラスデータ集合UOの和集合について総和を取ることにより、識別損失評価値を求める。すなわち、識別損失評価部104の評価値は下記式11の形で表される。
[Processing of identification loss evaluation unit]
The discrimination
[識別不一致評価部の処理]
識別不一致評価部106の処理については、既知クラスデータ集合UIのデータに対して、ステップS103における識別不一致評価部106の式6の評価処理と同様の処理を行うことで、識別不一致度評価値を求める。すなわち、ステップS105に係る識別不一致評価部106の出力する識別不一致度評価値は下記式12により求められる。
[Processing of identification discrepancy evaluation unit]
Regarding the process of the identification
[未知クラス識別器の処理]
データxに対する第一識別器102及び第二識別器103が出力する推定帰属確率y1、y2は上述の式1を用いて表すことができる。第一識別器102及び第二識別器103が出力する推定帰属確率y1、y2から平均推定帰属確率yを求めることができる。教師なしデータ集合の教師なしデータuが未知クラスデータであるかどうかの判別は、平均推定帰属確率yについて、各識別クラスに対する帰属確率のうち、未知クラスであるK+1クラスに対する帰属確率がもっとも高いデータであれば、未知クラスデータであるとし、そうでない場合は未知クラスデータではないとして判断を行う。すなわち反復回数e回目における教師なしデータuが未知クラスデータであるかどうかの識別yu,eは下記式13のように表される。
[Processing of unknown class classifier]
Estimated attribution probabilities y 1 and y 2 output by the
[学習処理]
ステップS106にかかる学習部107の学習処理について説明する。特徴抽出器101については識別損失評価値Lsと識別不一致度評価値Ladvの値が小さくなるように学習処理を行う。第一識別器102及び第二識別器103については、識別損失評価値Lsは小さく、識別不一致度評価値は大きくなるように学習処理を行う。具体的には式14、式15及び式16に示す問題を順次最適化するように行う。
[Learning process]
The learning process of the
ここで、識別損失評価値Lsと識別不一致度評価値Ladvがパラメータθ1、θ2、φについて微分可能であるように特徴抽出器101、第一識別器102及び第二識別器103の関数を選んだため、誤差勾配効果法により学習することが可能である。
Here, the functions of the
上記の学習により期待される効果を説明する。まずLsについてはパラメータθ1、θ2、φについて最小化させることは、一般の識別学習と同様に、教師ありデータに基づいて認識精度を改善させる効果を生む。 The expected effects of the above learning will be explained. First, regarding L s , minimizing the parameters θ 1 , θ 2 , and φ produces the effect of improving recognition accuracy based on supervised data, similar to general discrimination learning.
Ladvについては、パラメータθ1、θ2は値が大きくなるように、パラメータφについては最小化するように学習を行う。この学習の効果に関する詳細については非特許文献4に記載されているとおりである。特徴抽出器101が出力する特徴の空間における教師ありデータの分布と教師なしデータの分布とが近づくことになる。特徴空間における分布が近づくことによって、教師ありデータで学習した識別器によって、教師なしデータを認識した場合に高精度に認識することが可能になる。
Regarding L adv , learning is performed so that the values of the parameters θ 1 and θ 2 are increased, and the parameter φ is minimized. Details regarding the effect of this learning are as described in
しかし、単に非特許文献4と同様の学習により、教師ありデータの分布と教師なしデータの分布を特徴空間上において近づけると、教師なしデータのうち未知クラスデータも近づいてしまうことになる。この時、教師なし未知クラスデータは教師ありデータに近づいてしまい、本来不適当な既知クラスデータのクラスのいずれかに識別されることになる。本実施形態では、未知クラスデータの検出を行い、ステップS105において、未知クラスデータと検出されたデータに対しては、Ladvの評価には用いないようにしている。これによって、上述した不適切な教師ありデータ分布と未知クラスデータ分布を近づけることを防ぎ、未知クラスデータは未知クラスデータであると検知するように学習することが可能になっている。
However, if the distribution of supervised data and the distribution of unsupervised data are brought closer together in the feature space simply by learning similar to
[パラメータ格納処理]
パラメータ学習後、ステップS107に係る処理にて、パラメータθ1、θ2、φを学習結果記憶部140に格納する。
[Parameter storage processing]
After parameter learning, the parameters θ 1 , θ 2 , and φ are stored in the learning
ステップS108にかかる処理における、教師なしデータが未知クラスデータであるかについての識別結果の保存処理について説明する。反復回数eにおける教師なしデータ集合のデータuが未知クラスデータであるかの識別履歴は、反復回数eが一定以下の場合、ステップS103の処理によって、yu,eが得られている。また、反復回数eにおける教師なしデータ集合のデータuが未知クラスデータであるかの識別履歴は、反復回数eが一定よりも大きい場合、ステップS305の処理によって、yu,eが得られている。ステップS108では教師なしデータ集合のデータuそれぞれについて、識別結果yu,eを未知クラス情報記憶部130に格納する。
The process of saving the identification result as to whether the unsupervised data is unknown class data in the process of step S108 will be described. As for the identification history of whether the data u of the unsupervised data set at the number of iterations e is unknown class data, when the number of iterations e is less than a certain value, y u,e is obtained by the process of step S103. In addition, the identification history of whether the data u of the unsupervised data set at the number of iterations e is unknown class data is that if the number of iterations e is greater than a certain value, y u,e is obtained by the process of step S305. . In step S108, the identification results y u,e are stored in the unknown class
以上のステップS101からS108までの学習処理を、終了条件が満たされるまで繰り返せば良い。 The learning process from steps S101 to S108 described above may be repeated until the termination condition is satisfied.
終了条件については、任意の情報が用いられて良い。例えば、「所定の回数を繰り返すまで」、「目的関数の値が一定以上変換しなくなるまで」、「学習データとは別に用意した評価用データに対する精度が一定以上変化しなくなるまで」などとすればよい。 Any information may be used as the termination condition. For example, "until it is repeated a predetermined number of times", "until the value of the objective function no longer changes beyond a certain level", "until the accuracy of evaluation data prepared separately from the training data no longer changes beyond a certain level", etc. good.
(変形例)
教師ありデータ記憶部110及び教師なしデータ記憶部120のいずれか一方又は双方は、学習装置100に備えられてもよい。未知クラス情報記憶部130及び学習結果記憶部140のいずれか一方又は双方は、学習装置100の外部に設けられてもよい。外部に設けられた場合には、例えばTCP/IP等の通信を行うことでデータが取得されてもよい。
(Modified example)
Either or both of the supervised
学習装置100は、1台の情報処理装置を用いて実装されてもよいし、複数台の情報処理装置に分散して実装されてもよい。
The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments, and includes designs within the scope of the gist of the present invention.
本発明は、学習装置に適用可能である。 The present invention is applicable to learning devices.
100…学習装置、101…特徴抽出器、102…第一識別器、103…第二識別器、104…識別損失評価部、105…未知クラス識別器、106…識別不一致評価部、107…学習部、200…予測装置 100...Learning device, 101...Feature extractor, 102...First classifier, 103...Second classifier, 104...Discrimination loss evaluation section, 105...Unknown class classifier, 106...Identification discrepancy evaluation section, 107...Learning section , 200...prediction device
Claims (7)
前記特徴量に基づいて、前記データについて既知クラス及び未知クラスへの帰属確率を取得する複数の識別器と、
前記識別器によって取得された前記帰属確率に基づいて、前記 データが未知クラスであるか否か判断する未知クラス識別器と、
前記データに対して、前記複数の識別器によって得られたそれぞれの帰属確率の違いを示す識別不一致度の値を出力する識別不一致評価部と、
前記未知クラスではなく、且つ、教師ラベルが付与されていないデータを用いて、前記特徴抽出器については前記識別不一致度の値を小さくするように、複数の前記識別器については前記識別不一致度の値を大きくするように、前記特徴抽出器及び複数の前記識別器のパラメータの反復学習を行う学習部と、
を備え、
前記データに対して、前記帰属確率と前記データの所与の教師帰属確率との類似度が高いほど小さい値を示す識別損失関数の値を出力する識別損失評価部をさらに備え、
前記学習部は、教師ラベルが付与されているデータと、未知クラスであり、且つ、教師ラベルが付与されていないデータと、を用いて、前記特徴抽出器と複数の前記識別器とについて前記識別損失関数の値を小さくするように前記パラメータの反復学習をさらに行う、学習装置。 a feature extractor that outputs feature quantities of input data;
a plurality of classifiers that obtain probability of belonging to a known class and an unknown class for the data based on the feature amount;
an unknown class classifier that determines whether the data is an unknown class based on the belonging probability obtained by the classifier;
an identification inconsistency evaluation unit that outputs an identification inconsistency degree value indicating a difference in each of the attribution probabilities obtained by the plurality of classifiers for the data;
Using data that is not the unknown class and to which no teacher label has been assigned, the value of the identification discrepancy is reduced for the feature extractor, and the identification discrepancy for the plurality of classifiers is a learning unit that repeatedly learns parameters of the feature extractor and the plurality of classifiers so as to increase the value;
Equipped with
Further comprising a discriminant loss evaluation unit that outputs, for the data, a value of a discriminant loss function that indicates a smaller value as the degree of similarity between the attribution probability and a given teacher attribution probability of the data is higher;
The learning unit performs the discrimination using the feature extractor and the plurality of classifiers using data to which a teacher label is assigned and data that is an unknown class and does not have a teacher label. The learning device further performs iterative learning of the parameters so as to reduce the value of the loss function .
前記特徴量に基づいて、前記データについて既知クラス及び未知クラスへの帰属確率を取得する複数の識別器と、
前記識別器によって取得された前記帰属確率に基づいて、前記 データが未知クラスであるか否か判断する未知クラス識別器と、
前記データに対して、前記複数の識別器によって得られたそれぞれの帰属確率の違いを示す識別不一致度の値を出力する識別不一致評価部と、
前記未知クラスではなく、且つ、教師ラベルが付与されていないデータを用いて、前記特徴抽出器については前記識別不一致度の値を小さくするように、複数の前記識別器については前記識別不一致度の値を大きくするように、前記特徴抽出器及び複数の前記識別器のパラメータの反復学習を行う学習部と、
を備え、
前記未知クラス識別器は、前記学習部における反復学習の回数が所定の回数より多い場合には、過去の判断結果に基づいて判断する学習装置。 a feature extractor that outputs feature quantities of input data;
a plurality of classifiers that obtain probability of belonging to a known class and an unknown class for the data based on the feature amount;
an unknown class classifier that determines whether the data is an unknown class based on the belonging probability obtained by the classifier;
an identification inconsistency evaluation unit that outputs an identification inconsistency degree value indicating a difference in each of the attribution probabilities obtained by the plurality of classifiers for the data;
Using data that is not the unknown class and to which no teacher label has been assigned, the value of the identification discrepancy is reduced for the feature extractor, and the identification discrepancy for the plurality of classifiers is a learning unit that repeatedly learns parameters of the feature extractor and the plurality of classifiers so as to increase the value;
Equipped with
The unknown class classifier is a learning device that makes a determination based on past determination results when the number of times of iterative learning in the learning section is greater than a predetermined number of times .
請求項1から3のいずれか一項に記載の学習装置によって得られたパラメータと前記特徴量とに基づいて、前記データについて既知クラス及び未知クラスへの帰属確率を取得する識別器と、
を備える予測装置。 A feature extractor that outputs feature amounts of input data based on parameters obtained by the learning device according to any one of claims 1 to 3 ;
A classifier that obtains probability of belonging to a known class and an unknown class for the data based on the parameters and the feature amount obtained by the learning device according to any one of claims 1 to 3 ;
A prediction device comprising:
複数の識別器を用いて、前記特徴量に基づいて、前記データについて既知クラス及び未知クラスへの帰属確率をそれぞれ取得する識別ステップと、
取得された前記帰属確率に基づいて、前記データが未知クラスであるか否か判断する未知クラス識別ステップと、
前記データに対して、前記複数の識別器によって得られたそれぞれの帰属確率の違いを示す識別不一致度の値を出力する識別不一致評価ステップと、
前記未知クラスではなく、且つ、教師ラベルが付与されていないデータを用いて、前記特徴抽出器については前記識別不一致度の値を小さくするように、複数の前記識別器については前記識別不一致度の値を大きくするように、前記特徴抽出器及び複数の前記識別器のパラメータの反復学習を行う学習ステップと、
を有し、
前記データに対して、前記帰属確率と前記データの所与の教師帰属確率との類似度が高いほど小さい値を示す識別損失関数の値を出力する識別損失評価ステップをさらに有し、
前記学習ステップにおいて、教師ラベルが付与されているデータと、未知クラスであり、且つ、教師ラベルが付与されていないデータと、を用いて、前記特徴抽出器と複数の前記識別器とについて前記識別損失関数の値を小さくするように前記パラメータの反復学習をさらに行う、学習方法。 a feature extraction step of outputting feature quantities of input data using a feature extractor;
an identification step of obtaining probability of belonging to a known class and an unknown class for the data based on the feature amount using a plurality of classifiers;
an unknown class identification step of determining whether the data is an unknown class based on the acquired belonging probability;
an identification inconsistency evaluation step of outputting an identification inconsistency degree value indicating a difference in the respective attribution probabilities obtained by the plurality of classifiers for the data;
Using data that is not the unknown class and to which no teacher label has been assigned, the value of the identification discrepancy is reduced for the feature extractor, and the identification discrepancy for the plurality of classifiers is a learning step of iteratively learning the parameters of the feature extractor and the plurality of classifiers so as to increase the value;
has
further comprising a discriminative loss evaluation step for outputting a discriminative loss function value that is smaller as the degree of similarity between the attribution probability and a given teacher attribution probability of the data is higher for the data;
In the learning step, the feature extractor and the plurality of classifiers perform the identification using data to which a teacher label has been assigned and data that is an unknown class and to which no teacher label has been assigned. A learning method further comprising iteratively learning the parameters so as to reduce the value of the loss function .
複数の識別器を用いて、前記特徴量に基づいて、前記データについて既知クラス及び未知クラスへの帰属確率をそれぞれ取得する識別ステップと、
取得された前記帰属確率に基づいて、前記データが未知クラスであるか否か判断する未知クラス識別ステップと、
前記データに対して、前記複数の識別器によって得られたそれぞれの帰属確率の違いを示す識別不一致度の値を出力する識別不一致評価ステップと、
前記未知クラスではなく、且つ、教師ラベルが付与されていないデータを用いて、前記特徴抽出器については前記識別不一致度の値を小さくするように、複数の前記識別器については前記識別不一致度の値を大きくするように、前記特徴抽出器及び複数の前記識別器のパラメータの反復学習を行う学習ステップと、
を有し、
前記未知クラス識別ステップでは、前記学習ステップにおける反復学習の回数が所定の回数より多い場合には、過去の判断結果に基づいて判断する、学習方法。 a feature extraction step of outputting feature quantities of input data using a feature extractor;
an identification step of obtaining probability of belonging to a known class and an unknown class for the data based on the feature amount using a plurality of classifiers;
an unknown class identification step of determining whether the data is an unknown class based on the acquired belonging probability;
an identification inconsistency evaluation step of outputting an identification inconsistency degree value indicating a difference in the respective attribution probabilities obtained by the plurality of classifiers for the data;
Using data that is not the unknown class and to which no teacher label has been assigned, the value of the identification discrepancy is reduced for the feature extractor, and the identification discrepancy for the plurality of classifiers is a learning step of iteratively learning the parameters of the feature extractor and the plurality of classifiers so as to increase the value;
has
In the unknown class identification step, if the number of times of iterative learning in the learning step is greater than a predetermined number of times, the learning method comprises making a determination based on past determination results .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/022672 WO2021250774A1 (en) | 2020-06-09 | 2020-06-09 | Learning device, prediction device, learning method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021250774A1 JPWO2021250774A1 (en) | 2021-12-16 |
JP7440798B2 true JP7440798B2 (en) | 2024-02-29 |
Family
ID=78845421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022530395A Active JP7440798B2 (en) | 2020-06-09 | 2020-06-09 | Learning device, prediction device, learning method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7440798B2 (en) |
WO (1) | WO2021250774A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117001423B (en) * | 2023-09-28 | 2023-12-05 | 智能制造龙城实验室 | Tool state online monitoring method based on evolutionary learning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020004406A (en) | 2018-06-25 | 2020-01-09 | 富士通株式会社 | Classification model training method and apparatus, and classification method and apparatus |
US20200034661A1 (en) | 2019-08-27 | 2020-01-30 | Lg Electronics Inc. | Artificial intelligence apparatus for generating training data, artificial intelligence server, and method for the same |
WO2021095509A1 (en) | 2019-11-14 | 2021-05-20 | オムロン株式会社 | Inference system, inference device, and inference method |
-
2020
- 2020-06-09 JP JP2022530395A patent/JP7440798B2/en active Active
- 2020-06-09 WO PCT/JP2020/022672 patent/WO2021250774A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020004406A (en) | 2018-06-25 | 2020-01-09 | 富士通株式会社 | Classification model training method and apparatus, and classification method and apparatus |
US20200034661A1 (en) | 2019-08-27 | 2020-01-30 | Lg Electronics Inc. | Artificial intelligence apparatus for generating training data, artificial intelligence server, and method for the same |
WO2021095509A1 (en) | 2019-11-14 | 2021-05-20 | オムロン株式会社 | Inference system, inference device, and inference method |
Non-Patent Citations (1)
Title |
---|
SAITO, Kuniaki et al.,Maximum Classifier Discrepancy for Unsupervised Domain Adaptation,arXiv [online],2017年12月07日,[検索日 2020.11.12], version 1,インターネット <URL: https://arxiv.org/pdf/1712.02560v1> |
Also Published As
Publication number | Publication date |
---|---|
WO2021250774A1 (en) | 2021-12-16 |
JPWO2021250774A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fei et al. | Binary tree of SVM: a new fast multiclass training and classification algorithm | |
Charoenphakdee et al. | Classification with rejection based on cost-sensitive classification | |
JP5176773B2 (en) | Character recognition method and character recognition apparatus | |
Gönen et al. | Multiple kernel learning algorithms | |
Dhanya et al. | A comparative study for breast cancer prediction using machine learning and feature selection | |
EP1589473A2 (en) | Using tables to learn trees | |
US7478075B2 (en) | Reducing the size of a training set for classification | |
Frénay et al. | Estimating mutual information for feature selection in the presence of label noise | |
US20190286937A1 (en) | Computer-readable recording medium, method for learning, and learning device | |
JP7276488B2 (en) | Estimation program, estimation method, information processing device, relearning program and relearning method | |
CN111340057B (en) | Classification model training method and device | |
JP7440798B2 (en) | Learning device, prediction device, learning method and program | |
JP5017941B2 (en) | Model creation device and identification device | |
WO2022074840A1 (en) | Domain feature extractor learning device, domain prediction device, learning method, learning device, class identification device, and program | |
Xiao et al. | Robust and efficient boosting method using the conditional risk | |
Bai et al. | Reducing training sample memorization in GANs by training with memorization rejection | |
JP7103235B2 (en) | Parameter calculation device, parameter calculation method, and parameter calculation program | |
Zhang et al. | Divide and retain: a dual-phase modeling for long-tailed visual recognition | |
JP4121060B2 (en) | Class identification device and class identification method | |
JP6282711B2 (en) | Pattern recognition apparatus, pattern recognition method, and pattern recognition program | |
US20230289406A1 (en) | Computer-readable recording medium storing determination program, apparatus, and method | |
US20240143981A1 (en) | Computer-readable recording medium storing machine learning program, and information processing apparatus | |
WO2023067782A1 (en) | Machine learning program, machine learning method, and information processing device | |
JP7436928B2 (en) | Learning devices, learning methods and programs | |
JP2023170853A (en) | Learning device, character recognition system, learning method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7440798 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |