JP7428267B2 - 学習装置、推定装置、学習方法、推定方法及びプログラム - Google Patents

学習装置、推定装置、学習方法、推定方法及びプログラム Download PDF

Info

Publication number
JP7428267B2
JP7428267B2 JP2022556308A JP2022556308A JP7428267B2 JP 7428267 B2 JP7428267 B2 JP 7428267B2 JP 2022556308 A JP2022556308 A JP 2022556308A JP 2022556308 A JP2022556308 A JP 2022556308A JP 7428267 B2 JP7428267 B2 JP 7428267B2
Authority
JP
Japan
Prior art keywords
likelihood
class
label
degree
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022556308A
Other languages
English (en)
Other versions
JPWO2022085129A1 (ja
Inventor
美尋 内田
潤 島村
慎吾 安藤
崇之 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022085129A1 publication Critical patent/JPWO2022085129A1/ja
Application granted granted Critical
Publication of JP7428267B2 publication Critical patent/JP7428267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習装置、推定装置、学習方法、推定方法及びプログラムに関する。
深層学習モデルは、高精度にタスクを実行できることで知られている。例えば、画像認識のタスクでは、人間を超える精度が達成されたことが報告されている。
一方で、深層学習モデルは、未知のデータや誤ったラベル(ラベルノイズ)が付与されて学習されたデータについては意図しない挙動をすることが知られている。例えば、画像認識タスクを学習した画像認識モデルでは、未知の画像については正しいクラスラベルを推定できない可能性が有る。また、豚の画像に対して誤って「うさぎ」とラベル付けされて学習が行われた画像認識モデルは、豚の画像のクラスラベルを「うさぎ」と推定してしまう可能性が有る。実用上、このような挙動をする深層学習モデルは好ましくない。
Odena, Augustus, Christopher Olah, and Jonathon Shlens. "Conditional image synthesis with auxiliary classifier gans." International conference on machine learning. 2017.
したがって、推定の誤りの原因に応じて対処が行われる必要が有る。例えば、未知データであることが原因であれば、訓練セットに対して未知データが追加される必要がある。また、ラベルノイズが原因であれば、ラベルの修正が必要である。
しかし、人間が誤りの原因を正確に推定するのは困難である。
本発明は、上記の点に鑑みてなされたものであって、深層モデルによる誤りの原因を自動的に推定可能とすることを目的とする。
そこで上記課題を解決するため、学習装置は、クラスラベル信号及びノイズ信号に基づくデータの生成を学習するデータ生成部と、訓練セット及び前記データ生成部が生成するデータを用いて、入力データが未知である度合いの推定を学習する未知度推定部と、前記訓練セットを用いて、入力データについてクラスラベルごとの第1の尤度の推定を学習する第1のクラス尤度推定部と、前記訓練セット及び前記データ生成部が生成するデータを用いて、入力データについて前記クラスラベルごとの第2の尤度の推定を学習する第2のクラス尤度推定部と、前記未知である度合い及び前記第2の尤度に基づいて前記第1の尤度を補正することで第3の尤度を生成するクラス尤度補正部と、前記第3の尤度に基づいて、前記第3の尤度に係るデータのクラスラベルを推定するクラスラベル推定部と、を有し、前記データ生成部は、前記未知である度合い、及び前記クラスラベル推定部によって推定されるクラスラベルに基づいて前記生成を学習する。
深層モデルによる誤りの原因を自動的に推定可能とすることができる。
ACGANを説明するための図である。 本発明の実施の形態におけるクラスラベル推定装置10のハードウェア構成例を示す図である。 第1の実施の形態におけるクラスラベル推定装置10の機能構成例を示す図である。 第1の実施の形態におけるラベルノイズの検出性能を示す図である。 第2の実施の形態におけるクラスラベル推定装置10aの機能構成例を示す図である。 第2の実施の形態におけるクラスラベル推定装置10aの学習時の機能構成例を説明するための図である。 第2の実施の形態におけるクラスラベル推定装置10aの推論時の機能構成例を説明するための図である。 第2の実施の形態のラベルノイズの検出性能を説明するための第1の図である。 第2の実施の形態のラベルノイズの検出性能を説明するための第2の図である。 第2の実施の形態の未知データの検出性能を説明するための第1の図である。 第2の実施の形態の未知データの検出性能を説明するための第2の図である。
本実施の形態ではACGAN(Auxiliary Classifier Generative Adversarial Network)をベースとするモデル(DNN(Deep Neural Network))が開示される。そこで、まず、ACGANについて簡単に説明する。
図1は、ACGANを説明するための図である。ACGANはccGAN(onditional GAN)の一種であり、GANにおける(Discriminator(識別器)に補助のクラス分類器(補助分類器)を付けることでクラスラベル(カテゴリラベル)を指定したデータ生成が可能になったGAN(Generative Adversarial Network)をいう。
すなわち、図1において、生成器は、ノイズ信号とクラスラベル信号からデータ(画像等)を生成する。ノイズ信号は、生成対象の画像の特徴を含むデータをいう。クラスラベル信号は生成対象の画像が示す対象物のクラスラベルを示すデータをいう。識別器は、生成器が生成したデータ(以下、「生成データ」という。)が訓練セットに含まれる実データか否か(すなわち、生成データであるか否か)を識別する。補助分類器は、識別器が識別したデータのクラスラベル(以下、単に「ラベル」という。)を推定する。
以下、図面に基づいて本発明の実施の形態を説明する。図2は、本発明の実施の形態におけるクラスラベル推定装置10のハードウェア構成例を示す図である。図2のクラスラベル推定装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、プロセッサ104、及びインタフェース装置105等を有する。
クラスラベル推定装置10での処理を実現するプログラムは、CD-ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。プロセッサ104は、CPU若しくはGPU(Graphics Processing Unit)、又はCPU及びGPUであり、メモリ装置103に格納されたプログラムに従ってクラスラベル推定装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
図3は、第1の実施の形態におけるクラスラベル推定装置10の機能構成例を示す図である。図3において、クラスラベル推定装置10は、データ生成部11、未知度推定部12、クラス尤度推定部13、クラスラベル推定部14、ラベルノイズ度推定部15及び原因推定部16等を有する。これら各部は、クラスラベル推定装置10にインストールされた1以上のプログラムが、プロセッサ104に実行させる処理により実現される。なお、図3に示される機能構成は、ACGANをベースとする。
データ生成部11は、ACGANにおける生成器である。すなわち、データ生成部11は、ノイズ信号とクラスラベル信号とを入力とし、ノイズ信号及びクラスラベル信号を用いて実データ(実際に存在するデータ)に似たデータであって、クラスラベル信号が示すラベルに対応するデータ(例えば、画像データ等)を生成する。学習時において、データ生成部11は、未知度推定部12が生成データを実データであると推定するように学習する。推論時(運用時の実データのクラスラベルの推定時)には、データ生成部11は用いられない。
未知度推定部12は、ACGANにおける識別器である。すなわち、未知度推定部12は、データ生成部11が生成した生成データ又は訓練セットに含まれる実データを入力とし、入力データに関する未知度(当該データが生成データである度合いを示す連続値)を出力する。未知度推定部12は、当該未知度について閾値処理を行う。データ生成部11が生成したデータを未知度推定部12の学習に用いることで、訓練セット外の未知データを明示的に未知であると識別可能なように未知度推定部12を学習することができる。
クラス尤度推定部13及びクラスラベル推定部14は、ACGANにおける補助分類器を構成する。
クラス尤度推定部13は、未知度推定部12に対する入力データと同じ入力データを入力とし、当該入力データについて、ラベルごとの尤度を推定(計算)する。尤度は深層学習モデルでのsoftmaxレイヤで計算される。したがって、ラベルごとの尤度は、softmaxベクトルによって表現される。クラス尤度推定部13は、生成データ及び実データの双方を用いて学習される。
クラスラベル推定部14は、クラス尤度推定部13によって推定されたラベルごとの尤度に基づいて、入力データのラベルを推定する。
ラベルノイズ度推定部15及び原因推定部16は、ACGANによる推定の誤りの原因を推定するために、第1の実施の形態において、ACGANに追加される機構である。
ラベルノイズ度推定部15は、クラス尤度推定部13によって推定されるラベルごとの尤度に基づいて、ラベルノイズ(訓練セット中のラベル誤り)の影響度合いであるラベルノイズ度を推定する。
softmaxベクトルは、ラベルノイズの影響が無い場合に[1.00,0.00,0.00]のように、いずれかの1つのクラスの尤度が圧倒的に1に近いシャープなベクトルになる。一方で、ラベルノイズの影響がある場合に[0.33,0.33,0.33]といった、いずれのクラスの尤度も似た値になるフラットなベクトルになる。したがって、softmaxベクトルのフラットさはラベルノイズ度を表すといえる。そこで、ラベルノイズ度推定部15は、例えば、softmaxベクトルの最大値、上位2つの値の差、又はエントロピー等をラベルノイズ度として出力する。
原因推定部16は、未知度推定部12によって推定された未知度と、ラベルノイズ度推定部15によって推定されたラベルノイズ度とを用いて、ラベルの推定対象のデータが未知のため誤認識する可能性があるのか、ラベルノイズのため誤認識する可能性があるのか、問題が無いため誤認識しないのか(すなわち、誤りの原因)を推定する。例えば、原因推定部16は、未知度、ラベルノイズ度それぞれに対して閾値処理を行うなどして出力を決定する。
当該閾値処理の具体例について説明する。未知度は未知データに対してのみ大きくなる指標となり、ラベルノイズ度はラベルノイズのデータのみで大きくなる指標となることが期待されていることを前提とし、未知度に対する閾値α及びラベルノイズ度に対する閾値βがそれぞれ設定される。原因推定部16は、未知度が閾値αより高い場合は未知データであることを原因として推定し、ラベルノイズ度が閾値βより高い場合はラベルノイズを原因として推定する。また、未知度が閾値α以下であり、かつ、ラベルノイズ度が閾値β以下である場合は、(ラベルの推定について)問題が無いと推定する。
上記ように、図3の構成には、ACGANによる推定の誤りの原因を推定するための機構が含まれている。
しかし、上記の構成については、本願発明者により、ラベルノイズの検出性能が低く、未知のデータについてもラベルノイズとして判定されてしまうことが確認されている。
図4は、第1の実施の形態におけるラベルノイズの検出性能を示す図である。図4おいて、縦軸はラベルノイズ検出性能の指標(AUROC)である。AUROCは、1に近いほど性能が良いことを表す。また、チャンスレートで正解するような当て推量で判断する検出器だとAUROCは0.5になる。
また、横軸における「max_prob」、「diff_prob」、「entropy」は、順番に、softmaxベクトルの最大値がラベルノイズ度がとされる場合、上位2つの値の差がラベルノイズ度がとされる場合、エントロピーがラベルノイズ度がとされる場合に対応する。図4上の各プロットは、これら3つの場合におけるデータセットごとのラベルノイズの検出性能(AUROC)を示す。
図4によれば、「max_prob」、「diff_prob」及び「entropy」のいずれの場合についても、多くのデータセットについてのAUROCが0.5付近であり、必ずしも良い性能が得られているとはいえない。このレベルの性能では、誤りの原因の推定についても高い性能は期待できない。したがって、図4の深層モデルの運用保守を行う際に適切な改善ができず、コストがかかったり効率的に不具合の修正が行えなかったりする可能性がある。
この原因として、本願発明者は、ラベルノイズ度推定部15の入力として、未知のデータ(すなわち、データ生成部11が生成したデータ)に基づくフラットなsoftmaxベクトルが含まれているためであると考察した。すなわち、ラベルノイズは、本来、既知のデータに対して定義される概念であるにも関わらず、第1の実施の形態では、既知と未知のデータを総合した評価値が用いられている。具体的には、本来、ラベルごとの尤度として取得したいsoftmaxベクトルは、p(y│x,D={訓練セット})であるが、実際に得られるsoftmaxベクトルは、p(y│x,D={訓練セット、生成でデータ})である。
そこで、次に、上記の考察に基づいて改良された第2の実施の形態について説明する。第2の実施の形態では第1の実施の形態と異なる点について説明する。第2の実施の形態において特に言及されない点については、第1の実施の形態と同様でもよい。
図5は、第2の実施の形態におけるクラスラベル推定装置10aの機能構成例を示す図である。図5中、図3と同一又は対応する部分には同一符号を付し、その説明は適宜省略する。
図5において、クラスラベル推定装置10aは、図3の構成に対し、シャープ尤度推定部17及びクラス尤度補正部18を更に有する。また、クラス尤度推定部13に変更が加えられる。
具体的には、第2の実施の形態において、クラス尤度推定部13は、訓練セットに含まれる実データのみで学習される。
シャープ尤度推定部17は、入力データについてラベルごとの尤度を推定(計算)する。ラベルごとの尤度は深層学習モデルのsoftmaxレイヤで計算される。クラス尤度推定部13は、生成データ及び実データの双方を用いて学習される。以上の点について、シャープ尤度推定部17は、第1の実施の形態におけるクラス尤度推定部13と同じである。但し、シャープ尤度推定部17は、シャープなsoftmaxベクトルを推定(出力)する。斯かる推定を行えるようにするため、シャープ尤度推定部17は、推定結果のsoftmaxベクトルがシャープになるように学習してもよい。このような学習の方法の一例として、softmaxベクトルのエントロピーの項を損失関数の制約項とする方法がある。シャープなベクトルであることとエントロピーが小さいことは同義であるため、エントロピーが小さくなるように学習することでシャープなベクトルを推定することが期待される。
又は、シャープ尤度推定部17は、第1の実施の形態におけるクラス尤度推定部13と同様の学習を行った上で、当該学習に基づく推定結果(以下、「当初の推定結果」という。)であるsoftmaxベクトルのうち、フラットなsoftmaxベクトルに対してシャープになるような変換を行ってもよい。シャープになるような変換は、例えば、以下の(1)~(3)の手順で行われてもよい。
(1)当初の推定結果のsoftmaxベクトルの最大値となる次元を特定する。
(2)当初の推定結果のsoftmaxベクトルと同じサイズの[0,…,0]というベクトルを用意する。
(3)(2)で用意したベクトルのうち、(1)で特定した次元の値を1に変更する。
他にも、推定結果のsoftmaxベクトルの最大値-ε(εは10-9等、微小な値)を閾値にして、当該softmaxベクトルの各次元を2値化する等、変換には様々な方法が考えられる。
クラス尤度補正部18は、クラス尤度推定部13によって推定された尤度を、未知度推定部12で推定された未知度とシャープ尤度推定部17によって推定された尤度とに基づいて補正する。補正方法として、例えば、以下の数1の(1)のように未知度で重みをつけて足し合わせる方法(すなわち、加重和を補正値とする方法)や、数1の(2)のように、クラス尤度推定部13による推定された尤度とシャープ尤度推定部17によって推定された尤度とを未知度に対する条件に応じて選択する方法が挙げられる。クラス尤度補正部18は、ラベルノイズ度推定部15への出力とクラスラベル推定部14への出力とで異なる方法(でアルゴリズム)を用いてクラス尤度推定部13によって推定された尤度を補正してもよい。
Figure 0007428267000001
但し、rfは、未知度である。softmaxは、クラス尤度推定部13からの出力(softmaxベクトル)である。softmaxsharpは、シャープ尤度推定部17からの出力(softmaxベクトル)である。thは、閾値である。
なお、数1において、(2-1)は、「実データでないと推定されたデータに対してシャープ尤度推定部17の出力を選択的に用いる(当該出力を補正後の尤度とする)」ことを示す。(2-2)は、「実データと推定されたに対しクラス尤度推定部13の出力を選択的に用いる(当該出力を補正後の尤度とする)」ことを示す。
シャープ尤度推定部17及びクラス尤度補正部18の追加により、原因推定部16による推定精度の向上も期待される。すなわち、未知度が閾値αより高く、かつ、ラベルノイズ度が閾値βより高いケースも論理的には考えられるが、シャープ尤度推定部17及びクラス尤度補正部18によりこのようなケースが無くなることが期待されるからである。
なお、第2の実施の形態において、クラスラベル推定部14及びラベルノイズ度推定部15は、クラス尤度推定部13からの出力ではなくクラス尤度補正部18からの出力を入力とする点において第1の実施の形態と異なる。
図6は、第2の実施の形態におけるクラスラベル推定装置10aの学習時の機能構成例を説明するための図である。図6中、図5と同一部分には同一符号が付されている。図6に示される各部のうち、データ生成部11、未知度推定部12、シャープ尤度推定部17及びクラス尤度推定部13が学習の対象となるニューラルネットワークである。一方、クラス尤度補正部18及びクラスラベル推定部14は、学習時においては、データ生成部11の学習に利用されるアルゴリズムである。
データ生成部11は、従来のACGANと同様に、未知度推定部12によって未知度が低く推定されるように、かつ、クラスラベル推定部14でクラスラベル信号と同じラベルが推定されるように学習する。
未知度推定部12は、従来のACGANと同様に、入力データがデータ生成部11の出力なのか実データなのかを識別できるように学習する。
シャープ尤度推定部17は、生成データ及び訓練セット内の実データを入力とし、入力データのラベルの尤度が相対的に高くなるように学習する。例えば、シャープ尤度推定部17は、正解クラスの尤度=99%のように圧倒的に当該尤度が高くなるように学習する。なお、入力データのラベルとは、入力データが生成データの場合にはクラスラベル信号が示すラベルであり、入力データが訓練セット内の実データの場合には、訓練セットにおいて実データに付与されたラベルである。
クラス尤度推定部13は、入力データである実データに付与されたラベルの尤度が相対的に高くなるように学習する。なお、学習時において、クラス尤度推定部13には生成データは入力されない。
クラス尤度補正部18は、クラス尤度推定部13によって推定されたラベルごとの尤度を、未知度推定部12で推定された未知度とシャープ尤度推定部17によって推定されたラベルごとの尤度とに基づいて補正する。
クラスラベル推定部14は、クラス尤度補正部18によって補正されたラベルごとの尤度に基づいて、入力データのラベルを推定する。推定結果は、データ生成部11の学習に用いられる。
図7は、第2の実施の形態におけるクラスラベル推定装置10aの推論時の機能構成例を説明するための図である。図7中、図5と同一部分には同一符号が付されている。図7に示されるように、推論時において、データ生成部11は利用されない。また、推論時における実データは、ラベルが付与されていない、ラベルの推定対象のデータ(例えば、実運用において利用されるデータ)である。
推論時における各部の処理は、上記において説明した通りである。すなわち、未知度推定部12は、実データの未知度を推定する。シャープ尤度推定部17及びクラス尤度推定部13のそれぞれは、実データについてラベルごとの尤度を推定する。クラス尤度補正部18は、クラス尤度推定部13による推定結果であるsoftmaxベクトルを、未知度推定部12によって推定された未知度とシャープ尤度推定部17による推定結果とに基づいて補正する。クラスラベル推定部14は、補正されたラベルごとの尤度に基づいて実データのラベルを推定する。ラベルノイズ度推定部15は、補正されたラベルごとの尤度に基づいてラベルノイズ度を推定する。原因推定部16は、未知度及びラベルノイズ度に対する閾値処理によって誤りの原因(未知、ラベルノイズ又は問題無し)を推定する。
図8及び図9は、第2の実施の形態のラベルノイズの検出性能を説明するための図である。図8及び図9の見方は、図4と同様である。但し、図8及び図9の横軸において、「ベースモデル」は、第1の実施の形態の構成に対応する。「加重和」及び「選択」は、第2の実施の形態に対応する。「加重和」は、クラス尤度補正部18による補正が未知度による加重和によって行われるケースに対応する。「選択」は、クラス尤度補正部18による補正が未知度に基づくいずれか一方の尤度の選択によって行われるケースに対応する。
なお、図8と図9とは、ラベルノイズの種類が異なる。図8は、ラベルノイズが「Symmetric noise」である場合に対応し、図9は、ラベルノイズが「Asymmetric noise」である場合に対応する。「Symmetric noise」は、データに対して用意されたラベルのそれぞれについて等確率に誤るラベルノイズをいう。例えば、「犬,ねこ,うさぎ,サル」という4つのクラスがあった場合に、犬を犬以外の3クラスに等確率で誤り、ねこをねこ以外の3クラスに等確率に誤り、…といったラベルノイズが「Symmetric noise」である。一方で、「Asymmetric noise」は、「Symmetric noise」とは異なり、誤る確率が等確率にならないラベルノイズをいう。例えば、「犬,ねこ,うさぎ,サル」という4つのクラスがあった場合に、犬をねことは誤るがうさぎやサルとは誤らないようなラベルノイズが「Asymmetric noise」である。
図8及び図9のいずれにおいても、第2の実施の形態によれば、ラベルノイズの検出性能(AUROC)がチャンスレート(=0.5)以下であるデータセットが少なくなったことが分かる。したがって、第2の実施の形態によって、ラベルノイズの検出性能が向上したことが検証されたと考えられる。
また、図10及び図11は、第2の実施の形態の未知データの検出性能を説明するための図である。図10及び図11の縦軸は、未知データの検出性能(AUROC)である。また、横軸の「rf」はベースモデルによる未知度に基づく検出性能に対応する、「ex rf」は、第2の実施の形態による未知度に基づく検出性能に対応する。更に、図10と図11との関係は、図8と図9との関係と同じである。それ以外の横軸は、ラベルノイズ度に基づく未知データの検出性能に対応する。
第2の実施の形態では、未知度とラベルノイズ度がそれぞれ独立に評価されるため、未知データでラベルノイズ度が低くなる保証はないが、図10及び図11によれば、第2の実施の形態において、未知データについてラベルノイズ度による検出性能が低くなっていることが分かる。すなわち、ラベルノイズが未知データに反応しなくなったため、誤りの検出結果に未知データとラベルノイズが誤りの原因として同時に推定される可能性が低いことを期待することができる。換言すれば、ラベルノイズ度に基づいて検出される誤りがラベルノイズであること(未知データではないこと)が保証されることを期待することができる。
なお、「rf」の列と「ex rf」の列とについては、未知データの検出性能は類似している。このことは、ラベルごとの尤度の推定方法を変化させたことによる悪影響が未知度での未知データの検出に対してほとんど無いことを示す。
上述したように、第2の実施の形態によれば、タスク(ラベルの推定)を実行しつつ、深層モデルによる誤りの原因を自動的に推定可能とすることができる。また、ラベルノイズの評価値としてモデルの妥当性を担保することができる。更に、ラベルノイズの評価値であるsoftmaxのフラットさが未知のデータに反応してしまうのを防ぎ(未知データに対してsoftmaxベクトルがフラットになることを避けて)、ラベルノイズによる誤りの推定の性能を高めることができる。
なお、第2の実施の形態において、クラスラベル推定装置10aは、学習装置及びクラスラベル推定装置10の一例である。クラス尤度推定部13は、第1のクラス尤度推定部の一例である。シャープ尤度推定部17は、第2のクラス尤度推定部の一例である。
以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10、10a クラスラベル推定装置
11 データ生成部
12 未知度推定部
13 クラス尤度推定部
14 クラスラベル推定部
15 ラベルノイズ度推定部
16 原因推定部
17 シャープ尤度推定部
18 クラス尤度補正部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 プロセッサ
105 インタフェース装置
B バス

Claims (8)

  1. クラスラベル信号及びノイズ信号に基づくデータの生成を学習するデータ生成部と、
    訓練セット及び前記データ生成部が生成するデータを用いて、入力データが未知である度合いの推定を学習する未知度推定部と、
    前記訓練セットを用いて、入力データについてクラスラベルごとの第1の尤度の推定を学習する第1のクラス尤度推定部と、
    前記訓練セット及び前記データ生成部が生成するデータを用いて、入力データについて前記クラスラベルごとの第2の尤度の推定を学習する第2のクラス尤度推定部と、
    前記未知である度合い及び前記第2の尤度に基づいて前記第1の尤度を補正することで第3の尤度を生成するクラス尤度補正部と、
    前記第3の尤度に基づいて、前記第3の尤度に係るデータのクラスラベルを推定するクラスラベル推定部と、
    を有し、
    前記データ生成部は、前記未知である度合い、及び前記クラスラベル推定部によって推定されるクラスラベルに基づいて前記生成を学習する、
    ことを特徴とする学習装置。
  2. 前記第2のクラス尤度推定部は、前記クラスラベル信号が示すクラスラベル又は前記訓練セットに付与されたクラスラベルに対する前記第2の尤度が相対的に高くなるように前記クラスラベルごとの第2の尤度の推定を学習する、
    ことを特徴とする請求項1記載の学習装置。
  3. 前記クラス尤度補正部は、前記第1の尤度と前記第2の尤度との加重和、又は前記第1の尤度若しくは前記第2の尤度を前記第3の尤度として生成する、
    ことを特徴とする請求項1又は2記載の学習装置。
  4. 入力データが未知である度合いを推定する未知度推定部と、
    訓練セットを用いた学習に基づいて、前記入力データについてクラスラベルごとの第1の尤度を推定する第1のクラス尤度推定部と、
    クラスラベル信号及びノイズ信号に基づいて生成されたデータ及び前記訓練セットを用いた学習に基づいて、前記入力データについて前記クラスラベルごとの第2の尤度を推定する第2のクラス尤度推定部と、
    前記未知である度合い及び前記第2の尤度に基づいて前記第1の尤度を補正することで第3の尤度を生成するクラス尤度補正部と、
    前記第3の尤度に基づいて、前記訓練セットにおけるラベルノイズの度合いを推定するラベルノイズ度推定部と、
    前記未知の度合い及び前記ラベルノイズの度合いに基づいて、前記入力データに関する誤りの原因を推定する原因推定部と、
    を有することを特徴とする推定装置。
  5. クラスラベル信号及びノイズ信号に基づくデータの生成を学習するデータ生成手順と、
    前記データ生成手順が生成するデータ及び訓練セットを用いて、入力データが未知である度合いの推定を学習する未知度推定手順と、
    前記訓練セットを用いて、入力データについてクラスラベルごとの第1の尤度の推定を学習する第1のクラス尤度推定手順と、
    前記データ生成手順が生成するデータ及び前記訓練セットを用いて、入力データについて前記クラスラベルごとの第2の尤度の推定を学習する第2のクラス尤度推定手順と、
    前記未知である度合い及び前記第2の尤度に基づいて前記第1の尤度を補正することで第3の尤度を生成するクラス尤度補正手順と、
    前記第3の尤度に基づいて、前記第3の尤度に係るデータのクラスラベルを推定するクラスラベル推定手順と、
    をコンピュータが実行し、
    前記データ生成手順は、前記未知である度合い、及び前記クラスラベル推定手順によって推定されるクラスラベルに基づいて前記生成を学習する、
    ことを特徴とする学習方法。
  6. 入力データが未知である度合いを推定する未知度推定手順と、
    訓練セットを用いた学習に基づいて、前記入力データについてクラスラベルごとの第1の尤度を推定する第1のクラス尤度推定手順と、
    クラスラベル信号及びノイズ信号に基づいて生成されたデータ及び前記訓練セットを用いた学習に基づいて、前記入力データについて前記クラスラベルごとの第2の尤度を推定する第2のクラス尤度推定手順と、
    前記未知である度合い及び前記第2の尤度に基づいて前記第1の尤度を補正することで第3の尤度を生成するクラス尤度補正手順と、
    前記第3の尤度に基づいて、前記訓練セットにおけるラベルノイズの度合いを推定するラベルノイズ度推定手順と、
    前記未知の度合い及び前記ラベルノイズの度合いに基づいて、前記入力データに関する誤りの原因を推定する原因推定手順と、
    をコンピュータが実行することを特徴とする推定方法。
  7. 請求項1乃至3いずれか一項記載の学習装置としてコンピュータを機能させることを特徴とするプログラム。
  8. 請求項4記載の推定装置としてコンピュータを機能させることを特徴とするプログラム。
JP2022556308A 2020-10-21 2020-10-21 学習装置、推定装置、学習方法、推定方法及びプログラム Active JP7428267B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/039602 WO2022085129A1 (ja) 2020-10-21 2020-10-21 学習装置、推定装置、学習方法、推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2022085129A1 JPWO2022085129A1 (ja) 2022-04-28
JP7428267B2 true JP7428267B2 (ja) 2024-02-06

Family

ID=81289834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022556308A Active JP7428267B2 (ja) 2020-10-21 2020-10-21 学習装置、推定装置、学習方法、推定方法及びプログラム

Country Status (3)

Country Link
US (1) US20240005655A1 (ja)
JP (1) JP7428267B2 (ja)
WO (1) WO2022085129A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240707A1 (ja) 2020-05-28 2021-12-02 日本電気株式会社 データ分類システム、データ分類方法および記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5905375B2 (ja) * 2012-10-25 2016-04-20 日本電信電話株式会社 誤分類検出装置、方法、及びプログラム
US11741693B2 (en) * 2017-11-15 2023-08-29 Palo Alto Research Center Incorporated System and method for semi-supervised conditional generative modeling using adversarial networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240707A1 (ja) 2020-05-28 2021-12-02 日本電気株式会社 データ分類システム、データ分類方法および記録媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KANEKO, Takuhiro, USHIKU, Yoshitaka and HARADA, Tatsuya,Label-Noise Robust Generative Adversarial Networks,2019 IEEE/CVF Conference on Computer Vision and PatternRecognition (CVPR) [Online],IEEE,2019年06月15日,pp. 2462-2471,[検索日 17.12.2020] インターネット: <URL: https://ieeexplore.ieee.org/abstract/document/8954304>,<DOI: 10.1109/CVPR.2019.00257>
ODENA, Augustus, OLAH, Christopher and SHLENS, Jonathon,Conditional Image Synthesis with Auxiliary Classifier GANs,Proceedings of the 34th International Conference on Machine Learning [Online],PMLR,2017年08月06日,Vol. 70,pp. 2642-2651,[検索日 17.12.2020] インターネット: <URL: http://proceedings.mlr.press/v70/odena17a.html>
THEKUMPARAMPIL, K, Kiran, KHETAN, Ashish, LIN, Zinan and OH, Sewoong,Robustness of conditional GANs to noisy labels,Advances in Neural Information Processing Systems,Curran Associates, Inc.,2018年12月02日,Vol. 31,pp. 10271-10282,[検索日: 17.12.2020] インターネット: <URL: https://proceedings.neurips.cc/paper/2018/file/565e8a413d0562de9ee4378402d2b481-Paper.pdf>

Also Published As

Publication number Publication date
US20240005655A1 (en) 2024-01-04
WO2022085129A1 (ja) 2022-04-28
JPWO2022085129A1 (ja) 2022-04-28

Similar Documents

Publication Publication Date Title
US20180308012A1 (en) Method and device for improving the robustness against &#34;adversarial examples&#34;
WO2019102962A1 (ja) 学習装置、学習方法、及び、記録媒体
JP7327077B2 (ja) 路上障害物検知装置、路上障害物検知方法、及び路上障害物検知プログラム
JP7047498B2 (ja) 学習プログラム、学習方法および学習装置
JP7215390B2 (ja) 路上障害物検知装置、路上障害物検知方法、及び路上障害物検知プログラム
US20200042883A1 (en) Dictionary learning device, dictionary learning method, data recognition method, and program storage medium
JP7428267B2 (ja) 学習装置、推定装置、学習方法、推定方法及びプログラム
JP7331940B2 (ja) 学習装置、推定装置、学習方法および学習プログラム
WO2019215904A1 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体
US20230186118A1 (en) Computer-readable recording medium storing accuracy estimation program, device, and method
JP6691079B2 (ja) 検知装置、検知方法および検知プログラム
US20220261690A1 (en) Computer-readable recording medium storing determination processing program, determination processing method, and information processing apparatus
US20230059265A1 (en) Computer-readable recording medium storing machine learning program, method of machine learning, and machine learning apparatus
KR102475730B1 (ko) Tta를 이용한 분포 외 데이터 검출 방법 및 이를 수행하는 장치
JP2020052935A (ja) 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム
JP7348945B2 (ja) 情報処理方法、および、情報処理システム
US20230334837A1 (en) Object detection device, learned model generation method, and recording medium
KR20180082680A (ko) 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치
US20220391762A1 (en) Data generation device, data generation method, and program recording medium
US11854204B2 (en) Information processing device, information processing method, and computer program product
WO2021215261A1 (ja) 情報処理方法、情報処理装置、及びプログラム
KR102561613B1 (ko) Ste 및 최적 중단시점 자동 결정 알고리즘을 적용한 dip를 사용하여 노이즈 이미지를 디노이징하는 방법 및 장치
JPWO2021038840A5 (ja)
JP7505639B2 (ja) クラスラベル推定装置、誤り原因推定方法、及びプログラム
JP4887661B2 (ja) 学習装置及び学習方法、並びにコンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240108

R150 Certificate of patent or registration of utility model

Ref document number: 7428267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150