JP7283554B2 - 学習装置、学習方法、及び、プログラム - Google Patents

学習装置、学習方法、及び、プログラム Download PDF

Info

Publication number
JP7283554B2
JP7283554B2 JP2021548298A JP2021548298A JP7283554B2 JP 7283554 B2 JP7283554 B2 JP 7283554B2 JP 2021548298 A JP2021548298 A JP 2021548298A JP 2021548298 A JP2021548298 A JP 2021548298A JP 7283554 B2 JP7283554 B2 JP 7283554B2
Authority
JP
Japan
Prior art keywords
data set
recognition
learning
partial
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021548298A
Other languages
English (en)
Other versions
JPWO2021059527A5 (ja
JPWO2021059527A1 (ja
Inventor
周平 吉田
真 寺尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021059527A1 publication Critical patent/JPWO2021059527A1/ja
Publication of JPWO2021059527A5 publication Critical patent/JPWO2021059527A5/ja
Application granted granted Critical
Publication of JP7283554B2 publication Critical patent/JP7283554B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像に含まれる物体を認識する技術に関する。
近年、機械学習を用いた認識技術は、画像認識の分野を中心に極めて高い性能を示すようになっている。機械学習に基づく認識技術の高い精度は、大量の正解付き学習データに支えられている。しかし、データの収集と正解付けにかかるコストは高く、特に多クラス分類の正解付けにかかるコストは、クラス数が増えるごとに増大する。
多クラス分類において、全ての認識対象に対して正解付けを行う代わりに、一部の認識対象のみに対して正解付けをした部分ラベルのデータセットを用いる手法が非特許文献1に提案されている。
Cid-Sueiro,J.,Garcia-Garcia,D.、and Santos-Rodoriguez、R., "Consistency of losses for learning from weak labels", In ECML-PKDD,2014.
しかし、上記の文献は、複数の部分データセットにより構成される学習データを用いて認識モデルを学習する方法を提示してはいない。
本発明の1つの目的は、複数の部分データセットの集合として構成される学習データを用いる場合に、適切な交差行列を用いて損失を算出し、認識モデルの学習を行うことにある。
上記の課題を解決するため、本発明の一つの観点は、学習用データセットを用いて学習を行う学習装置であって、
前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
前記学習装置は、
前記学習用データセットを供給するデータセット供給手段と、
供給された学習用データセット中の認識対象データに対する認識結果を出力する認識手段と、
前記学習用データセットに基づいて交差行列を算出する交差行列算出手段と、
前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出する認識損失算出手段と、
前記認識損失に基づいて前記認識手段のパラメータを更新する更新手段と、
を備える。
本発明の他の観点は、学習用データセットを用いた学習方法であって、
前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
前記学習方法は、
前記学習用データセットを供給し、
認識手段により、供給された学習用データセット中の認識対象データに対する認識結果を出力し、
前記学習用データセットに基づいて交差行列を算出し、
前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出し、
前記認識損失に基づいて前記認識手段のパラメータを更新する。
本発明のさらにほかの観点は、学習用データセットを用いた学習処理のプログラムであって、
前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
前記プログラムは、
前記学習用データセットを供給し、
認識手段により、供給された学習用データセット中の認識対象データに対する認識結果を出力し、
前記学習用データセットに基づいて交差行列を算出し、
前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出し、
前記認識損失に基づいて前記認識手段のパラメータを更新する学習処理をコンピュータに実行させる。
本発明によれば、複数の部分データセットの集合として構成される学習データを用いる場合に、適切な交差行列を用いて損失を算出し、認識モデルの学習を行うことが可能となる。
多クラス分類問題の場合の通常のデータセットとエキスパートデータセットの例を示す。 物体検知問題の場合の通常のデータセットとエキスパートデータセットの例を示す。 第1実施形態の学習装置のハードウェア構成を示すブロック図である。 第1の学習装置の機能構成を示すブロック図である。 第1の学習装置による学習処理のフローチャートである。 第2の学習装置の機能構成を示すブロック図である。 カテゴリー事前分布の推定方法を説明する図である。 第2の学習装置による交差行列算出処理のフローチャートである。 多クラス分類の実施例に係る学習装置の機能構成を示すブロック図である。 物体検知の実施例に係る学習装置の機能構成を示すブロック図である。 第2実施形態に係る学習装置の機能構成を示すブロック図である。
以下、図面を参照して、本発明の好適な実施形態について説明する。なお、以下の説明においては、表記の便宜上、文字の上に付く記号を文字の前に付して表記する。例えば、集合Aの補集合は、文字「A」の前に「-(バー)」を付して、「A」と記す。
[エキスパートデータセット]
まず、本発明の実施形態において使用するエキスパートデータセットについて説明する。
[1]多クラス分類問題の場合
まず、多クラス分類問題の場合について説明する。「エキスパートデータセット」とは、多クラス分類のモデルを学習する際に使用できる学習用データセットであり、複数の部分データセットにより構成されるものである。具体的に、エキスパートデータセットは、以下の条件を具備するように構成される。
(A)複数の部分データセットの各々には、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられている。
(B)認識対象とする全てのカテゴリーが、複数の部分データセットのいずれかに割り当てられている。
(C)部分データセットに含まれる各データには、当該部分データセットに割り当てられた責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解ラベルが付与されている。
図1は、多クラス分類問題の場合の通常のデータセットと、エキスパートデータセットの例を示す。図1(A)は、学習に使用される通常のデータセットを示す。いま、画像データに基づいて100クラスの多クラス分類を行う物体認識モデルを学習するものとする。通常の学習用データセットとしては、用意された画像データの各々について、100クラス、即ち、100カテゴリーのうちの1つが正解ラベルとして割り当てられる(「正解付け」と呼ぶ。)。よって、通常のデータセットを使用する場合、多クラスDBに含まれる各画像データに対して、100カテゴリーのうちのいずれかを正解付けする作業が必要となるが、これは実際にはかなりの労力を要する。
図1(B)は、エキスパートデータセットの例を示す。なお、このエキスパートデータセットでも、図1(A)の例と同様に全体で100クラスの多クラス分類を行うものとする。エキスパートデータセットでは、複数の部分データセットを用意する。図1(B)の例では、「水生哺乳類」、「人」などの複数の部分データセットが用意される。そして、各部分データセットには、それぞれ責任範囲が設定される。「水生哺乳類」の部分データセットには、5種類の水生哺乳類、「ビーバー」、「イルカ」、「カワウソ」、「アザラシ」、「クジラ」が責任範囲として割り当てられる。「人」の部分データセットには、5種類の人、「赤ん坊」、「男の子」、「女の子」、「男性」、「女性」が責任範囲として割り当てられる。ここで、責任範囲は、認識対象とする全てのカテゴリーが、複数の部分データセットのいずれかに割り当てられるように決定されている。即ち、いずれの部分データセットにも割り当てられていないカテゴリーが存在しないように、100カテゴリーが複数の部分データセットに割り当てられている。言い換えると、複数の部分データセットにより、100カテゴリーの認識対象全てが網羅されるように責任範囲が決定されている。これにより、エキスパートデータセットによっても、図1(A)に示す通常のデータセットと同様に、100クラスの多クラス分類の学習が可能となる。
但し、エキスパートデータセットでは、複数の部分データセットを用いるため、通常のデータセットとは正解データの構造が異なる。具体的に、各部分データセットに含まれる画像データに対しては、その責任範囲に属するカテゴリーのいずれかを示す正解ラベル、又は、その画像データのカテゴリーがその部分データセットの責任範囲に属さないことを示す正解ラベルが用意される。図1(B)の例では、「水生哺乳類」の部分データセットに含まれる画像データに対しては、「ビーバー」、「イルカ」、「カワウソ」、「アザラシ」、「クジラ」のいずれかを示す正解ラベル、又は、その画像データのカテゴリーがその部分データセットの責任範囲に属さないことを示す「水生哺乳類でない」という正解ラベルが用意される。
このようなエキスパートデータセットを用いると、学習データに対する正解付けの作業負荷が大幅に軽減される。図1(A)に示す通常のデータセットの場合、用意された全ての画像データに対して100カテゴリーのいずれかを正解ラベルとして付与する必要がある。例えば、学習データとして6万枚の画像データが用意された場合、それら全てに対して100カテゴリーのいずれかを正解ラベルとして割り当てる必要がある。これに対して、図1(B)に示すエキスパートデータセットの場合には、6万枚の画像データを例えば20の集合に分け、20個の部分データセットを用意する。また、認識対象となる100カテゴリーを20の集合に分け、各部分データセットに責任範囲として5カテゴリーを割り当てる。こうすると、図1(B)に示すように、各部分データセットに属する画像データに対しては、その部分データセットに属する5カテゴリーのいずれかの正解ラベル、又は、その部分データセットの責任範囲に属さないことを示す正解ラベルの合計6個の正解ラベルのいずれかを付与すればよい。即ち、各部分データセットに含まれる3000枚の画像データに対して、6個の正解ラベルのいずれかを付与すればよい。
次に、上記の通常のデータセット及びエキスパートデータセットのデータ構造について説明する。いま、データ空間Xの要素xを正解候補集合Yの要素である正解カテゴリーyに分類する多クラス分類問題を考える。
(1)多クラス分類問題における通常のデータセット
通常のデータセットは、データ空間Xの要素であるデータxと、正解候補集合Yの要素である正解カテゴリーyとの組(x,y)の集合D
Figure 0007283554000001
である。
(2)多クラス分類問題におけるエキスパートデータセット
各部分データセットには、それが専門とする正解候補集合Zが定まっている。但し、正解候補集合Zは正解候補集合Yの部分集合である。
部分データセットは、データ空間Xの要素である(ラベルの付いていない)データxと、ラベルzと、部分データセットを表す正解候補集合Zの組(x,z,Z)の集合である。ここで、zは、正解候補集合Zの要素であるか、z=Zの補集合(便宜上、「Z」と記す。)である。zが正解候補集合Zの要素であるとき、データxはカテゴリーzに属する。z=Zのとき、データxは正解候補集合Zに含まれないいずれかのカテゴリーに属する。
学習時には、複数の部分データセットを集めて、それぞれの部分データセットに対応する各正解候補集合Zの要素を集めると、正解候補集合Yの要素が尽くされているようにする。
[2]物体検知問題の場合
次に、物体検知問題の場合について説明する。エキスパートデータセットは、物体検知問題にも使用することができる。物体検知問題とは、画像データ中の物体候補(領域提案/デフォルトボックス)が物体か否か、物体であれば何の物体かを分類し、その座標と位置を推定する問題である。なお、物体検知問題は、デフォルトボックス単位で考えれば、そのデフォルトボックスに対する多クラス分類と考えることができる。
図2(A)は、物体検知問題の場合の通常のデータセットの例を示す。この例では、検知対象の物体クラスとして、「バッグ」、「人」、「車いす」が用意される。なお、これらに加えて、物体検知においては、検知対象カテゴリーに属するいずれの物体も存在しないことを示す「背景」クラスが用意される。なお、「背景」は検知対象カテゴリーではないことが前提となる。通常のデータセットでは、学習用データとして使用される全ての画像データに含まれるデフォルトボックスに対して、これら4つのクラスのいずれかを割り当てた正解ラベルが用意される。
図2(B)は、物体検知問題の場合のエキスパートデータセットの例を示す。物体検知の場合でも、エキスパートデータセットの基本的な概念は前述の多クラス分類の場合と同様であり、エキスパートデータセットは前述の条件(A)~(C)を具備する。図2(B)の例では、「バッグ」と「人」を責任範囲とする部分データセットDS1と、「車いす」を責任範囲とする部分データセットDS2が用意されている。この例では、部分データセットDS1については、正解ラベルとして「バッグ」、「人」、「バッグと人でない」、「背景」が用意される。部分データセットDS2については、正解ラベルとして、「車いす」、「車いすでない」、「背景」が用意される。
次に、上記の通常のデータセット及びエキスパートデータセットのデータ構造を説明する。いま、入力画像に含まれる物体の種類とバウンディングボックスを出力する物体検知問題を考える。ここで、入力画像はデータ空間Xの要素xである。1つの画像xに含まれる検知対象物体の数は任意である。正解データは、(検知対象カテゴリー集合Yの要素である)カテゴリーyとバウンディングボックスbの組(y,b)で表現される。バウンディングボックスの表現方法は、ここでは任意とする。なお、通常、バウンディングボックスは、その中心座標(あるいは左上点座標)と縦横の長さの組で表現される。
(1)物体検知問題における通常のデータセット
通常のデータセットは、画像xと、画像xに含まれるK個の検知対象物体全ての集合
Figure 0007283554000002
との組
Figure 0007283554000003
の集合
Figure 0007283554000004
である。
(2)物体検知問題におけるエキスパートデータセット
各部分データセットには、それが専門とする正解候補集合Zが定まっている。但し、正解候補集合Zは正解候補集合Yの部分集合である。
画像xには、K個の検知対象物体
Figure 0007283554000005
のうち、カテゴリーyが正解候補集合Zに属するもののみが正解として与えられている。
各サンプルは、多クラス分類問題と同様の3つの組
Figure 0007283554000006
である(但し、z∈Z)。
学習時には、複数の部分データセットを集めて、それぞれの部分データセットに対応する正解候補集合Zの要素を集めると、正解候補集合Yの要素が尽くされているようにする。
[3]エキスパートデータセットの生成について
図1(B)の例では、学習データとして用意された6万枚の画像データを均等に20の部分データセットに分けているが、各部分データセットに割り当てる画像データ数は均等である必要はなく、部分データセット毎に異なっていてもかまわない。また、図1(B)の例では、認識対象の全てのカテゴリー(100クラス)を20の部分データセットに責任範囲として均等に分けているが、各部分データセットに責任範囲として割り当てるカテゴリー数は均等である必要はない。即ち、各部分データセット毎に、責任範囲として割り当てられるカテゴリー数が異なっていてもよい。また、ある部分データセットに対して全てのカテゴリー、即ち、上記の例では100個のカテゴリーが割り当てられていてもよい。
また、上記の説明では、所定数の認識対象を最初に複数の部分データセットに分け、各々に責任範囲を設定してエキスパートデータセットを生成している。このように、認識対象のカテゴリー数が最初から決まっている場合に限らず、認識対象を後から追加するような場合でもエキスパートデータセットを生成することができる。例えば、図2(B)の例に示すように、最初は「バッグ、人」を責任範囲とする部分データセットDS1と、「車いす」を責任範囲とする部分データセットDS2を含むエキスパートデータセットを用いて学習を行い、物体検知を行っているものとする。この状況で、新たに「荷物カート」、「ベビーカー」などを認識対象に追加するような場合には、それらを責任範囲とする新たな部分データセットを追加すればよい。その場合、既存の部分データセットDS1、DS2に含まれる画像データに対して「荷物カート」や「ベビーカー」などの正解付けを新たに行う必要はないので、新たな認識対象に対する学習用データを効率的に用意することが可能となる。
[第1実施形態]
次に、エキスパートデータセットを用いた学習装置の実施形態について説明する。
[1]ハードウェア構成
図3は、第1実施形態に係る学習装置のハードウェア構成を示すブロック図である。図示のように、学習装置100は、インタフェース102と、プロセッサ103と、メモリ104と、記録媒体105と、データベース(DB)106と、を備える。
インタフェース102は、外部装置との間でデータの入出力を行う。具体的には、学習装置100の学習に用いられるエキスパートデータセットがインタフェース102を通じて入力される。
プロセッサ103は、CPU(Central Processing Unit)、又はCPUとGPU(Graphics Processing Uit)などのコンピュータであり、予め用意されたプログラムを実行することにより、学習装置100の全体を制御する。具体的に、プロセッサ103は、後述する学習処理を実行する。
メモリ104は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ104は、学習装置100が学習するモデルを記憶する。また、メモリ104は、プロセッサ103による各種の処理の実行中に作業メモリとしても使用される。
記録媒体105は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、学習装置100に対して着脱可能に構成される。記録媒体105は、プロセッサ103が実行する各種のプログラムを記録している。学習装置100が各種の処理を実行する際には、記録媒体105に記録されているプログラムがメモリ104にロードされ、プロセッサ103により実行される。
データベース106は、学習に使用されるエキスパートデータセットを記憶する。なお、上記に加えて、学習装置100は、ユーザが指示や入力を行うためのキーボード、マウスなどの入力機器や表示部を備えていても良い。
(第1の学習装置の機能構成)
図4は、第1実施形態に係る第1の学習装置の機能構成を示すブロック図である。なお、この学習装置100は、多クラス分類モデルを学習するものとする。学習装置100は、エキスパートデータセット供給部111と、認識部112と、認識損失算出部113と、更新部114と、認識部パラメータ記憶部115と、交差行列算出部116と、交差行列記憶部117と、を備える。
エキスパートデータセット供給部111は、前述したエキスパートデータセットの入力データを認識部112及び認識損失算出部113に供給する。具体的には、エキスパートデータセット供給部111は、入力xと、ラベルzと、正解候補集合Zとの組{x,z,Z}(以下、これを「入力データの組」と呼ぶ。)を認識部112及び認識損失算出部113に供給する。認識部112は、内部にニューラルネットワークなどにより構成される認識モデルを有しており、画像データである入力xに対する認識処理を行って認識結果{f(x)}を認識損失算出部113に出力する。
一方、交差行列算出部116は、エキスパートデータセットの属性値に基づいて、交差行列Hを算出し、交差行列記憶部117に供給する。なお、交差行列については後に詳しく説明する。交差行列記憶部117は、供給された交差行列Hを記憶し、認識損失算出部113に供給する。
認識損失算出部113は、エキスパートデータセット供給部111から供給される入力データの組{x,z,Z}と、認識部112から供給される認識結果{f(x)}と、交差行列Hとを用いて認識損失Lを算出し、更新部114へ供給する。認識損失Lについては後に詳しく説明する。更新部114は、認識損失Lに基づいて、認識部112の認識モデルを構成するパラメータを更新し、更新後のパラメータを認識部パラメータ記憶部115に供給する。認識部パラメータ記憶部115は、更新部114から供給された更新後のパラメータを記憶する。認識部パラメータ記憶部115に記憶されたパラメータは、認識部112のパラメータを更新するタイミングで読み出され、認識部112に設定される。こうして、エキスパートデータセットを学習用データとして用いて、認識部112の学習が行われる。
(交差行列)
次に、交差行列について詳しく説明する。通常のデータセットを用いて学習を行う場合、学習用の入力画像データに対して1つの正解ラベルが用意されているため、認識部による認識結果と、その正解ラベルとの損失Lを計算し、損失Lが小さくなるように認識部のパラメータが更新される。しかしながら、前述のようにエキスパートデータセットは、複数の部分データセットにより構成され、各部分データセットには認識対象の全カテゴリーのうちの一部が責任範囲として割り当てられている。各部分データセットは、責任範囲に属するカテゴリーに対してはそのうちのいずれかを示す正解ラベルを有しているが、責任範囲に属しないカテゴリーについてはその部分データセットの責任範囲に属さないことを示す正解ラベル(「○○でない」というタイプの正解ラベル)しか有していない。このため、通常のデータセットの場合のように、認識部による認識結果と正解ラベルとを単純に比較して損失Lを算出することができない。そこで、本実施形態では、交差行列Hを導入することにより、エキスパートデータセットの認識結果に対して損失Lを算出できるようにする。
通常のデータセットを用いた教師あり学習では、入力データxと正解ラベルyの組(x,y)の集合{(x,y)}に対して、以下のように損失関数が定義される。
Figure 0007283554000007
これに対し、エキスパートデータセットにおける部分データセットでは、正解ラベルyの代わりに、正解ラベルyの候補を含む正解候補集合Zが与えられる。そこで、部分データセットに含まれる正解候補集合Zと、正解カテゴリーyとを関連付ける交差行列Hを導入する。交差行列Hは、正解カテゴリーyを行添え字に持ち、正解カテゴリーy又は「○○でない」というタイプの正解ラベルを列添え字に持つ長方形の行列となる。この交差行列Hを用いると、入力データの組{x,z,Z}に対する損失関数は以下のように計算することができる。
Figure 0007283554000008
式(8)が示すように、エキスパートデータセットに対する認識損失Lは、任意のロス関数を用いて各入力データxの認識結果と全ての正解カテゴリーyとの損失を算出し、それらを交差行列Hが示す重みを用いて重み付け加算して得られるものとなる。よって、交差行列Hを適切に生成することにより、エキスパートデータセットを用いた場合でも認識損失Lを算出することができる。その結果、エキスパートデータセットを用いた場合でも、通常のデータセットを用いた場合に近い認識精度が得られるように認識部を学習することが可能となる。
次に、交差行列の算出方法について説明する。
(1)多クラス分類問題
まず、多クラス分類問題の場合について説明する。交差行列Hを算出するために、行列M(「遷移行列」とも呼ぶ。)を以下のように定める。
Figure 0007283554000009
ここで、式(9)の各要素は、エキスパートデータセットに関する以下の属性値である。
・「d」:部分データセットを表す添え字、「N」:部分データセットの数
・c=|Y|(|Y|は集合Yの要素数)とすると、行列Mは(c+N)行、c列の行列となる
・「π」:エキスパート事前分布、任意に引いたデータxが各部分データセットに属する割合を示す
・「p(z|y,d)」:部分データセットdにおいて、正解カテゴリーy∈Yに対してラベルzがつく確率
y∈Zのとき、z=yならば「1」、その他は「0」
y∈Zでないとき、z=ならば「1」、その他は「0」
・「w(y)=p(y|d)/q(y)」:カテゴリー重み
「p(y|d)」:カテゴリー事前分布、部分データセットdの中に含まれる正解カテゴリーyの割合を示す
「q(y)」:基準となるカテゴリー事前分布、任意のパラメータ
なお、エキスパート事前分布は第1の事前分布の一例であり、カテゴリー事前分布は第2の事前分布の一例であり、「p(z|y,d)」は部分データセットの各々について割り当てられている責任範囲を示す符号の一例である。
上記の行列Mが得られると、交差行列Hは以下のように求まる。
Figure 0007283554000010
ここで、
・「I」はc次元の単位行列
・「1」はc次元の縦ベクトルで全ての要素が「1」であるもの
・「v」はc次元の任意の縦ベクトル
・「」は行列Mの任意の左逆行列(即ち、M=Iを満たす行列)
なお、左逆行列は一般に一つとは限らず無数に存在するが、どれを使ってもよい。
(2)物体検知問題(「背景」がある場合)
次に、物体検知問題の場合について説明する。この場合も、行列Mは基本的に上記の多クラス分類問題の場合と同様に(9)式により定められる。但し、物体検知問題の場合は前述のように「背景」のクラスがあるため、多クラス分類問題の場合とは以下の2点が異なる。
・c=|Y|(|Y|は集合Yの要素数)とすると、行列Mは(c+N)行、(c+1)列の行列となる
・「p(z|y,d)」:部分データセットdにおいて、正解カテゴリーy∈Yに対してラベルzがつく確率
y∈Zのとき、z=yならば「1」、その他は「0」
y∈Zでないとき(y=Yもこれに該当、「Y」は背景を示す)、z=ならば「1」、その他は「0」
また、交差行列Hは、多クラス分類問題の場合と同様に(10)式で求められるが、「背景」のクラスがあるため、以下の3点が異なる。
・「I」はc+1次元の単位行列
・「1」はc+1次元の縦ベクトルで全ての要素が「1」であるもの
・「v」はc+1次元の任意の縦ベクトル
以上のように、多クラス分類問題、物体検知問題のいずれの場合も、式(9)により行列Mを求め、式(10)により交差行列Hを求めれば、式(8)により認識損失Lを算出することが可能となる。
(第1の学習装置による学習処理)
図5は、第1の学習装置による学習処理のフローチャートである。この処理は、図3に示すプロセッサ103が予め用意されたプログラムを実行し、図4に示す各要素として動作することにより実現される。まず、交差行列算出部116は、上述の方法により、エキスパートデータセットの属性値を用いて交差行列Hを算出する(ステップS11)。算出された交差行列Hは、交差行列記憶部117に記憶される。
次に、学習を継続するか否かが判定される(ステップS12)。この判定は、予め決められた終了条件が具備されたか否かに基づいて行われる。終了条件としては、例えば、用意した学習用データを全て使用したか、パラメータの更新回数が所定回数に到達したか、などが挙げられる。
学習を継続すると判定された場合(ステップS12:Yes)、エキスパートデータセット供給部111は、入力データの組を認識部112に入力する(ステップS13)。認識部112は、入力されたデータに基づいて認識処理を行い、認識結果を認識損失算出部113に出力する(ステップS14)。
次に、認識損失算出部113は、入力データと、認識結果と、交差行列とを用いて、前述の式(8)により認識損失Lを算出する(ステップS15)。そして、更新部114は、算出された認識損失Lが小さくなるように、認識部112のパラメータを更新する(ステップS16)。即ち、更新後のパラメータが、認識部パラメータ記憶部115に記憶され、認識部112に設定される。こうして、ステップS12~S16が繰り返され、ステップS12で学習を継続しないと判定された場合、処理は終了する。
(第2の学習装置の機能構成)
次に、第2の学習装置の機能構成について説明する。第1の学習装置では、交差行列を算出するために必要なエキスパートデータセットの属性値が予め与えられていることを前提としている。これに対し、第2の学習装置では、それらの属性値が与えられておらず、学習装置側で生成することが必要となる。具体的には、第2の学習装置は、エキスパートデータセットから、エキスパート事前分布π、及び、カテゴリー事前分布p(y|d)を推定し、推定値を用いて交差行列を算出する。
図6は、第2の学習装置100xの機能構成を示すブロック図である。図4に示す第1の学習装置100と比較すると理解されるように、第2の学習装置100xは、エキスパート事前分布推定部118と、カテゴリー事前分布推定部119を有する。これ以外の点は、第2の学習装置100xは第1の学習装置100と同様である。なお、エキスパート事前分布推定部118は第1の推定部の一例であり、カテゴリー事前分布推定部119は第2の推定部の一例である。
エキスパートデータセット供給部111は、エキスパートデータセットを、エキスパート事前分布推定部118、カテゴリー事前分布推定部119及び交差行列算出部116に供給する。エキスパート事前分布推定部118は、エキスパート事前分布πを推定する。具体的には、エキスパート事前分布推定部118は、エキスパートデータセット中の各部分データセットに含まれるサンプル数Nを計数し、次式によってエキスパート事前分布πを決定する。
Figure 0007283554000011
エキスパート事前分布πは、エキスパートデータセット全体から1つの入力データを引いた場合に、それが部分データセットdに属する割合である。よって、式(11)が示すように、ある部分データセットdのサンプル数を、全ての部分データセットに含まれるサンプル数の合計で除した値として算出することができる。エキスパート事前分布推定部118は、算出したエキスパート事前分布πを交差行列算出部116に供給する。
カテゴリー事前分布推定部119は、エキスパートデータセットからカテゴリー事前分布p(y|d)を推定する。図7は、カテゴリー事前分布の推定方法を説明する図である。なお、図7は、図1(B)に示すエキスパートデータセットの例を前提としている。まず、カテゴリー事前分布推定部119は、各部分データセットを用いて教師あり学習を行う。図7の例では、水生哺乳類の部分データセットを用いて、その責任範囲に属する水生哺乳類5種と、「水生哺乳類でない」のクラスとを含む6クラスの分類器を学習する。これにより、水生哺乳類の部分データセット中の入力データを水生哺乳類5種と、それ以外とに分類できる。同様に、人の部分データセットやそれ以外の部分データセットを用いて6クラスの分類器を学習する。
次に、ある分類器により「○○でない」に分類されたデータを、別の部分データセットで学習した分類器に適用して分類を行う。例えば、水生哺乳類の部分データセットで学習した分類器で「水生哺乳類でない」と分類されたデータを、人の部分データセットの分類器で分類すると、そのうちの人5種を新たに見つけることができる。また、水生哺乳類の部分データセットで学習した分類器で「水生哺乳類でない」と分類されたデータを、さらに別の部分データセットの分類器で分類すると、その部分データセットの責任範囲に含まれるカテゴリー5種を新たに見つけることができる。こうして、「水生哺乳類でない」と分類されたデータを他の全ての部分データセットで学習した分類器に適用することにより、水生哺乳類の部分データセットに含まれる全てのデータを全100クラスのいずれかに分類することができる。こうして、水生哺乳類の部分データセットに含まれる全100クラスの割合を推定することができる。この処理を全ての部分データセットに対して行えば、カテゴリー事前分布を推定することができる。得られたカテゴリー事前分布p(y|d)は、交差行列算出部116に供給される。
こうして、エキスパート事前分布π及びカテゴリー事前分布p(y|d)が得られると、交差行列算出部116は、それらを用いて式(9)により遷移行列Mを算出し、さらに式(10)により交差行列Hを算出することができる。
(第2の学習装置による学習処理)
第2の学習装置100xによる学習処理は、基本的に図5に示す第1の学習装置100による学習処理と同様である。但し、第2の学習装置100xは、ステップS11の交差行列算出処理において、エキスパート事前分布及びカテゴリー事前分布を推定する点が第1の学習装置100の場合と異なる。
図8は、第2の学習装置100xによる交差行列算出処理(ステップS11)のフローチャートを示す。まず、エキスパートデータセット供給部111は、エキスパート事前分布推定部118にエキスパートデータセットを入力し(ステップS21)、エキスパート事前分布推定部118は、入力されたエキスパートデータセットを用いてエキスパート事前分布を推定する(ステップS22)。次に、エキスパートデータセット供給部111は、カテゴリー事前分布推定部119にエキスパートデータセットを入力し(ステップS23)、カテゴリー事前分布推定部119は、入力されたエキスパートデータセットを用いてカテゴリー事前分布を推定する(ステップS24)。そして、交差行列算出部116は、推定されたエキスパート事前分布とカテゴリー事前分布と用いて交差行列を算出する(ステップS25)。その後の処理は、図5に示す第1の学習装置100の場合と同様であるので、説明を省略する。
(実施例)
次に、上記の学習装置の実施例について説明する。
(1)多クラス分類の実施例
図9は、多クラス分類の実施例に係る学習装置200の機能構成を示す。学習装置200は、基本的に図4に示す第1の学習装置100と同様に構成され、エキスパートデータセット供給部201と、認識部202と、認識損失算出部203と、更新部204と、認識部パラメータ記憶部205と、交差行列算出部206と、交差行列記憶部207とを備える。この実施例では、エキスパートデータセットは、カテゴリー{飛行機,鳥,ドローン}を責任範囲とする飛行物体の部分データセットを含んでいる。
エキスパートデータセット供給部201は、認識部202、認識損失算出部203及び交差行列算出部206に入力データの組を供給する。認識部202は、入力画像xの認識結果を認識損失算出部203に出力する。交差行列算出部206は、エキスパートデータセットの属性値に基づいて交差行列Hを算出し、交差行列記憶部207に記憶する。認識損失算出部203は、入力データの組と、認識結果と、交差行列とを用いて認識損失Lを算出し、更新部204へ供給する。本実施例では、認識損失Lの算出にはロス関数としてクロスエントロピーが使用される。更新部204は、認識損失Lに基づいてパラメータを更新し、認識部パラメータ記憶部205に記憶する。記憶された更新後のパラメータは、認識部202に設定される。こうして、認識部202の学習が行われる。
なお、エキスパートデータセットに属性値が含まれていない場合は、前述の第2の学習装置のように、エキスパートデータセットからエキスパート事前分布とカテゴリー事前分布を推定し、交差行列Hを算出すればよい。また、学習終了後の推論時には、最新のパラメータに更新された認識部202に対して画像データが入力され、認識部202は入力された画像データに対する認識結果を出力する。
(2)物体検知の実施例
図10は、物体検知の実施例に係る学習装置300の機能構成を示すブロック図である。学習装置300は、エキスパートデータセット供給部301と、特徴抽出部302と、バウンディングボックス回帰部303と、回帰損失算出部304と、検知物体分類部305と、分類損失算出部306と、更新部307と、パラメータ記憶部308と、交差行列算出部309と、交差行列記憶部310と、を備える。
エキスパートデータセット供給部301は、入力データの組を特徴抽出部302、バウンディングボックス回帰部303、及び、検知物体分類部305に供給し、エキスパートデータセットを交差行列算出部309に供給する。特徴抽出部302は、入力画像xから特徴ベクトルを抽出し、物体候補やデフォルトボックス毎の特徴ベクトルをバウンディングボックス回帰部303及び検知物体分類部305に供給する。なお、特徴ベクトルの次元数は任意である。
バウンディングボックス回帰部303は、デフォルトボックスの位置と、物体候補に対応するバウンディングボックスの位置を算出し、回帰損失算出部304に供給する。回帰損失算出部304は、デフォルトボックスとバウンディングボックスの位置ずれを示す回帰損失Lrを算出し、更新部307へ供給する。検知物体分類部305は、物体候補に含まれる物体をクラス分類し、分類結果を分類損失算出部306に供給する。
交差行列算出部309は、エキスパートデータセットの属性値に基づいて前述の方法で交差行列Hを算出し、交差行列記憶部310に記憶する。分類損失算出部306は、検知物体分類部305による分類結果と、交差行列Hとを用いて分類損失Lcを算出し、更新部307に供給する。
更新部307は、回帰損失Lr及び分類損失Lcに基づいて、特徴抽出部302、バウンディングボックス回帰部303及び検知物体分類部305を構成するネットワークのパラメータを更新し、パラメータ記憶部308に記憶する。記憶された更新後のパラメータは、特徴抽出部302、バウンディングボックス回帰部303及び検知物体分類部305に設定される。
なお、エキスパートデータセットに属性値が含まれていない場合は、前述の第2の学習装置のように、エキスパートデータセットからエキスパート事前分布とカテゴリー事前分布を推定し、交差行列Hを算出すればよい。また、学習終了後の推論時には、更新された特徴抽出部302、バウンディングボックス回帰部303及び検知物体分類部305に更新後のパラメータが設定され、特徴抽出部302に画像データが入力される。入力された画像データは、特徴抽出部302、バウンディングボックス回帰部303及び検知物体分類部305により処理される。そして、バウンディングボックス回帰部303が出力した物体の位置と、検知物体分類部305が出力した物体の分類結果(検知物体毎のスコア)を用いて非最大値抑制処理(NMS:Non-Maximum Suppression)が行われ、最終的に検知物体毎にその種類と位置とが出力される。
[第2実施形態]
次に、本発明の第2実施形態について説明する。図11は、第2実施形態に係る学習装置400の機能構成を示すブロック図である。なお、学習装置400のハードウェア構成は図3に示すものと同様である。図示のように、学習装置400は、データセット供給部401と、認識部402と、交差行列算出部403と、認識損失算出部404と、更新部405と、を備える。
学習装置400は、学習用データセットを用いて学習を行う。ここで、学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、認識対象とする全てのカテゴリーが複数の部分データセットのいずれかに割り当てられている。また、部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されている。
データセット供給部401は、上記の学習用データセットを供給する。認識部402は、供給された学習用データセット中の認識対象データに対する認識結果を出力する。また、交差行列算出部403は、学習用データセットに基づいて交差行列を算出する。認識損失算出部404は、認識結果、交差行列、及び、認識対象データに付与されている正解データを用いて認識損失を算出する。そして、更新部405は、認識損失に基づいて、認識部のパラメータを更新する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
学習用データセットを用いて学習を行う学習装置であって、
前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
前記学習装置は、
前記学習用データセットを供給するデータセット供給部と、
供給された学習用データセット中の認識対象データに対する認識結果を出力する認識部と、
前記学習用データセットに基づいて交差行列を算出する交差行列算出部と、
前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出する認識損失算出部と、
前記認識損失に基づいて前記認識部のパラメータを更新する更新部と、
を備える学習装置。
(付記2)
前記交差行列算出部は、前記学習用データセット中の認識対象データが各部分データセットに属する割合である第1の事前分布と、前記部分データセットに含まれる各カテゴリーの割合である第2の事前分布と、前記部分データセットの各々について割り当てられている前記責任範囲を示す符号と、に基づいて前記交差行列を算出する付記1に記載の学習装置。
(付記3)
前記第1の事前分布を前記学習用データセットから推定する第1の推定部と、
前記第2の事前分布を前記学習用データセットから推定する第2の推定部と、
を備える付記2に記載の学習装置。
(付記4)
前記交差行列算出部は、前記第1の事前分布、前記第2の事前分布及び前記責任範囲を示す符号を用いて遷移行列を算出し、当該遷移行列の逆行列を用いて前記交差行列を算出する付記2又は3に記載の学習装置。
(付記5)
前記認識損失算出部は、前記学習用データセットに含まれる全ての認識対象データに対する認識結果と、前記認識対象とする全てのカテゴリーとの間の損失を、前記交差行列の要素を重みとして重み付け加算して前記認識損失を算出する付記1乃至4のいずれか一項に記載の学習装置。
(付記6)
学習用データセットを用いた学習方法であって、
前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
前記学習方法は、
前記学習用データセットを供給し、
認識部により、供給された学習用データセット中の認識対象データに対する認識結果を出力し、
前記学習用データセットに基づいて交差行列を算出し、
前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出し、
前記認識損失に基づいて前記認識部のパラメータを更新する学習方法。
(付記7)
学習用データセットを用いた学習処理のプログラムを記録する記録媒体であって、
前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
前記プログラムは、
前記学習用データセットを供給し、
認識部により、供給された学習用データセット中の認識対象データに対する認識結果を出力し、
前記学習用データセットに基づいて交差行列を算出し、
前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出し、
前記認識損失に基づいて前記認識部のパラメータを更新する学習処理をコンピュータに実行させる記録媒体。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
100、200、300、400 学習装置
111 エキスパートデータセット供給部
112 認識部
113 認識損失算出部
114 更新部
115 認識部パラメータ記憶部
116 交差行列算出部
117 交差行列記憶部
118 エキスパート事前分布推定部
119 カテゴリー事前分布推定部

Claims (7)

  1. 学習用データセットを用いて学習を行う学習装置であって、
    前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
    認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
    前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
    前記学習装置は、
    前記学習用データセットを供給するデータセット供給手段と、
    供給された学習用データセット中の認識対象データに対する認識結果を出力する認識手段と、
    前記学習用データセットに基づいて交差行列を算出する交差行列算出手段と、
    前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出する認識損失算出手段と、
    前記認識損失に基づいて前記認識手段のパラメータを更新する更新手段と、
    を備える学習装置。
  2. 前記交差行列算出手段は、前記学習用データセット中の認識対象データが各部分データセットに属する割合である第1の事前分布と、前記部分データセットに含まれる各カテゴリーの割合である第2の事前分布と、前記部分データセットの各々について割り当てられている前記責任範囲を示す符号と、に基づいて前記交差行列を算出する請求項1に記載の学習装置。
  3. 前記第1の事前分布を前記学習用データセットから推定する第1の推定手段と、
    前記第2の事前分布を前記学習用データセットから推定する第2の推定手段と、
    を備える請求項2に記載の学習装置。
  4. 前記交差行列算出手段は、前記第1の事前分布、前記第2の事前分布及び前記責任範囲を示す符号を用いて遷移行列を算出し、当該遷移行列の逆行列を用いて前記交差行列を算出する請求項2又は3に記載の学習装置。
  5. 前記認識損失算出手段は、前記学習用データセットに含まれる全ての認識対象データに対する認識結果と、前記認識対象とする全てのカテゴリーとの間の損失を、前記交差行列の要素を重みとして重み付け加算して前記認識損失を算出する請求項1乃至4のいずれか一項に記載の学習装置。
  6. 学習用データセットを用いた学習方法であって、
    前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
    認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
    前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
    前記学習方法は、
    前記学習用データセットを供給し、
    認識手段により、供給された学習用データセット中の認識対象データに対する認識結果を出力し、
    前記学習用データセットに基づいて交差行列を算出し、
    前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出し、
    前記認識損失に基づいて前記認識手段のパラメータを更新する学習方法。
  7. 学習用データセットを用いた学習処理のプログラムであって、
    前記学習用データセットは、認識対象とする全てのカテゴリーの少なくとも一部が責任範囲として割り当てられた複数の部分データセットを含み、
    認識対象とする全てのカテゴリーが前記複数の部分データセットのいずれかに割り当てられており、
    前記部分データセットに含まれる各認識対象データには、当該部分データセットに割り当てられた前記責任範囲に属するカテゴリーのいずれか、又は、当該認識対象のカテゴリーが当該部分データセットの責任範囲に属さないことを示す正解データが付与されており、
    前記プログラムは、
    前記学習用データセットを供給し、
    認識手段により、供給された学習用データセット中の認識対象データに対する認識結果を出力し、
    前記学習用データセットに基づいて交差行列を算出し、
    前記認識結果、前記交差行列、及び、前記認識対象データに付与されている正解データを用いて認識損失を算出し、
    前記認識損失に基づいて前記認識手段のパラメータを更新する学習処理をコンピュータに実行させるプログラム
JP2021548298A 2019-09-27 2019-09-27 学習装置、学習方法、及び、プログラム Active JP7283554B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/038343 WO2021059527A1 (ja) 2019-09-27 2019-09-27 学習装置、学習方法、及び、記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021059527A1 JPWO2021059527A1 (ja) 2021-04-01
JPWO2021059527A5 JPWO2021059527A5 (ja) 2022-05-24
JP7283554B2 true JP7283554B2 (ja) 2023-05-30

Family

ID=75166874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021548298A Active JP7283554B2 (ja) 2019-09-27 2019-09-27 学習装置、学習方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20220335712A1 (ja)
JP (1) JP7283554B2 (ja)
WO (1) WO2021059527A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3832491A1 (en) * 2019-12-06 2021-06-09 Idemia Identity & Security France Methods for processing a plurality of candidate annotations of a given instance of an image, and for learning parameters of a computational model
CN114677566B (zh) * 2022-04-08 2023-10-17 北京百度网讯科技有限公司 深度学习模型的训练方法、对象识别方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018200524A (ja) 2017-05-26 2018-12-20 日本電信電話株式会社 分類装置、分類方法および分類プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10558932B1 (en) * 2014-04-23 2020-02-11 Google Llc Multi-machine distributed learning systems
US20180330275A1 (en) * 2017-05-09 2018-11-15 Microsoft Technology Licensing, Llc Resource-efficient machine learning
US20200193220A1 (en) * 2018-12-18 2020-06-18 National Sun Yat-Sen University Method for data imputation and classification and system for data imputation and classification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018200524A (ja) 2017-05-26 2018-12-20 日本電信電話株式会社 分類装置、分類方法および分類プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ABDOLLAHPOUR, Zeinab et al.,Image Classification Using Ontology Based Improved Visual Words,2015 23rd Iranian Conference on Electrical Engineering,IEEE [online],2015年07月02日,pp.694-698,https://ieeexplore.ieee.org/abstract/document/7146303

Also Published As

Publication number Publication date
JPWO2021059527A1 (ja) 2021-04-01
US20220335712A1 (en) 2022-10-20
WO2021059527A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
CN107832458B (zh) 一种字符级的基于嵌套深度网络的文本分类方法
Chen et al. Semi-supervised learning via regularized boosting working on multiple semi-supervised assumptions
Łukasik et al. Data clustering with grasshopper optimization algorithm
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
Gong et al. Discrete particle swarm optimization for high-order graph matching
CN110443372B (zh) 一种基于熵最小化的迁移学习方法及系统
Liu et al. Fuzzy mutual information-based multilabel feature selection with label dependency and streaming labels
JP7283554B2 (ja) 学習装置、学習方法、及び、プログラム
CN113361685B (zh) 一种基于学习者知识状态演化表示的知识追踪方法及系统
CN111581368A (zh) 一种基于卷积神经网络的面向智能专家推荐的用户画像方法
CN113822419B (zh) 一种基于结构信息的自监督图表示学习运行方法
Ma et al. Bagging likelihood-based belief decision trees
Alfarisi et al. Deducing of Optimal Machine Learning Algorithms for Heterogeneity
Conte et al. Interactive online learning for graph matching using active strategies
WO2021253938A1 (zh) 一种神经网络的训练方法、视频识别方法及装置
CN113408418A (zh) 一种书法字体与文字内容同步识别方法及系统
CN113392868A (zh) 一种模型训练的方法、相关装置、设备及存储介质
Ahmed et al. Branchconnect: Image categorization with learned branch connections
Janković Babić A comparison of methods for image classification of cultural heritage using transfer learning for feature extraction
CN109614581A (zh) 基于对偶局部学习的非负矩阵分解聚类方法
Yang et al. An improved chaotic ACO clustering algorithm
Cosovic et al. Cultural heritage image classification
CN115019342A (zh) 一种基于类关系推理的濒危动物目标检测方法
CN111767825A (zh) 一种人脸属性不变鲁棒性人脸识别方法及系统
Xu et al. Deep Learning in Image Classification: An Overview

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R151 Written notification of patent or utility model registration

Ref document number: 7283554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151