JP6725194B2 - 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム - Google Patents

学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム Download PDF

Info

Publication number
JP6725194B2
JP6725194B2 JP2018184231A JP2018184231A JP6725194B2 JP 6725194 B2 JP6725194 B2 JP 6725194B2 JP 2018184231 A JP2018184231 A JP 2018184231A JP 2018184231 A JP2018184231 A JP 2018184231A JP 6725194 B2 JP6725194 B2 JP 6725194B2
Authority
JP
Japan
Prior art keywords
data
learned model
class
success
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018184231A
Other languages
English (en)
Other versions
JP2020052935A (ja
Inventor
賢一 小池
賢一 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2018184231A priority Critical patent/JP6725194B2/ja
Publication of JP2020052935A publication Critical patent/JP2020052935A/ja
Application granted granted Critical
Publication of JP6725194B2 publication Critical patent/JP6725194B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習済みモデルを生成する方法等に関する。
多数のデータを分類(クラスタリング)して各データを認識する処理に、機械学習が用いられることがある。また、その場合に、各種類のデータそれぞれに特化した学習済みモデルを準備し、多数の学習済みモデルを組み合わせて分類を行う技術が知られている。特許文献1には、このような技術の例が記載されている。
特開平5−265991号公報
しかしながら、従来の技術では、各モデル間の連携が適切でない場合があるという問題があった。
たとえば特許文献1には、各モデルをどのようなパターンで学習させるかが記載されていない。各モデルに与える訓練パターンによっては、各モデル間の連携がうまくいかず、分類精度が低下するおそれがある。
この発明は、このような問題点を解決するためになされたものであり、相互により適切に連携できる学習済みモデルを生成できる方法等を提供することを目的とする。
上述の問題点を解決するため、この発明に係る方法は、
学習済みモデルを生成する方法であって、
第1データを用いて機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第1学習済みモデルを生成する、第1生成ステップと、
前記第1学習済みモデルが正しく分類しないデータに基づく処理に依存する機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第2学習済みモデルを生成する、第2生成ステップと、
を含み、
前記方法は、第2データを、
‐前記第1学習済みモデルによって正しく分類されるデータが属する成否クラス[M1]と、
‐前記第1学習済みモデルによって正しく分類されないデータが属する成否クラス[非M1]と
を含む複数の成否クラスのいずれかに分類するステップをさらに備え、
前記第2生成ステップは、
前記第2データを用いて機械学習を行うことにより、データを前記成否クラス[M1]と前記成否クラス[非M1]とを含む複数の成否クラスのいずれかに分類する振り分け用学習済みモデルを生成するステップと、
前記第1データを、
‐前記振り分け用学習済みモデルによって前記成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、
‐前記振り分け用学習済みモデルによって前記成否クラス[非M1]に分類されるデータが属する振り分けクラス[非M1:MD]と
を含む複数の振り分けクラスのいずれかに分類するステップと、
前記振り分けクラス[非M1:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、前記第2学習済みモデルを生成するステップと、
を含む。
定の態様によれば、前記振り分けクラス[M1:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、第1学習済みモデルを追加学習するステップをさらに備える。
特定の態様によれば、前記方法は、データを複数の対象物クラスのいずれかに分類する第3学習済みモデルを生成する、第3生成ステップをさらに備え、
前記第3生成ステップは、
前記第2データを、
‐前記第1学習済みモデルによって正しく分類されるデータが属する成否クラス[M1]と、
‐前記第2学習済みモデルによって正しく分類されるデータが属する成否クラス[M2]と、
‐前記第1学習済みモデルおよび前記第2学習済みモデルのいずれによっても正しく分類されないデータが属する成否クラス[非M1非M2]と
を含む複数の成否クラスのいずれかに分類するステップと、
前記第2データを用いて機械学習を行うことにより、データを、前記成否クラス[M1]、前記成否クラス[M2]および前記成否クラス[非M1非M2]を含む複数の成否クラスのいずれかに分類する振り分け用学習済みモデルを生成するステップと、
前記第1データを、
‐前記振り分け用学習済みモデルによって前記成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、
‐前記振り分け用学習済みモデルによって前記成否クラス[M2]に分類されるデータが属する振り分けクラス[M2:MD]と、
‐前記振り分け用学習済みモデルによって前記成否クラス[非M1非M2]に分類されるデータが属する振り分けクラス[非M1非M2:MD]と
を含む複数の振り分けクラスのいずれかに分類するステップと、
前記振り分けクラス[非M1非M2:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、前記第3学習済みモデルを生成するステップと、
を含む。
また、この発明に係る方法は、データを分類する方法であって、
上述の方法を用いて、前記第1学習済みモデル、前記第2学習済みモデルおよび前記振り分け用学習済みモデルを生成するステップと、
前記振り分け用学習済みモデルを用いて、本番データを、前記複数の振り分けクラスのいずれかに分類するステップと、
前記第1学習済みモデルを用いて、前記振り分けクラス[M1:MD]に属する前記本番データを前記複数の対象物クラスのいずれかに分類するステップと、
前記第2学習済みモデルを用いて、前記振り分けクラス[M2:MD]に属する前記本番データを前記複数の対象物クラスのいずれかに分類するステップと、
を備える。
また、この発明に係る方法は、データを分類する方法であって
第1データを用いて機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第1学習済みモデルを生成する、第1生成ステップと、
前記第1学習済みモデルが正しく分類しないデータに基づく処理に依存する機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第2学習済みモデルを生成する、第2生成ステップと、
第2データを用いて、前記第1学習済みモデルがデータを正しい対象物クラスに分類する確率である第1確率を決定するステップと、
前記第2データを用いて、前記第2学習済みモデルがデータを正しい対象物クラスに分類する確率である第2確率を決定するステップと、
本番データについて、前記第1学習済みモデルがその本番データを分類する対象物クラスである第1対象物クラスと、その分類結果の信頼度である第1信頼度とを決定するステップと、
前記本番データについて、前記第2学習済みモデルがその本番データを分類する対象物クラスである第2対象物クラスと、その分類結果の信頼度である第2信頼度とを決定するステップと、
前記第1確率と、前記第2確率と、前記第1対象物クラスと、前記第2対象物クラスと、前記第1信頼度と、前記第2信頼度とに基づき、前記本番データを複数の対象物クラスのいずれかに分類するステップと、
を備える。
また、この発明に係る方法は、学習済みモデルを生成する方法であって、
第1データを用いて機械学習を行うことにより、データに基づいて推定値を出力する第1学習済みモデルを生成する、第1生成ステップと、
前記第1学習済みモデルによる推定値の誤差を大きくするデータに基づく処理に依存する機械学習を行うことにより、データに基づいて推定値を出力する第2学習済みモデルを生成する、第2生成ステップと、
を含み、
前記方法は、第2データを、
‐前記第1学習済みモデルによって正解に近い推定値が出力されるデータが属する成否クラス[M1]と、
‐前記第1学習済みモデルによって正解に近い推定値が出力されないデータが属する成否クラス[非M1]と
を含む複数の成否クラスのいずれかに分類するステップをさらに備え、
前記第2生成ステップは、
前記第2データを用いて機械学習を行うことにより、データを前記成否クラス[M1]と前記成否クラス[非M1]とを含む複数の成否クラスのいずれかに分類する振り分け用学習済みモデルを生成するステップと、
前記第1データを、
‐前記振り分け用学習済みモデルによって前記成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、
‐前記振り分け用学習済みモデルによって前記成否クラス[非M1]に分類されるデータが属する振り分けクラス[非M1:MD]と
を含む複数の振り分けクラスのいずれかに分類するステップと、
前記振り分けクラス[非M1:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、前記第2学習済みモデルを生成するステップと、
を含む。
また、この発明に係るコンピュータは、上述の方法を実行する。
また、この発明に係るプログラムは、コンピュータに上述の方法を実行させる
この発明に係る方法等によれば、ある学習済みモデルが正しく分類できなかったデータに基づく処理に依存して別の学習済みモデルを生成するので、各モデルが得意とするデータを適切に分担することができ、各モデル間の連携がより適切に実現できる。
本発明の実施の形態1に係るコンピュータの構成の例を示す図である。 本発明の概略を説明する図である。 学習済みモデルを生成するための処理の流れを説明するフローチャートである。 図3のステップS1の詳細である。 実施の形態1における、図3のステップS2の詳細である。 実施の形態1における、図3のステップS3の詳細である。 実施の形態1において、データを分類するための処理の流れを説明するフローチャートである。 実施の形態2における、図3のステップS2の詳細である。 実施の形態2における、図3のステップS3の詳細である。 実施の形態2において、データを分類するための処理の流れを説明するフローチャートである。
以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1.
図1に、本発明の実施の形態1に係るコンピュータ10の構成の例を示す。コンピュータ10は、学習済みモデルを生成する装置として機能する。また、コンピュータ10は、学習済みモデルを用いてデータを分類する装置としても機能する。さらに、コンピュータ10は、本明細書に記載される他の方法を実行する装置としても機能する。
図1に示すように、コンピュータ10は公知のコンピュータとしての構成を有し、演算を行う演算手段11と、情報を格納する記憶手段12とを備える。演算手段11はたとえばCPU(中央処理装置)を含み、記憶手段12はたとえば半導体メモリおよびHDD(ハードディスクドライブ)を含む。
記憶手段12は、訓練データD1(第1データ)、検証データD2(第2データ)、評価データD3(第3データ)および本番データD4を格納する。訓練データD1、検証データD2および評価データD3は、学習モデルの生成に用いられるデータである。また、本番データD4は、生成された学習モデルを用いて分類されるデータの例である。
訓練データD1、検証データD2および評価データD3は、いずれも同一のデータ形式を有するデータ単位の集合である。各データ単位は、分類対象となるデータ部分と、正解ラベルとを含んでいる。なお、本明細書において、「データを分類する」という表現および「データを認識する」という表現は、いずれも、「データの正解ラベルを推定する」という意味である場合がある。また、本番データD4もデータ単位の集合であり、分類対象となるデータ部分を含む。本番データD4のデータ単位は、一般的には正解ラベルを含まないが、正解ラベルを含むものであってもよい。
各データ単位において、分類対象となるデータ部分はたとえば画像である。具体例として、あるデータ単位のデータ部分は老人の画像を表し、当該データ単位の正解ラベルは「老人」である。この場合には、当該データ単位は[老人]という対象物クラスに属するということができる。また、別のデータ単位は子供の画像を表し、当該データ単位の正解ラベルは「子供」である。この場合には、当該データ単位は[子供]という対象物クラスに属するということができる。
記憶手段12はプログラム(図示せず)も格納しており、演算手段11がこのプログラムを実行することによって、コンピュータ10は本明細書に記載される機能を実現する。すなわち、このプログラムは、コンピュータ10に本明細書に記載の方法を実行させるものである。
コンピュータ10は、公知のコンピュータが通常備える他の構成要素を備えてもよい。たとえば、出力装置であるディスプレイおよびプリンタ、入力装置であるキーボードおよびマウス、通信ネットワークに対する入力装置と出力装置とを兼ねるネットワークインタフェース、等を備えてもよい。
図2を用いて、本発明の概略を説明する。本発明は、機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する学習済みモデルを生成することに関する。学習済みモデルは複数生成され、たとえば、第1学習済みモデルM1、第2学習済みモデルM2および第3学習済みモデルM3を含む。
第1学習済みモデルM1は、訓練データD1を用いた機械学習により生成される。第1学習済みモデルM1が生成された後に、第1学習済みモデルM1を用いて訓練データD1を分類する。これによって、訓練データD1は、正しく分類される訓練データD1aと、誤って分類される訓練データD1bとに分けられる。すなわち、正解ラベルが[老人]である訓練データD1を第1学習済みモデルM1が[老人]に分類した場合には、その訓練データD1は訓練データD1aであり、当該訓練データD1を第1学習済みモデルM1が[子供]または他のラベルに分類した場合には、その訓練データD1は訓練データD1bであるということになる。
この誤って分類された訓練データD1bに基づく処理に依存して、第2学習済みモデルM2が生成される。第2学習済みモデルM2を生成する際の機械学習には、訓練データD1bを直接的に用いることもでき、訓練データD1bを用いた処理によって特定される他のデータを用いることもできる。
同様にして、さらに他の学習済みモデルを生成してもよい。すなわち、第2学習済みモデルM2が生成された後に、第2学習済みモデルM2を用いて訓練データD1bを分類する。これによって、訓練データD1bは、正しく分類される訓練データD1baと、誤って分類される訓練データD1bbとに分けられる。さらに、この誤って分類された訓練データD1bbに基づく処理に依存して、第3学習済みモデルM3が生成される。
本発明は、このようにして複数の学習済みモデルを生成することを含む。とくに、ある学習済みモデル(たとえば第1学習済みモデルM1)が正しく分類できなかったデータ(たとえば訓練データD1b)に基づく処理に依存して、別の学習済みモデル(たとえば第2学習済みモデルM2)を生成するので、各モデルが得意とするデータを適切に分担することができ、各モデル間の連携がより適切に実現できる。
また、本発明は、別の振り分け用学習済みモデルMDを生成する場合がある。振り分け用学習済みモデルMDは、各データについて、どの学習済みモデルがそのデータを正しく認識できるかを推定する。すなわち、ある訓練データD1が、訓練データD1aであるのか、訓練データD1baであるのか、または訓練データD1bbであるのか、等を推定する。
以下、図3〜図7を用いて、本発明の実施の形態1に係るコンピュータ10の動作をより詳細に説明する。なお、添付図面において、学習済みモデルを単に「モデル」と表記する場合がある。
図3は、学習済みモデルを生成するためにコンピュータ10が実行する処理の流れを説明するフローチャートである。図3の処理において、まずコンピュータ10は、訓練データD1を用いて機械学習を行うことにより、第1学習済みモデルM1を生成する(ステップS1、第1生成ステップ)。第1学習済みモデルM1は、データを複数の対象物クラスのいずれかに分類する学習済みモデルである。ここで、「訓練データD1を用いて機械学習を行う」とは、訓練データD1を直接的に学習中モデルに入力し、その出力(分類結果)の正誤に応じて学習中モデルの構成を変化させる(たとえば誤差逆伝搬法によって重みを変化させる)ことをいう。
図4に、実施の形態1におけるステップS1の詳細を示す。実施の形態1では、訓練データD1に加え、検証データD2を用いて機械学習が行われ、結果は評価データD3を用いて評価される。
図4の処理において、まずコンピュータ10は、訓練データD1を用いて機械学習を行う(ステップS11)。ここではたとえば1エポックの学習(すべての訓練データD1を1回ずつ用いた学習)が行われる。次に、コンピュータ10は、訓練データD1および検証データD2を用いて機械学習の結果を検証する(ステップS12)。「検証する」とは、たとえば、学習中モデルを用いてすべてのデータを分類させ、分類した際の精度(損失)を算出することを意味する。
次に、コンピュータ10は、訓練データD1を用いて検証した場合の損失と、検証データD2を用いて検証した場合の損失とを、前回の結果における損失と比較する(ステップS13)。なお初回の場合には、前回の結果における損失は無限大として扱ってもよい。訓練データD1に係る損失と、検証データD2に係る損失との双方が前回より低下していた場合には、コンピュータ10は処理をステップS11に戻し、次回の学習を実行する。これはたとえば、学習が順調に行われ、分類精度が高まりつつある状態に該当する。
なお、たとえば、訓練データD1による過学習が発生している場合には、訓練データD1に係る損失が低下する一方で、検証データD2に係る損失が上昇することになる。この場合にはステップS13からS14へと分岐するので、それ以上の学習は行われず、過学習が防止される。このように、訓練データD1と検証データD2とを分離して準備することにより、訓練データD1による過学習を低減することができる。
訓練データD1に係る損失が低下していない場合や、検証データD2に係る損失が低下していない場合には、コンピュータ10は、訓練データD1での成績が良好か否かを判定する(ステップS14)。成績が良好か否かの決定方法は当業者が適宜設計可能であるが、たとえば学習中モデルを用いて訓練データD1を分類した場合の損失を基準として定義することができる。
訓練データD1での成績が良好でない場合には、コンピュータ10は処理を終了する。この場合には、コンピュータ10は、学習中モデルの編集を行ってもよい。たとえば、学習用のモデルのハイパーパラメータを変更する指示の入力を受け付け、これに応じて学習中モデルの変更または初期化を行ってもよい。このようにすると、コンピュータ10の使用者は、ニューラルネットワークの層の追加や、ニューロンの接続構成を行うことができる。また、ハイパーパラメータを変更した後に、コンピュータ10は、図3の処理を最初から再実行してもよい。
訓練データD1での成績が良好である場合には、コンピュータ10は、評価データD3を用いて評価を行う(ステップS15)。評価方法は当業者が適宜設計可能であるが、たとえば学習中モデルを用いて評価データD3を分類した場合の損失を基準として評価することができる。なお、評価の結果が良好でない場合には、コンピュータ10の使用者は学習用のデータ(訓練データD1、検証データD2および評価データD3等)を追加し、図3の処理を最初から再実行してもよい。
ここで、訓練データD1および検証データD2とは異なる評価データD3を準備することにより、訓練データD1および検証データD2に特化したハイパーパラメータになってしまっている場合を発見することができる。
以上のようにして、コンピュータ10は、ステップS1において第1学習済みモデルM1を生成する。次に、コンピュータ10は、第1学習済みモデルM1を用いてデータを成否分類する(ステップS2)。成否分類とは、データのうち、第1学習済みモデルM1が正しく分類(認識)できるクラスと、正しく分類(認識)できないとクラスとを含む複数のクラス(成否クラス)のいずれかに分類する処理をいう。「正しく分類できる」とは、たとえば老人の画像を老人として認識し、対象物クラス[老人]に分類することを意味し、「正しく分類できない」とは、たとえば老人の画像を子供として認識し、対象物クラス[子供]に分類することや、何の画像であるか認識できず、いずれの対象物クラスにも分類できないことを意味する。
本明細書において、第1学習済みモデルM1が正しく分類できるデータは、成否クラス[M1]に属し、第1学習済みモデルM1が正しく分類できないデータは、成否クラス[非M1]に属するものと定義する。この成否クラス[M1]は、図2の訓練データD1aを含むクラスであり、成否クラス[非M1]は、図2の訓練データD1bを含むクラスである。
これらの成否クラスは、対象物クラス[老人]や[子供]等とは別に形成される。すなわち、ある訓練データD1は対象物クラス[老人]に属しながら同時に成否クラス[M1]に属し、ある検証データD2は対象物クラス[子供]に属しながら同時に成否クラス[非M1]に属するというように定義される。なお、分類結果の状況によっては、他の成否クラスが設けられてもよい。
図5に、実施の形態1におけるステップS2の詳細を示す。本実施形態では、このステップS2の成否分類は、検証データD2に対して行われる(ステップS21)。すなわち、コンピュータ10は、検証データD2を、第1学習済みモデルM1によって正しく分類されるデータが属する成否クラス[M1]と、第1学習済みモデルM1によって正しく分類されないデータが属する成否クラス[非M1]とを含む、複数の成否クラスのいずれかに分類する。
この処理は、たとえば実際に第1学習済みモデルM1を用いて検証データD2を分類し、その結果に応じて各検証データD2にラベル[M1]または[非M1]等を付与することによって実行される。
次に、コンピュータ10は第2学習済みモデルM2を生成する(ステップS3、第2生成ステップ)。第2学習済みモデルM2は、第1学習済みモデルM1と同様に、データを複数の対象物クラスのいずれかに分類する学習済みモデルである。
第2学習済みモデルM2は、第1学習済みモデルM1が正しく分類しないデータに基づく処理に依存する機械学習を行うことによって生成される。「第1学習済みモデルM1が正しく分類しないデータ」とは、本実施形態では、検証データD2のうちステップS21で成否クラス[非M1]に分類されたものをいう。また、「データに基づく処理に依存して生成される」とは、当該データを学習に用いて学習済みモデルが直接的に生成される場合に限らず、当該データに基づく他の処理の間接的な結果として生成される場合をも含む。本実施形態は後者の例に該当する(以下に詳述する)。
図6に、実施の形態1におけるステップS3の詳細を示す。ステップS3において、まずコンピュータ10は、検証データD2を用いて機械学習を行うことにより、振り分け用学習済みモデルMDを生成する(ステップS31)。振り分け用学習済みモデルMDは、データを、成否クラス[M1]および成否クラス[非M1]を含む複数の成否クラスのいずれかに分類する学習済みモデルである。たとえば、この振り分け用学習済みモデルMDは、対象物クラス[老人]に属するデータのうち第1学習済みモデルM1が正しく対象物クラス[老人]に分類しそうなデータについては、成否クラス[M1]に分類し、対象物クラス[老人]に属するデータのうち第1学習済みモデルM1が誤って対象物クラス[子供]に分類しそうなデータについては、成否クラス[非M1]に分類するものである。
次に、コンピュータ10は、振り分け用学習済みモデルMDを用いて、訓練データD1に対する成否分類を行う(ステップS32)。ただし、成否分類の基準は第1学習済みモデルM1である一方で、実際に分類を行う学習済みモデルは振り分け用学習済みモデルMDであるため、分類は直接的に行われるのではなく、機械学習による推定処理となる。したがって、たとえば、実際に第1学習済みモデルM1が正しく分類できるデータであっても、振り分け用学習済みモデルMDによって成否クラス[非M1]に分類されるものが存在する可能性がある。
すなわち、コンピュータ10は、振り分け用学習済みモデルMDを用いて、訓練データD1(さらに検証データD2、評価データD3、等を含んでもよい)を、成否クラス[M1]および成否クラス[非M1]を含む複数の成否クラスのいずれかに分類する。
本明細書において、データのうち、振り分け用学習済みモデルMDが成否クラス[M1]に分類するデータは、振り分けクラス[M1:MD]に属するものと定義する。これは、実際に第1学習済みモデルM1による分類が成功するか否かとは、必ずしも一致しない。同様に、データのうち、振り分け用学習済みモデルMDが成否クラス[非M1]に分類するデータは、振り分けクラス[非M1:MD]に属するものと定義する。これは、実際に第1学習済みモデルM1による分類が失敗するか否かとは、必ずしも一致しない。
これらの振り分けクラスは、対象物クラス[老人]や[子供]等および成否クラス[M1]および[非M1]等とは別に形成される。あるデータが成否クラス[M1]に属するか否かと、そのデータが振り分けクラス[M1:MD]に属するか否かとは、相関はするが、完全に一致するとは限らない。なお、分類結果の状況によっては、他の振り分けクラスが設けられてもよい。
以上をまとめると、ステップS32において、コンピュータ10は、振り分け用学習済みモデルMDを用いて、データを、振り分け用学習済みモデルMDによって成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD](成否クラス[M1]と内容が一致するとは限らない)と、振り分け用学習済みモデルMDによって成否クラス[非M1]に分類されるデータが属する振り分けクラス[非M1:MD](成否クラス[非M1]と内容が一致するとは限らない)とを含む複数の振り分けクラスのいずれかに分類するということができる。なお、この際に、訓練データD1および検証データD2の両方を分類してもよい。
次に、コンピュータ10は、振り分けクラス[M1:MD]に属する訓練データD1(他のデータを含んでもよい)を用いて機械学習を行うことにより、第1学習済みモデルM1を追加学習する(ステップS33)。たとえば、振り分けクラス[M1:MD]に属する訓練データD1と、同じく振り分けクラス[M1:MD]に属する検証データD2とを用いてステップS1を再実行することにより、ニューロン間の結合の重みを更新することができる。なおこのステップS33は省略してもよい。
次に、コンピュータ10は、振り分けクラス[非M1:MD]に属する訓練データD1(他のデータを含んでもよい)を用いて機械学習を行うことにより、上述の第2学習済みモデルM2を生成する(ステップS34)。
ここで、ステップS31およびS32によれば、振り分けクラス[非M1:MD]は、第1学習済みモデルM1によって正しく分類されないデータ(すなわち成否クラス[非M1]に属するデータ)に関連して形成されている。これを考慮すると、第2学習済みモデルM2は、成否クラス[非M1]に属するデータに基づく処理に依存する機械学習を行うことにより、間接的に生成されていると言える。
以上のように説明される実施の形態1によれば、第2学習済みモデルM2は、第1学習済みモデルM1が分類に失敗すると考えられるデータを用いて学習するので、第1学習済みモデルM1が苦手とするデータに特化した学習済みモデルとなる。また、振り分け用学習済みモデルMDは、データを、第1学習済みモデルM1がうまく分類できるものと、そうでないもの(すなわち第2学習済みモデルM2がよりうまく分類できるもの)とに分類することができる。このように、分割された3つの学習済みモデルが適切に連携するので、結果として全体の分類精度が向上する。
なお、上記では対象物クラスに分類するための学習済みモデルが第1学習済みモデルM1および第2学習済みモデルM2の2つだけであるが、ステップS2およびS3を繰り返してさらに多くの学習済みモデルを生成することも可能である。
たとえば、コンピュータ10は、図示しない第3生成ステップを実行することにより、第3学習済みモデルを生成してもよい。第3学習済みモデルM3は、第1学習済みモデルM1および第2学習済みモデルM2と同様に、データを複数の対象物クラスのいずれかに分類する学習済みモデルである。
第3生成ステップにおいて、まずコンピュータ10は、第1学習済みモデルM1および第2学習済みモデルM2を用いて、検証データD2を、第1学習済みモデルM1によって正しく分類されるデータが属する成否クラス[M1]と、第2学習済みモデルM2によって正しく分類されるデータが属する成否クラス[M2]と、第1学習済みモデルM1および第2学習済みモデルM2のいずれによっても正しく分類されないデータが属する成否クラス[非M1非M2]とを含む、複数の成否クラスとを含む複数の成否クラスのいずれかに分類する。この成否クラス[M2]は、図2の訓練データD1baを含むクラスであり、成否クラス[非M1非M2]は、図2の訓練データD1bbを含むクラスである。なお、本実施形態では、第1学習済みモデルM1および第2学習済みモデルM2いずれによっても正しく分類されるデータは成否クラス[M1]に属することになるが、変形例として、このようなデータは成否クラス[M2]に属するものと定義してもよい。
次に、コンピュータ10は、検証データD2を用いて機械学習を行うことにより、データを、成否クラス[M1]、成否クラス[M2]および成否クラス[非M1非M2]を含む複数の成否クラスのいずれかに分類する、新たな振り分け用学習済みモデルを生成する。なお、この新たな振り分け用学習済みモデルは、上述の振り分け用学習済みモデルとは異なるものであってもよい。
次に、コンピュータ10は、訓練データD1(検証データD2、評価データD3、等を含んでもよい)を、新たな振り分け用学習済みモデルによって成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、新たな振り分け用学習済みモデルによって成否クラス[M2]に分類されるデータが属する振り分けクラス[M2:MD]と、新たな振り分け用学習済みモデルによって成否クラス[非M1非M2]に分類されるデータが属する振り分けクラス[非M1非M2:MD]とを含む複数の振り分けクラスのいずれかに分類する。
次に、コンピュータ10は、振り分けクラス[非M1非M2:MD]に属する訓練データD1(他のデータを含んでもよい)を用いて機械学習を行うことにより、第3学習済みモデルM3を生成する。
実施の形態1に係る第1学習済みモデルM1、第2学習済みモデルM2および振り分け用学習済みモデルMD(さらに第3学習済みモデルM3を含んでもよい)を用いて本番データD4を分類するための手順および方法等は、任意に設計可能であるが、たとえば次のようにして実行することができる。なお、以下では、第1学習済みモデルM1および第2学習済みモデルM2のみを用いる例を説明するが、第3学習済みモデルM3およびさらなる学習済みモデルが用いられる場合も同様である。
図7は、本番データD4を分類するためにコンピュータ10が実行する処理の流れを説明するフローチャートである。図7の処理において、まずコンピュータ10は、振り分け用学習済みモデルMDに本番データD4を入力し、学習済みモデル(第1学習済みモデルM1および第2学習済みモデルM2)のうちいずれを分類に用いるかを選択する(ステップS101)。より具体的には、コンピュータ10は、振り分け用学習済みモデルMDを用いて、本番データD4を振り分けクラスのいずれかに分類する。
次に、コンピュータ10は、選択された学習済みモデル(第1学習済みモデルM1または第2学習済みモデルM2)を用いて、対応する本番データD4を分類する(ステップS102)。より具体的には、振り分けクラス[M1:MD]に属する本番データD4については、第1学習済みモデルM1を用いて対象物クラスのいずれかに分類し、振り分けクラス[M2:MD]に属する本番データD4については、第2学習済みモデルM2を用いて対象物クラスのいずれかに分類する。このようにすると、第1学習済みモデルM1、第2学習済みモデルM2および振り分け用学習済みモデルMDを適切に連携させることができる。学習済みモデルが3つ以上生成されている場合にも、同様にして分類することが可能である。
また、学習済みモデルは再帰的に任意の数だけ生成することができるが、図10の分類処理では、学習済みモデルの数に関わらず実質的な分類処理は2回で済む。すなわち、振り分け用学習済みモデルMDで1回、さらに第1学習済みモデルM1または第2学習済みモデルM2の一方のみで1回、合計2回で良いので、計算機資源の消費を比較的低く抑えることができる。
なお、図7に示す分類方法を用いて、第1学習済みモデルM1、第2学習済みモデルM2および振り分け用学習済みモデルMDの評価を行うこともできる。たとえば、図7に示す処理において、本番データD4の代わりに評価データD3を用い、成績を評価してもよい。
上述の実施の形態1において、学習済みモデルの機能を、クラスタリングではなく、推定値を出力することに変更してもよい。たとえば、第1学習済みモデルM1は、データに基づいて推定値を出力する。具体例としては、過去の加速度値から次の瞬間の加速度値(予測値)を予測する予測モデルが挙げられる。より具体的には、人間の手の動きの加速度の向きおよび大きさを表すベクトルをデータとしてもよい。たとえば、過去から現在直前に至る1回以上の手の動きの加速度値を入力とし、次の瞬間における手の動きの加速度値を推定し、これを推定値として出力するものであってもよい。加速度値に代えて速度値を用いてもよい。
この場合には、「訓練データD1を用いて機械学習を行う」とは、訓練データD1を直接的に学習中モデルに入力し、その出力の誤差(二乗誤差等)に応じて学習中モデルの構成を変化させる(たとえば誤差逆伝搬法によって重みを変化させる)ことをいう。
この場合には、ステップS2の成否分類は、正解か否かではなく、正解に近い値であるか否かに基づいて行われる。たとえば、あるデータを入力として第1学習済みモデルM1による推定値の出力を行った結果として、その推定値が正解に近い値である場合には、そのデータは成否クラス[M1]に属し、その推定値が正解に近くない値である場合には、そのデータは成否クラス[非M1]に属すると定義する。近いか否かの基準は適宜定義可能であるが、たとえば、スカラー値の場合には推定値と正解との差(または差の絶対値)を用いてもよく、ベクトルの場合には推定値と正解とのユークリッド距離を用いてもよい。
すなわち、この場合には、ステップS1(第1生成ステップ)は、訓練データD1を用いて機械学習を行うことにより、データに基づいて推定値を出力する第1学習済みモデルM1を生成するステップであるということができる。また、ステップS2(第2生成ステップ)は、第1学習済みモデルM1による推定値の誤差を大きくするデータに基づく処理に依存する機械学習を行うことにより、データに基づいて推定値を出力する第2学習済みモデルM2を生成するステップであるということができる。なお、ここで「推定値の誤差を大きくするデータ」とは、第1のデータに基づいて出力された第1の推定値と、第2のデータに基づいて出力された第2の推定値とを比較した場合に、第1の推定値に対する誤差のほうが大きくなっていた場合に、第1のデータのほうが推定値の誤差を大きくするデータである、という意味であり、「推定値の誤差が大きくなるデータ」と言い換えることもできる。
このように、実施の形態1またはその変形例によれば、複数の学習済みモデルに対して同一のデータを入力し、それぞれ異なり得る出力を取得するので、同一のデータに対して複数の予測値や候補ラベルを取得することができる。具体的には、第1学習済みモデルM1の出力は一つ目の予測値で、第2学習済みモデルM2の出力値は二つ目の予測値として利用できる。これらの複数の予測値は、たとえば人の動きをシミュレートするときに利用可能である。たとえば、最初に一つ目の予測値を利用してシミュレートした後、効率の良い動作にならなかった場合には、二つ目の予測値を利用してシミュレートをやり直すことができる。このようにすると、人の作業をシミュレートすることにより作業の効率化を図ったり、危険な作業を予測して防止したりすることが可能になる。
実施の形態2.
実施の形態1では、対象物クラスの分類のための学習済みモデル(第1学習済みモデルM1および第2学習済みモデルM2等)に加え、振り分け用学習済みモデルMDを用いた。実施の形態2は、実施の形態1において、振り分け用学習済みモデルMDを用いないよう変更するものである。以下、図8〜図10を用いて、実施の形態1との相違点を説明する。
図8に、実施の形態2におけるステップS2の詳細を示す。本実施形態では、このステップS2の成否分類は、訓練データD1に対して行われる(ステップS22)。すなわち、コンピュータ10は、訓練データD1を、第1学習済みモデルM1によって正しく分類されるデータが属する成否クラス[M1]と、第1学習済みモデルM1によって正しく分類されないデータが属する成否クラス[非M1]とを含む、複数の成否クラスのいずれかに分類する。
また、図9に、実施の形態2におけるステップS3の詳細を示す。ステップS3において、コンピュータ10は、成否クラス[非M1]に属する訓練データD1を含むデータ(他のデータを含んでもよい)を用いて機械学習を行うことにより、第2学習済みモデルM2を生成する(ステップS35)。このように、本実施形態では、第1学習済みモデルM1が誤って分類した訓練データD1を直接的に用いて、第2学習済みモデルM2の学習が行われる。
以上のように説明される実施の形態2によれば、第2学習済みモデルM2は、第1学習済みモデルM1が分類に失敗したデータを用いて学習するので、第1学習済みモデルM1が苦手とするデータに特化した学習済みモデルとなる。このように、分割された2つの学習済みモデルが適切に連携するので、結果として全体の分類精度が向上する。
なお、上記では対象物クラスに分類するための学習済みモデルが第1学習済みモデルM1および第2学習済みモデルM2の2つだけであるが、実施の形態1と同様に、ステップS2およびS3を繰り返してさらに多くの学習済みモデルを生成することも可能である。
たとえば、コンピュータ10は、図示しない第3生成ステップを実行することにより、第3学習済みモデルを生成してもよい。第3学習済みモデルM3は、第1学習済みモデルM1および第2学習済みモデルM2と同様に、データを複数の対象物クラスのいずれかに分類する学習済みモデルである。
第3生成ステップにおいて、まずコンピュータ10は、第1学習済みモデルM1および第2学習済みモデルM2を用いて、訓練データD1を、第1学習済みモデルM1によって正しく分類されるデータが属する成否クラス[M1]と、第2学習済みモデルM2によって正しく分類されるデータが属する成否クラス[M2]と、第1学習済みモデルM1および第2学習済みモデルM2のいずれによっても正しく分類されないデータが属する成否クラス[非M1非M2]とを含む、複数の成否クラスとを含む複数の成否クラスのいずれかに分類する。なお、本実施形態では、第1学習済みモデルM1および第2学習済みモデルM2いずれによっても正しく分類されるデータは成否クラス[M1]に属することになるが、変形例として、このようなデータは成否クラス[M2]に属するものと定義してもよい。
次に、コンピュータ10は、成否クラス[非M1非M2]に属する訓練データD1を用いて機械学習を行うことにより、第3学習済みモデルを生成する。
実施の形態2に係る第1学習済みモデルM1および第2学習済みモデルM2(さらに第3学習済みモデルM3を含んでもよい)を用いて本番データD4を分類するための手順および方法等は、任意に設計可能であるが、たとえば次のようにして実行することができる。なお、以下では、第1学習済みモデルM1および第2学習済みモデルM2のみを用いる例を説明するが、第3学習済みモデルM3およびさらなる学習済みモデルが用いられる場合も同様である。
図10は、本番データD4を分類するためにコンピュータ10が実行する処理の流れを説明するフローチャートである。図10の処理において、まずコンピュータ10は、検証データD2を用いて、第1学習済みモデルM1がデータを正しい対象物クラスに分類する確率(以下「第1確率」と呼ぶ)を決定する(ステップS201)。第1確率は、たとえば単純に、検証データD2のうち第1学習済みモデルM1が正しい対象物クラスに分類したデータの数を、検証データD2の総数で除算した値としてもよい。
次に、コンピュータ10は、検証データD2を用いて、第2学習済みモデルM2がデータを正しい対象物クラスに分類する確率(以下「第2確率」と呼ぶ)を決定する(ステップS202)。第2確率は、たとえば単純に、検証データD2のうち第2学習済みモデルM2が正しい対象物クラスに分類したデータの数を、検証データD2の総数で除算した値としてもよい。
次に、コンピュータ10は、本番データD4のそれぞれについて、第1学習済みモデルM1がその本番データD4を分類する対象物クラス(以下「第1対象物クラス」と呼ぶ)と、その分類結果の信頼度(以下「第1信頼度」)とを決定する(ステップS203)。この処理は、たとえばニューラルネットワークを用いた周知のデータ分類処理によって実現可能である。たとえば、出力層のニューロンのうち最大の値を出力したものに応じて第1対象物クラスを決定してもよく、そのニューロンが出力した値を第1信頼度としてもよい。
次に、コンピュータ10は、本番データD4のそれぞれについて、第2学習済みモデルM2がその本番データD4を分類する対象物クラス(以下「第2対象物クラス」と呼ぶ)と、その分類結果の信頼度(以下「第2信頼度」)とを決定する(ステップS204)。この処理は、たとえばニューラルネットワークを用いた周知のデータ分類処理によって実現可能である。たとえば、出力層のニューロンのうち最大の値を出力したものに応じて第2対象物クラスを決定してもよく、そのニューロンが出力した値を第2信頼度としてもよい。
次に、コンピュータ10は、第1確率、第2確率、第1対象物クラス、第2対象物クラス、第1信頼度および第2信頼度に基づく比較により、その本番データD4を対象物クラスのいずれかに分類する(ステップS205)。具体的な比較方法は任意に設計可能であるが、たとえば、候補となった対象物クラスそれぞれについて、確率および信頼度を乗算した総合値を算出し、この総合値を比較して決定することができる。
ステップS205の具体例を以下に説明する。まず、第1対象物クラスと第2対象物クラスとが一致した場合には、そのデータはその対象物クラスに分類される。この場合には、数値を用いた比較演算等は省略可能である。
第1対象物クラスと第2対象物クラスとが一致しなかった場合には、数値を用いた比較演算処理を行う。たとえば、検証データD2が全部で14個あり、そのうち第1学習済みモデルM1が正しい対象物クラスに分類するものが6個あったとすると、第1確率は6/14となる。また、検証データD2のうち第2学習済みモデルM2が正しい対象物クラスに分類するものが4個あったとすると、第2確率は4/14となる。
そして、ある本番データD4について、第1学習済みモデルM1がそのデータについて対象物クラス[老人]であると推定し、その信頼度を1/6と出力したとする。また、その本番データD4について、第2学習済みモデルM2がそのデータについて対象物クラス[子供]であると推定し、その信頼度を1/2と出力したとする。
この場合には、そのデータについて、第1学習済みモデルM1の総合値は(6/14)×(1/6)=1/14であり、第2学習済みモデルM2の総合値は(4/14)×(1/2)=1/7となるので、第2学習済みモデルM2の総合値のほうが大きい。したがって、コンピュータ10は、第2学習済みモデルM2の分類結果が正しいと判定することができ、そのデータを対象物クラス[子供]に分類する。なお、学習済みモデルが3つ以上生成されている場合にも、各学習済みモデルについて同様に確率と信頼度とを乗算して総合値を求め、最大の総合値を与える学習済みモデルの分類結果を採用すればよい。
このようにすると、各学習済みモデルの全体的な正解率と、ある特定のデータについての各学習済みモデルの信頼度とを組み合わせて評価できるので、各学習済みモデルは互いの苦手なデータをカバーすることができ、適切に連携することができる。
また、実施の形態2では、実施の形態1のような振り分け用学習済みモデルMDを必要としないので、学習済みモデルの管理が効率的に行え、また、最終的にうまく分類できないデータ等が存在した場合であっても、原因解析は比較的容易である。
なお、図10に示す分類方法を用いて、第1学習済みモデルM1および第2学習済みモデルM2の評価を行うこともできる。たとえば、図10に示す処理において、本番データD4の代わりに評価データD3を用い、成績を評価してもよい。
上述の実施の形態1および2において、次のような変形を施すことができる。
訓練データD1について、認識に失敗したものまたは失敗すると推定されたものの量を増加させてもよい。たとえば、最後に生成された学習済みモデルが認識に失敗した訓練データD1(たとえば第2学習済みモデルM2が生成された後の成否クラス[非M1非M2]に属する訓練データD1)や、最後に生成された学習済みモデルが認識に失敗すると推定された訓練データD1(たとえば第2学習済みモデルM2が生成された後の振り分けクラス[非M1非M2:MD]に属する訓練データD1)の量を増加させてもよい。
「量を増加させる」とは、ある対象物クラスに属する1つのデータに基づいて、同じ対象物クラスに属する他のデータを1つ以上新たに生成することを意味する。新たに生成されるデータは、元のデータの単純なコピーであってもよいが、なんらかの変更を加えたものとするのが好ましい。変更の具体的内容として、データが画像を表すものである場合には、画像を左右反転または上下反転させる、明るさを変更する、等の処理が考えられる。また、このような新たなデータを追加した場合には、データ全体の傾向に影響を与えないように、元のデータおよび新たに生成されたデータを用いて学習する際の重みの変更量を通常より小さくしてもよい。変更量の調整は、データ数に反比例させてもよい。たとえば、元のデータと新たに生成されたデータとが合わせて10個である場合には、これらのデータを用いて学習する際の重みの変更量を通常の1/10としてもよい。
なお、このようにデータの量を増加させた場合には、実施の形態2における第2学習済みモデルM2について、第1学習済みモデルM1が実際に分類に失敗したデータのみならず、第1学習済みモデルM1が分類に失敗すると考えられるデータをも用いて学習することになる。
各データ(訓練データD1、検証データD2、評価データD3、本番データD4、等)は、画像でなくともよく、たとえば動画または他の形式のデータであってもよい。また、データ全体での正解ラベルの種類(すなわち対象物クラスの数)は、2以上であれば任意の数とすることができる。
10 コンピュータ、D1 訓練データ(第1データ)、D2 検証データ(第2データ)、D3 評価データ(第3データ)、D4 本番データ、M1 第1学習済みモデル、M2 第2学習済みモデル、M3 第3学習済みモデル、MD 振り分け用学習済みモデル、S1 ステップ(第1生成ステップ)、S3 ステップ(第2生成ステップ)。

Claims (8)

  1. 学習済みモデルを生成する方法であって、
    第1データを用いて機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第1学習済みモデルを生成する、第1生成ステップと、
    前記第1学習済みモデルが正しく分類しないデータに基づく処理に依存する機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第2学習済みモデルを生成する、第2生成ステップと、
    を含み、
    前記方法は、第2データを、
    ‐前記第1学習済みモデルによって正しく分類されるデータが属する成否クラス[M1]と、
    ‐前記第1学習済みモデルによって正しく分類されないデータが属する成否クラス[非M1]と
    を含む複数の成否クラスのいずれかに分類するステップをさらに備え、
    前記第2生成ステップは、
    前記第2データを用いて機械学習を行うことにより、データを前記成否クラス[M1]と前記成否クラス[非M1]とを含む複数の成否クラスのいずれかに分類する振り分け用学習済みモデルを生成するステップと、
    前記第1データを、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[非M1]に分類されるデータが属する振り分けクラス[非M1:MD]と
    を含む複数の振り分けクラスのいずれかに分類するステップと、
    前記振り分けクラス[非M1:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、前記第2学習済みモデルを生成するステップと、
    を含む、方法。
  2. 前記振り分けクラス[M1:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、第1学習済みモデルを追加学習するステップをさらに備える、請求項に記載の方法。
  3. 前記方法は、データを複数の対象物クラスのいずれかに分類する第3学習済みモデルを生成する、第3生成ステップをさらに備え、
    前記第3生成ステップは、
    前記第2データを、
    ‐前記第1学習済みモデルによって正しく分類されるデータが属する成否クラス[M1]と、
    ‐前記第2学習済みモデルによって正しく分類されるデータが属する成否クラス[M2]と、
    ‐前記第1学習済みモデルおよび前記第2学習済みモデルのいずれによっても正しく分類されないデータが属する成否クラス[非M1非M2]と
    を含む複数の成否クラスのいずれかに分類するステップと、
    前記第2データを用いて機械学習を行うことにより、データを、前記成否クラス[M1]、前記成否クラス[M2]および前記成否クラス[非M1非M2]を含む複数の成否クラスのいずれかに分類する振り分け用学習済みモデルを生成するステップと、
    前記第1データを、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[M2]に分類されるデータが属する振り分けクラス[M2:MD]と、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[非M1非M2]に分類されるデータが属する振り分けクラス[非M1非M2:MD]と
    を含む複数の振り分けクラスのいずれかに分類するステップと、
    前記振り分けクラス[非M1非M2:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、前記第3学習済みモデルを生成するステップと、
    を含む、請求項またはに記載の方法。
  4. データを分類する方法であって、
    請求項のいずれか一項に記載の方法を用いて、前記第1学習済みモデル、前記第2学習済みモデルおよび前記振り分け用学習済みモデルを生成するステップと、
    前記振り分け用学習済みモデルを用いて、本番データを、前記複数の振り分けクラスのいずれかに分類するステップと、
    前記第1学習済みモデルを用いて、前記振り分けクラス[M1:MD]に属する前記本番データを前記複数の対象物クラスのいずれかに分類するステップと、
    前記第2学習済みモデルを用いて、前記振り分けクラス[M2:MD]に属する前記本番データを前記複数の対象物クラスのいずれかに分類するステップと、
    を備える、方法。
  5. データを分類する方法であって、
    第1データを用いて機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第1学習済みモデルを生成する、第1生成ステップと、
    前記第1学習済みモデルが正しく分類しないデータに基づく処理に依存する機械学習を行うことにより、データを複数の対象物クラスのいずれかに分類する第2学習済みモデルを生成する、第2生成ステップと、
    第2データを用いて、前記第1学習済みモデルがデータを正しい対象物クラスに分類する確率である第1確率を決定するステップと、
    前記第2データを用いて、前記第2学習済みモデルがデータを正しい対象物クラスに分類する確率である第2確率を決定するステップと、
    本番データについて、前記第1学習済みモデルがその本番データを分類する対象物クラスである第1対象物クラスと、その分類結果の信頼度である第1信頼度とを決定するステップと、
    前記本番データについて、前記第2学習済みモデルがその本番データを分類する対象物クラスである第2対象物クラスと、その分類結果の信頼度である第2信頼度とを決定するステップと、
    前記第1確率と、前記第2確率と、前記第1対象物クラスと、前記第2対象物クラスと、前記第1信頼度と、前記第2信頼度とに基づき、前記本番データを複数の対象物クラスのいずれかに分類するステップと、
    を備える、方法。
  6. 学習済みモデルを生成する方法であって、
    第1データを用いて機械学習を行うことにより、データに基づいて推定値を出力する第1学習済みモデルを生成する、第1生成ステップと、
    前記第1学習済みモデルによる推定値の誤差を大きくするデータに基づく処理に依存する機械学習を行うことにより、データに基づいて推定値を出力する第2学習済みモデルを生成する、第2生成ステップと、
    を含み、
    前記方法は、第2データを、
    ‐前記第1学習済みモデルによって正解に近い推定値が出力されるデータが属する成否クラス[M1]と、
    ‐前記第1学習済みモデルによって正解に近い推定値が出力されないデータが属する成否クラス[非M1]と
    を含む複数の成否クラスのいずれかに分類するステップをさらに備え、
    前記第2生成ステップは、
    前記第2データを用いて機械学習を行うことにより、データを前記成否クラス[M1]と前記成否クラス[非M1]とを含む複数の成否クラスのいずれかに分類する振り分け用学習済みモデルを生成するステップと、
    前記第1データを、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[M1]に分類されるデータが属する振り分けクラス[M1:MD]と、
    ‐前記振り分け用学習済みモデルによって前記成否クラス[非M1]に分類されるデータが属する振り分けクラス[非M1:MD]と
    を含む複数の振り分けクラスのいずれかに分類するステップと、
    前記振り分けクラス[非M1:MD]に属する前記第1データを含むデータを用いて機械学習を行うことにより、前記第2学習済みモデルを生成するステップと、
    を含む、方法。
  7. 請求項1〜のいずれか一項に記載の方法を実行するコンピュータ。
  8. コンピュータに請求項1〜のいずれか一項に記載の方法を実行させるプログラム。
JP2018184231A 2018-09-28 2018-09-28 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム Expired - Fee Related JP6725194B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018184231A JP6725194B2 (ja) 2018-09-28 2018-09-28 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184231A JP6725194B2 (ja) 2018-09-28 2018-09-28 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム

Publications (2)

Publication Number Publication Date
JP2020052935A JP2020052935A (ja) 2020-04-02
JP6725194B2 true JP6725194B2 (ja) 2020-07-15

Family

ID=69997411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184231A Expired - Fee Related JP6725194B2 (ja) 2018-09-28 2018-09-28 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム

Country Status (1)

Country Link
JP (1) JP6725194B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064570A1 (ja) * 2020-09-23 2022-03-31 富士通株式会社 モデル生成プログラム、モデル生成方法及びモデル生成装置
JP7148689B1 (ja) * 2021-06-09 2022-10-05 京セラ株式会社 認識器学習装置、認識装置、電子機器、及び学習方法
JP7539738B1 (ja) 2023-11-20 2024-08-26 株式会社Adansons プログラム、方法、情報処理装置、システム

Also Published As

Publication number Publication date
JP2020052935A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
US11741361B2 (en) Machine learning-based network model building method and apparatus
US10410111B2 (en) Automated evaluation of neural networks using trained classifier
JP6725194B2 (ja) 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム
US20220129794A1 (en) Generation of counterfactual explanations using artificial intelligence and machine learning techniques
US20230021373A1 (en) Utilizing automatic labelling, prioritizing, and root cause analysis machine learning models and dependency graphs to determine recommendations for software products
KR102264233B1 (ko) 문장, 문서 특징값 및 문장 가중치 간의 상관관계를 학습한 인공 신경망에 의해 생성된 설명이 부가된 문서 분류 방법
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
Viaene et al. Cost-sensitive learning and decision making revisited
Karn et al. Dynamic autoselection and autotuning of machine learning models for cloud network analytics
US11797776B2 (en) Utilizing machine learning models and in-domain and out-of-domain data distribution to predict a causality relationship between events expressed in natural language text
KR20210149530A (ko) 이미지 분류 모델 학습 방법 및 이를 수행하기 위한 장치
US20230018960A1 (en) Systems and methods of assigning a classification to a state or condition of an evaluation target
JP2020126468A (ja) 学習方法、学習プログラムおよび学習装置
US11989628B2 (en) Machine teaching complex concepts assisted by computer vision and knowledge reasoning
US11275893B1 (en) Reference document generation using a federated learning system
US20240020113A1 (en) Utilizing a machine learning model to transform a legacy application to a low-code/no-code application
US20190286703A1 (en) Clustering program, clustering method, and clustering device for generating distributed representation of words
US12124537B2 (en) Training an environment generator of a generative adversarial network (GAN) to generate realistic environments that incorporate reinforcement learning (RL) algorithm feedback
US20230141408A1 (en) Utilizing machine learning and natural language generation models to generate a digitized dynamic client solution
US11900325B2 (en) Utilizing a combination of machine learning models to determine a success probability for a software product
CN115130544A (zh) 基于多头自注意力超图神经网络的数据分类方法及装置
KR102115973B1 (ko) 이질성 학습 기반의 정보 분류 장치
JP2022148878A (ja) プログラム、情報処理装置、及び方法
US20240231773A9 (en) Intelligent adaptive self learning framework for data processing on cloud data fusion
JP7568592B2 (ja) モデルの評価方法及び計算機システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R150 Certificate of patent or registration of utility model

Ref document number: 6725194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees