JP2020004057A - 選定プログラム、選定方法および選定装置 - Google Patents

選定プログラム、選定方法および選定装置 Download PDF

Info

Publication number
JP2020004057A
JP2020004057A JP2018122476A JP2018122476A JP2020004057A JP 2020004057 A JP2020004057 A JP 2020004057A JP 2018122476 A JP2018122476 A JP 2018122476A JP 2018122476 A JP2018122476 A JP 2018122476A JP 2020004057 A JP2020004057 A JP 2020004057A
Authority
JP
Japan
Prior art keywords
data
learning
learning model
determination
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018122476A
Other languages
English (en)
Other versions
JP7139723B2 (ja
Inventor
裕司 溝渕
Yuji Mizobuchi
裕司 溝渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018122476A priority Critical patent/JP7139723B2/ja
Priority to US16/430,699 priority patent/US20200005182A1/en
Publication of JP2020004057A publication Critical patent/JP2020004057A/ja
Application granted granted Critical
Publication of JP7139723B2 publication Critical patent/JP7139723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】学習モデル更改後の再判別処理にかかる時間を実質的に短縮することを課題とする。【解決手段】学習装置は、複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、複数のデータのそれぞれについて、学習モデルによる判別結果の複数の判別候補に対する不確かさを示す乖離指標を算出する。その後、学習装置は、学習モデルの更改に応じ、乖離指標に基づき、更改された学習モデルを用いて再判別を行うデータを複数のデータから選定する。【選択図】図2

Description

本発明は、選定プログラム、選定方法および選定装置に関する。
教師データを用いて、データを複数のクラスに割当てるように学習器を学習して学習モデルを生成することが行われている。例えば、大量の文書データと各文書データ間が類似であるか否かを示すラベルとを用いて類似性の判別を学習し、学習後の学習モデルに、判別対象の2つの文書データを入力して、類似か否かを判別する。また、過去の大量の診断データと各診断データに対応する患者が癌を発症したか否かを示すラベルとを用いて、癌の発症予測を学習し、新たな患者の診断データを学習後の学習モデルに入力して、癌の発症リスクを判別する。また、システム障害などの障害事象と障害原因との関係性を学習し、学習後の学習モデルに、新たに発生した障害事象を入力して障害原因の切り分けを実行する。
一般的に、このような学習モデルは、より精度の高い判別が実行できるように、一旦生成された後に様々な要因で更改が行われる。例えば、時間と共に、新たな教師データが蓄積されたり、ラベルの性質が変わったり、学習されたパラメータの性質が変わったり、新たな学習技術が開発されたり、様々な要因により比較的高頻度に学習モデルの更改が行われている。近年では、所定数の判別対象データに対する判別結果の正解率を算出し、正解率に基づいて学習モデルの更改を行うか否かを判定する。そして、学習モデルの更改を実行した場合は、更改後の学習モデルを用いて、学習前の学習モデルで一度判別された全判別対象データに対して、再度の判別処理を実行する技術が知られている。
国際公開第2010/046972号 特開2011−22864号公報 特開2014−191450号公報
しかしながら、上記技術では、近年のデータの大規模化に伴い、学習モデルの更改後の再判別処理に時間がかかり、重大な機会損失を招く危険性がある。例えば、学習モデルにより文書間の類似判定を行う場合、文書数がn個の場合の再判別処理はnの2乗回の計算量となり、また、学習モデルにより癌判定を行う場合、癌患者数がnの場合の再判別処理はn回の計算量がかかる、というように、対象データ数が多いほど再判別処理に時間がかかる。また、障害切り分けの学習モデルでは、学習モデルの更改後の再判別処理に時間がかかると、最新の判別結果を運用者に通知するのに時間がかかり、適切な運用対処の機会喪失を招き、障害による影響が拡大する。
一つの側面では、学習モデル更改後の再判別処理の対象を削減することができる選定プログラム、選定方法および選定装置を提供することを目的とする。
第1の案では、選定プログラムは、コンピュータに、複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出する処理を実行させる。選定プログラムは、コンピュータに、前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する処理を実行させる。
一実施形態によれば、学習モデル更改後の再判別処理にかかる時間を実質的に短縮することができる。
図1は、実施例1にかかる学習装置の全体例を説明する図である。 図2は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。 図3は、学習データDBに記憶される情報の例を示す図である。 図4は、判別対象データDBに記憶される情報の例を示す図である。 図5は、優先順位DBに記憶される情報の例を示す図である。 図6は、判別関数の例を示す図である。 図7は、処理の流れを示すフローチャートである。 図8は、具体的なデータ例を示す図である。 図9は、特徴量である文書間の単語の重複度合を示す図である。 図10は、学習対象の入力データおよび出力結果を説明する図である。 図11は、判別対象データの判別結果を説明する図である。 図12は、乖離指標の算出例を説明する図である。 図13は、再判別時の優先順位の設定例を説明する図である。 図14は、パラメータの変化と判別関数の関係を説明する図である。 図15は、学習モデルの更改量と判別結果の変化との関係を説明する図である。 図16は、終了条件の設定例を説明する図である。 図17は、ハードウェア構成例を示す図である。
以下に、本願の開示する選定プログラム、選定方法および選定装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体例]
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示す学習装置10は、再学習後に判別対象とするデータを選定する選定装置の一例である。例えば、学習装置10は、教師データを用いて学習された学習モデルを用いて、判別対象データの判別を実行して判別結果を得る。そして、学習装置10は、判別結果から、学習モデルが更改された場合に判別が変わりやすいものを特定する。その後、学習装置10は、学習モデルが更改されると、更改後の学習モデルに対して、判別が変わりやすいと特定された順で判別対象データの再判別処理を実行し、新たな判別結果を得る。
例えば、学習装置10は、入力(x)と重み(w)とを用いて判別結果を出力する学習モデルPに対して、判別対象のデータA、データB、データCを順に入力して判別結果を取得する。続いて、学習装置10は、学習モデルにより判別された複数の判別対象データのそれぞれについて、学習モデルによる判別出力候補それぞれからの乖離状況に関する、乖離指標を算出する。換言すれば、乖離指標(非確定指標と呼称してもよい)は、複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す指標である。そして、学習装置10は、乖離指標に基づき、再判別時の順番として、データG、データR、データAなどを選定する。その後、学習装置10は、学習モデルが更改された後、更改後の学習モデルに対して、データG、データR、データAの順番で入力して再判別処理を実行する。
このようにすることで、学習装置10は、更改前後の学習モデルによる判別結果が変化する価値のあるデータを優先して、更改モデルの判別処理を実行することができるので、学習モデル更改後の再判別処理にかかる時間を実質的に短縮することができる。なお、本実施例では、学習処理、選定処理、再判別処理を学習装置10が実行する例で説明するが、それぞれの処理を別々の装置が実行することもできる。
[機能構成]
図2は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図2に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者端末から処理の開始指示や学習データなどを受信し、判別結果などを指定端末に送信する。
記憶部12は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、学習データDB13、学習結果DB14、判別対象データDB15、判別結果DB16、優先順位DB17を記憶する。
学習データDB13は、学習モデルの学習に使用される学習データを記憶するデータベースである。図3は、学習データDB13に記憶される情報の例を示す図である。図3に示すように、学習データDB13は、データの順番を示す「項番」と、データを一意に識別する「データID」と、データに付与されるラベルを示す「ラベル」とを対応付けて記憶する。図3の例では、項番1のデータ1にはラベルAが付与されており、項番2のデータ2にはラベルBが付与されている。なお、学習データは、教師有データ(ラベル付きデータ)に限らず、教師無データ(ラベル無しデータ)を用いることもでき、両方を用いることもできる。
学習結果DB14は、学習結果を記憶するデータベースである。例えば、学習結果DB14は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された、学習器やニューラルネットワークの各種パラメータや各種重みなどを記憶する。
判別対象データDB15は、学習された学習モデルを用いて判別する対象の判別対象データを記憶するデータベースである。図4は、判別対象データDB15に記憶される情報の例を示す図である。図4に示すように、判別対象データDB15は、データの順番を示す「項番」と、データを一意に識別する「データID」とを対応付けて記憶する。図4の例では、判別対象の項番1がデータJ1であり、項番2がデータJ2である。
判別結果DB16は、判別結果を記憶するデータベースである。例えば、判別結果DB16は、判別対象データDB15に記憶される判別対象のデータそれぞれに対応付けて、判別された結果を記憶する。
優先順位DB17は、学習モデルの更改後の再判別処理の順番を記憶するデータベースである。具体的には、優先順位DB17は、後述する順位判定部23によって生成された優先順位を記憶する。図5は、優先順位DB17に記憶される情報の例を示す図である。図5に示すように、優先順位DB17は、特定された優先順位を示す「順番」とデータを識別する「データID」とを対応付けて記憶する。図5の例では、再判別時の順番がデータJ11、データJ25、データJ5、データJ40であることを示す。
制御部20は、学習装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、学習部21、判別部22、順位判定部23を有する。なお、学習部21、判別部22、順位判定部23は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。
学習部21は、学習データDB13に記憶される各学習データを入力として、学習モデルの学習を実行する処理部である。具体的には、学習部21は、学習データDB13からデータ1を読み出して、ニューラルネットワークなどの学習器に入力して出力を得る。そして、学習部21は、出力値とラベル「ラベルA」との誤差が小さくなるように学習する。
このように、学習部21は、各学習データについて、学習器の出力値と予め設定されるラベルとの誤差が最小化されるように学習を実行して学習モデルを学習および構築する。そして、学習部21は、学習が終了すると、各種パラメータなどを学習結果DB14に格納する。なお、ニューラルネットワークは、RNN(再帰型ニューラルネットワーク:Recurrent Neural Network)など様々なニューラルネットワークを用いることができる。また、ニューラルネットワーク以外にも、SVM(Support Vector Machine)、決定木、ランダムフォレストなどの機械学習を採用することができる。また、学習方法は、誤差逆伝播法など様々な手法を採用することができる。
また、学習部21は、学習が終了して学習モデルが構築された後、新たな学習データが蓄積されたり、ラベルの性質が変わったり、学習されたパラメータの性質が変わったり、新たな学習技術が開発されるなどの要因が発生した場合に、学習データDB13に記憶される各学習データを用いて、学習モデルの更改を実行する。
例えば、学習部21は、新たな学習データを学習後の学習モデルに入力して、出力値とラベルとの誤差が小さくなるように、学習モデルの学習を実行する。または、学習部21は、新たな技術を適用した学習器などに、前回と同じ学習データを入力して、出力値とラベルとの誤差が小さくなるように、学習器の学習を実行する。そして、学習部21は、再学習が終了すると、更改後の学習モデルの各種パラメータなどを学習結果DB14に格納する。
判別部22は、学習された学習済みの学習モデルを用いて、判別対象データDB15に記憶される各判別対象データの判別を実行する処理部である。例えば、判別部22は、学習結果DB14から各種パラメータを読み出し、各種パラメータを設定した学習モデルを構築する。そして、判別部22は、判別対象データDB15から判別対象データを読み出して学習モデルに入力し、判別結果を取得する。そして、判別部22は、判別結果を判別結果DB16に格納したり、判別結果をディスプレイに表示したり、判別結果を管理者端末に送信したりする。
また、判別部22は、学習モデルが更改された場合は、更改後の学習モデルを用いて、優先順位DB17に記憶される順番で判別対象データの再判別を実行する。例えば、図5の例では、判別部22は、1番目にデータJ11の再判別を実行し、2番目にデータJ25の再判別を実行し、3番目にデータJ5の再判別を実行する。
順位判定部23は、学習モデル更改後の再判別時に再判別を実行する判別対象データの優先順位を決定する処理部である。具体的には、順位判定部23は、判別対象データDB15に記憶される各判別対象データについて、更新前の学習モデルによる判別出力候補それぞれからの乖離状況に関する乖離指標を算出し、乖離指標に基づき、判別対象データを選定する。つまり、順位判定部23は、更改前の学習モデルによる判別結果のうち、判別結果がかわりやすい判別対象データを優先的に再判別できるように、優先順位を決定する。
例えば、判別関数がシグモイド関数の例で説明する。図6は、判別関数の例を示す図である。図6に示すように、シグモイド関数f(x)は、学習された重みwと重みwと、入力xとから値を出力する関数であり、出力値は、1から0までの範囲となる。ここで、判別結果が0の範囲である出力値0の付近、および、判別結果が1の範囲である出力値1の付近は、出力候補(出力値)からの乖離度が小さく、確定的な値と判断できる。一方、出力値0.5の付近は、出力候補(出力値)からの乖離度が大きく、非確定的な値と判断できる。
つまり、出力値が0や1の付近は、学習モデルが更改されたとしても値の変化が小さく、判別結果が変わる可能性が小さいと判断することができる。また、出力値が0.5の付近(入力xが0の付近)は、学習モデルが更改されると値の変化が大きく、判別結果が変わる可能性が高いと判断することができる。そこで、順位判定部23は、更改前の学習モデルによる判別結果から、更改後の判別結果が変わりやすい判別対象データを選定する。
具体的には、順位判定部23は、学習モデルの更改に伴う判定結果の変わりやすさである非確定の程度を算出して、判別対象データの選定および順位付けを行う。言い換えると、順位判定部23は、更改前の学習モデルにおけるいずれかの出力候補(判別候補)に確定しているわけではない度合いを示す乖離指標、つまり出力候補それぞれからの乖離状況に関する乖離指標を算出して、判別対象データの選定および順位付けを行う。
例えば、順位判定部23は、式(1)を用いて、判別結果のエントロピー(平均情報量)を算出し、エントロピーの値によって判別対象データの選定および順位付けを行う。別例では、順位判定部23は、判別対象とする閾値(上限値と下限値)を予め設定し、更改前の学習モデルによる判別結果の確率値が閾値の範囲内にある判別対象データを一律に再判定の対象に選定することもできる。なお、閾値は、過去の実績で再判別を実行すべきだったものの分布等から決定することができる。
Figure 2020004057
[処理の流れ]
図7は、処理の流れを示すフローチャートである。ここでは、判別処理、選定処理、再判別処理の一連の流れを説明するが、別々に実行することもできる。
図7に示すように、学習部21による学習が完了すると(S101:Yes)、判別部22は、判別対象データDB15から判別対象データを読み込んで(S102)、判別処理を実行して判別結果を判別結果DB16に格納する(S103)。
そして、判別対象データが存在し、判別が完了していない場合(S104:No)、次の判別対象データについてS102以降が繰り返される。一方、判別対象データが存在せず、判別が完了した場合(S104:Yes)、順位判定部23は、判別結果を用いて、乖離指標を算出する(S105)。
続いて、順位判定部23は、判別対象データそれぞれについて、乖離指標にしたがって再判別処理時の優先順位を決定して、優先順位DB17に格納する(S106)。
その後、学習モデルが更改されると(S107:Yes)、判別部22は、優先順位DB17に記憶される優先順位の順番で、各判別対象データを読み込み(S108)、各判別対象データについて再判別処理を実行して、判別結果を判別結果DB16に格納する(S109)。その後、S105に戻って、次の更改時のために、優先順位の決定が実行される。
[具体例]
次に、図8から図13を用いて、文書間の類似判別を実行する例を用いて、具体例を説明する。図8は、具体的なデータ例を示す図である。図9は、特徴量である文書間の単語の重複度合を示す図である。図10は、学習対象の入力データおよび出力結果を説明する図である。図11は、判別対象データの判別結果を説明する図である。図12は、乖離指標の算出例を説明する図である。図13は、再判別時の優先順位の設定例を説明する図である。なお、ここでは、説明を簡単にするために、学習時のデータと判別時のデータとが同じ例で説明するが、あくまで一例であり、これに限定されるものではない。
はじめに、文書間の単語の重複度を使って学習器の学習を実行し、文書同士が類似か否かを判別する学習モデルを構築する。図8に示すように、学習対象データには、類似関係がタグ付けされている。具体的には、(1)の文書は、「明日太郎とご飯を食べに行く」であり、(2)の文書は、「明日花子とご飯を食べに行く」であり、(3)の文書は、「明日花子と寿司を食べに行く」である。(4)の文書は、「明日花子と寿司を握りに行く」であり、(5)の文書は、「来月花子と寿司を握りに行く」である。そして、文書(1)と文書(2)は類似関係であり、文書(2)と文書(3)は類似関係であり、文書(3)と文書(4)は類似関係であり、文書(4)と文書(5)は類似関係である。
続いて、学習部21は、文書間の単語の重複度合を算出して、特徴量として学習する。具体的には、学習部21は、文書(1)と文書(2)について、文書(1)に形態素解析や単語抽出などの既存の解析を実行して得られた「明日、太郎と、ご飯を、食べに、行く」と、同様に文書(2)から得られた「明日、花子と、ご飯を、食べに、行く」とから、文書(1)と(2)には、「明日、太郎と、ご飯を、食べに、行く」と「花子と」の6個の単語があることを特定する。続いて、学習部21は、文書(1)と(2)では、6個の単語のうち「明日、ご飯を、食べに、行く」の4つが共通することから、重複度合を「4/6≒0.667」と算出する。
また、学習部21は、文書(1)と文書(3)について、文書(1)から得られた「明日、太郎と、ご飯を、食べに、行く」と、文書(3)から得られた「明日、花子と、寿司を、食べに、行く」とから、文書(1)と(3)には、「明日、太郎と、ご飯を、食べに、行く」と「花子と、寿司を」の7個の単語があることを特定する。続いて、学習部21は、文書(1)と(3)では、7個の単語のうち「明日、食べに、行く」の3つが共通することから、重複度合を「3/7≒0.43」と算出する。
このようにして、文書間の重複度合の算出結果を図9に示す。図9に示すように、類似関係にある(1)と(2)の重複度合が「0.67」、(2)と(3)の重複度合が「0.67」、(3)と(4)の重複度合が「0.67」、(4)と(5)の重複度合が「0.67」であることから、重複度合が「0.67」以上は類似関係にあると判断できる。
この結果、学習部21は、類似関係にある文書間と類似関係にない文書間とのそれぞれにラベルを付与する。そして、学習部21は、文書とラベルとを入力データとして、機械学習を実行して、類似判別の学習を実行する。例えば、図10に示すように、学習データ(文書間:類似度)として、{(1,2):0.67、(2,3):0.67、(3,4):0.67、(4,5):0.67、(1,3):0.43、(2,4):0.43、(3,5):0.43、(1,4):0.25、(2,5):0.25、(1,5):0.11}を設定する。また、上記学習データの順で、ラベルとして[1,1,1,1,1,0,0,0,0,0,0]を設定する。つまり、学習データ{(1,2):0.67}にはラベル(1)が設定されており、学習データ{(2,5):0.25}にはラベル(0)が設定されている。
そして、学習部21は、上記学習データおよびラベルを入力として機械学習を実行することで、文書間の重複度合を特徴量とする機械学習を実行し、学習結果として特徴量の重みを取得する。具体的には、学習部21は、図10に示すように、重みwとwとを取得する。ここで取得される、重みwとwとにより、文書間の類似判別を実行するシグモイド関数が定まる。
その後、判別部22は、学習で得られた重みwとwとにより定めるシグモイド関数を用いて、判別対象データである文書間について、類似である確率と非類似である確率を取得する判別処理を実行する。具体的には、図11に示すように、判別部22は、判別対象データ(文書:類似度)として、{(1,2):0.67、(2,3):0.67、(3,4):0.67、(4,5):0.67、(1,3):0.43、(2,4):0.43、(3,5):0.43、(1,4):0.25、(2,5):0.25、(1,5):0.11}のそれぞれを入力として、判別処理を実行する。
そして、判別部22は、文書(1)と(2)、(2)と(3)、(3)と(4)、(4)と(5)のそれぞれについては、非類似である確率「0.44492586」、類似である確率「0.55507414」を取得する。判別部22は、文書(1)と(3)、(2)と(4)、(3)と(5)のそれぞれについては、非類似である確率「0.48643373」、類似である確率「0.51356627」を取得する。判別部22は、文書(1)と(4)、(2)と(5)のそれぞれについては、非類似である確率「0.51771965」、類似である確率「0.48228035」を取得する。判別部22は、文書(1)と(5)については、非類似である確率「0.54196994」、類似である確率「0.458030006」を取得する。
そして、判別部22は、確率の高い方を判別結果に選択する。例えば、判別部22は、文書(1)と(2)、(2)と(3)、(3)と(4)、(4)と(5)のそれぞれについては類似と判別し、文書(1)と(3)、(2)と(4)、(3)と(5)のそれぞれについては類似と判別し、文書(1)と(4)、(2)と(5)、(1)と(5)については非類似と判別する。
その後、順位判定部23は、乖離指標として、上記式(1)に各文書間の各確率を入力して平均情報量を算出する。具体的には、順位判定部23は、各文書間について、各事象(A)を各確率、全事象(Ω)を2として、H(P)を算出する。そして、順位判定部23による乖離指標の算出結果を図12に示す。図12に示すように、順位判定部23は、文書(1)と(2)、(2)と(3)、(3)と(4)、(4)と(5)のそれぞれについては乖離指標(平均情報量)として「0.68706853278204272」を算出する。同様に、順位判定部23は、文書(1)と(3)、(2)と(4)、(3)と(5)のそれぞれについては乖離指標(平均情報量)として「0.69277904778248522」を算出する。同様に、順位判定部23は、文書(1)と(4)、(2)と(5)のそれぞれについては乖離指標(平均情報量)として「0.692519077366054」を算出する。同様に、順位判定部23は、文書(1)と(5)については乖離指標(平均情報量)として「0.68962008066395741」を算出する。
そして、順位判定部23は、乖離指標が大きいほど、学習モデルの更改による影響度が大きいと判断し、再判別処理時の順位決めを行う。具体的には、図13に示すように、順位判定部23は、各文書間の乖離指標を大きい順で並び替え、値が大きい順に、文書(1)と(3)、(2)と(4)、(3)と(5)、(1)と(4)、(2)と(5)、(1)と(5)、(1)と(2)、(2)と(3)、(3)と(4)、(4)と(5)の順番で優先順位を決定する。
この結果、最初の学習時は、重複度の大きい順で、文書(1)と(2)、(2)と(3)、(3)と(4)、(4)と(5)、(1)と(3)、(2)と(4)、(3)と(5)、(1)と(4)、(2)と(5)、(1)と(5)の類似判別が実行される。しかし、学習モデル更改時は、判別結果が変わる可能性が高い、文書(1)と(3)、(2)と(4)、(3)と(5)、(1)と(4)、(2)と(5)、(1)と(5)、(1)と(2)、(2)と(3)、(3)と(4)、(4)と(5)の順番で類似判別を実行することができる。
[有用性]
上述した不安定度(乖離指標)による優先度付けは、学習モデルの更改前後での変化が微小であればより効果的である。学習モデルの変化が微小とは、学習モデルのパラメータの変化が微小であるということであり、学習モデルの変化が微小とは、更改前モデルf(x;wold)と更改後モデルf(x;wnew)においてwnew−woldが微小であることである。
図6のグラフの両端のように、判別結果が明らかであるものは、学習モデル更改後の判別結果が更改前と変わらない傾向が強い。一方で、図5のグラフの中央部分のように、判別結果が曖昧な箇所は、微小な変化で判別結果が変わりうり、更改前モデルで偽陽性または偽陰性を発見しやすい。従って、モデル更改で結果が変わりやすい部分の結果に対して優先的に判別処理をやり直すことで、より高速化が図れる。
図14は、パラメータの変化と判別関数の関係を説明する図である。図14に示すように、重みw>1、w=0、w<0の範囲で隣り合うグラフでは、グラフの中央部分が変化してグラフの両端部分の変化が小さいことから、パラメータの微小な変化とみなすことができ、実施例1による順序付けがより効果的である。一方、w=0を跨る変化が起きた場合が、グラフそのものが大きく変化しており、非常に大きなパラメータの更改があった場合とみなすことができるので、実施例1による順序付けではなく、全判別対象データについて再判別を実行することが好ましい。
図15は、学習モデルの更改量と判別結果の変化との関係を説明する図である。図15の(a)に示すように、学習モデルの更新前後のパラメータ(重み)wの変化量が小さいときは、中央部分が判別結果が変わりやすい。また、図15の(c)に示すように、学習モデルの更新前後のパラメータ(重み)wの変化量が大きいときは、グラフのどの部分であっても判別結果が変わりやすい。また、図15の(b)に示すように、学習モデルの更新前後のパラメータ(重み)wの変化量が(a)と(b)の間のときは、グラフの両端以外は判別結果が変わりやすい。なお、図15の横軸は、上述した入力xであり、縦軸は、上述したf(x)であり乖離指標を示す。
したがって、学習装置10は、学習モデルの前後でパラメータの変化量に基づいて、判別対象とする乖離指標の範囲を決定し、再判別処理を制御することもできる。例えば、学習装置10は、学習モデルの前後でパラメータの変化量が第1の閾値未満の場合は、xが−1から1までの乖離指標の範囲を再判別対象に決定する。また、学習装置10は、学習モデルの前後でパラメータの変化量が第1の閾値以上かつ第2の閾値未満の場合は、xが−3から3までの乖離指標の範囲を再判別対象に決定する。また、学習装置10は、学習モデルの前後でパラメータの変化量が第2の閾値以上の場合は、乖離指標の全範囲を再判別対象に決定する。
別例としては、学習装置10は、学習モデルの前後でパラメータの変化量を算出し、変化量が閾値未満であれば判別対象データの順序付けを行い、変化量が閾値以上であれば全判別対象データを再判別処理の対象とすることもできる。更なる別例としては、学習装置10は、学習モデルの前後でパラメータの変化量が第1の閾値未満であれば判別対象データの順序付けを行って上位50個を再判別対象データと決定し、変化量が第1の閾値以上かつ第2の閾値未満であれば判別対象データの順序付けを行って上位100個を再判別対象データと決定し、変化量が第2の閾値以上であれば全判別対象データを再判別処理の対象とすることもできる。
なお、実際の学習モデルでは、パラメータの数は非常に多いことから、全体のパラメータ数に対して大多数のパラメータが一度の更新で0を跨ぐ変化が起きることは稀であるので、実施例1による順序付けは非常に大きな効果がある。
[効果]
上述したように、学習装置10は、学習モデルが更改された場合、更改前の学習モデルでの判別結果のうち判別結果が変わりやすいものから優先的に再判別処理を行うことができるので、高速に判定結果を判明させることができる。したがって、影響の大きい判別対象データのみを再判別することもでき、学習モデル更改後の再判別処理にかかる時間を短縮することができる。
また、更改前後の変化が大きくなるほど、無作為に判別対象を選択する状況に漸近し、優先度付した順序を使った場合とコスト的な差異は小さくなるが、学習モデルの構造的変化の頻度に比べ、学習モデルの更新頻度が多い運用では、実施例1の手法による効果が大きい。なお、学習モデルの更新頻度とは、日々のモデルの活用を通じて随時モデルを作成し直す頻度であり、例えば、定期的(例えば1か月に1回)などである。また、学習モデルの構造的変化とは、判別方法を根幹から変えてしまうようなイベントに基づくものである。
ところで、学習装置10は、判別対象データのうち再判別処理の対象とするデータを絞り込むこともできる。つまり、学習装置10は、優先順位を決定するだけでなく、判定処理を終了する順位を指定することもできる。そこで、実施例2では、再判別処理の終了条件の設定例を説明する。
具体的には、学習装置10は、過去の事例で変数の重みw=(w、w、・・・、w)の変化量の総和と学習モデルの更改前後で変化の起きた順位とを、別の学習から推定する。例えば、学習装置10は、過去の事例で学習モデルの更改前後で判別結果が変わらなくなる相対順位と重みの総和に基づいて予測できるようにする。
図16は、終了条件の設定例を説明する図である。図16の(a)に示すように、順位判定部23は、過去の各学習モデル更改について、再判別時の判別順位を示す「相対順位」と、更改前後で判別結果が変更されたか否かを示す「判別結果の有無」と、学習モデルの更改内容を特定する「重みの総和の変化量」とを抽出する。その後、順位判定部23は、それぞれの抽出結果を用いてロジステック回帰を実行して、学習モデルの更改で判別処理の結果が変わらない境界を学習する。例えば、順位判定部23は、学習モデル1から学習モデル2への更改時(結果1)に、相対順位と判別結果の有無と重みの総和の変化量(3.4)を算出し、これらを用いたロジステック回帰によって境界を学習する。同様に、順位判定部23は、学習モデル2から学習モデル3への更改(結果2)に関しても境界を学習する。
そして、図16の(b)に示すように、順位判定部23は、相対順位と確率値とから境界を特定する学習モデルを生成し、それぞれの学習結果の重みの総和と境界値とから境界値を予測する線形モデルを生成する。例えば、結果1について、確率値が0.5の相対順位(55位)が学習モデルの更改前後で判別結果が変わらない境界と特定し、重みの総和の変化量(3.4)と相対順位(55)とが抽出される。このようにして、順位判定部23は、各結果について重みの総和の変化量と相対順位とを抽出して、その関係性を学習し、境界値を予測する線形モデルを生成する。
その後、順位判定部23は、学習モデルの新たな更改が発生したときに、学習モデルの更改前後の重みの総和の変化量(p)を算出する。そして、順位判定部23は、境界値を予測する線形モデルを用いて、変化量から境界値となる順位(h位)を算出する。この結果、順位判定部23は、実施例1で算出した優先順位のうち、順位(1位)から順位(h位)までを再判別処理の対象と決定する。なお、上記手法以外にも、各結果から特定された境界(図10の(b)参照)となる順位のうち、最大値、最小値、平均値などを終了条件とすることもできる。
上述したように、学習装置10は、判別結果が変わりやすいデータのみを絞り込んで、学習モデル更改時の再判別処理の対象とすることができるので、判別結果が変わる可能性があるデータのみを高速に判別することができる。この結果、学習装置10は、学習モデルの更改後の再判別処理に時間が短縮でき、重大な機会損失を招く危険性を低下できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[学習データ]
実施例1では、学習データとして教師有データを用いた教師有学習を例にして説明したが、これに限定されるものではなく、教師無データを用いた教師無学習、教師有データおよび教師無データを用いた半教師学習などを採用することもできる。また、実施例1では、文書の類似関係を学習する例を説明したが、学習内容を限定するものではなく、一般的な様々な学習を採用することができる。
[基準による選定]
また、学習装置10は、複数の判別対象データの中から、乖離指標に関する所定の基準に基づき、再判別対象の判別対象データを選定することもできる。例えば、学習装置10は、過去の実績から判別結果が変わる可能性が高い閾値を決定し、当該閾値以上の乖離指標に該当するデータを判別対象データに選定することもできる。また、閾値は、過去の実績等により判別対象とする範囲指定することもできる。
[学習モデルの更改タイミングと順位付け]
例えば、学習装置10は、学習モデルAから学習モデルBに更改された後、学習モデルBのパラメータを用いて判別対象データの優先順位を決定し、優先順位の順で再判別を実行する。ここで、再判別の処理中に、学習モデルBが学習モデルCに更改されることもある。この場合、学習装置10は、現在の再判別処理を終了し、学習モデルCのパラメータを用いて判別対象データの優先順位を決定して、優先順位の順で再判別を実行することもできる。また、学習装置10は、現在の再判別処理を継続しつつ、並行して、学習モデルCのパラメータを用いて判別対象データの優先順位を決定する。そして、学習装置10は、現在の再判別処理が終了した後、学習モデルCによる優先順位の順で再判別を実行することもできる。
[学習:ニューラルネットワーク]
本実施例では、一般的な機械学習に加えて、RNNやCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、学習の手法も、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値(重み係数)、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
また、ニューラルネットワークにおける学習とは、出力層が正しい値となるように、パラメータ、すなわち、重みとバイアスを修正していくことである。誤差逆伝播法においては、ニューラルネットワークに対して、出力層の値がどれだけ正しい状態(望まれている状態)から離れているかを示す「損失関数(loss function)」を定め、最急降下法等を用いて、損失関数が最小化するように、重みやバイアスの更新が行われる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図17は、ハードウェア構成例を示す図である。図17に示すように、学習装置10は、ネットワーク接続装置10a、入力装置10b、HDD(Hard Disk Drive)10c、メモリ10d、プロセッサ10eを有する。また、図17に示した各部は、バス等で相互に接続される。
ネットワーク接続装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。入力装置10bは、マウスやキーボードなどであり、ユーザから各種指示などを受け付ける。HDD10cは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10eは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10c等から読み出してメモリ10dに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、学習装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10eは、学習部21、判別部22、順位判定部23等と同様の機能を有するプログラムをHDD10c等から読み出す。そして、プロセッサ10eは、学習部21、判別部22、順位判定部23等と同様の処理を実行するプロセスを実行する。
このように学習装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、学習装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、学習装置100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 学習装置
11 通信部
12 記憶部
13 学習データDB
14 学習結果DB
15 判別対象データDB
16 判別結果DB
17 優先順位DB
20 制御部
21 学習部
22 判別部
23 順位判定部

Claims (6)

  1. コンピュータに、
    複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出し、
    前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する
    処理を実行させる選定プログラム。
  2. 請求項1に記載の選定プログラムであって、
    前記選定する処理は、前記複数のデータそれぞれの判別結果に対する前記乖離指標に基づき、前記複数のデータそれぞれに優先順位の順位付けを行い、前記優先順位にしたがって、前記複数のデータの中から、更改された前記学習モデルを用いて再判別を行うデータを選定する処理を実行する、選定プログラム。
  3. 請求項1に記載の選定プログラムであって、
    前記選定する処理は、前記複数のデータの中から、前記乖離指標に関する所定の基準に基づき、更改された前記学習モデルを用いて再判別を行うデータを選定する処理を実行する、選定プログラム。
  4. 請求項1に記載の選定プログラムであって、
    前記選定する処理は、更改前後の前記学習モデルの更新量を用いて、更改された前記学習モデルを用いて再判別を行うデータに選定する対象となる前記乖離指標の範囲を決定する処理を実行する、選定プログラム。
  5. コンピュータが、
    複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出し、
    前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する
    処理を実行する選定方法。
  6. 複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出する算出部と、
    前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する選定部と
    を有する選定装置。
JP2018122476A 2018-06-27 2018-06-27 選定プログラム、選定方法および選定装置 Active JP7139723B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018122476A JP7139723B2 (ja) 2018-06-27 2018-06-27 選定プログラム、選定方法および選定装置
US16/430,699 US20200005182A1 (en) 2018-06-27 2019-06-04 Selection method, selection apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018122476A JP7139723B2 (ja) 2018-06-27 2018-06-27 選定プログラム、選定方法および選定装置

Publications (2)

Publication Number Publication Date
JP2020004057A true JP2020004057A (ja) 2020-01-09
JP7139723B2 JP7139723B2 (ja) 2022-09-21

Family

ID=69008217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018122476A Active JP7139723B2 (ja) 2018-06-27 2018-06-27 選定プログラム、選定方法および選定装置

Country Status (2)

Country Link
US (1) US20200005182A1 (ja)
JP (1) JP7139723B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205082B (zh) * 2021-06-22 2021-10-15 中国科学院自动化研究所 基于采集不确定性解耦的鲁棒虹膜识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145960A1 (ja) * 2016-02-24 2017-08-31 日本電気株式会社 学習装置、学習方法および記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040111253A1 (en) * 2002-12-10 2004-06-10 International Business Machines Corporation System and method for rapid development of natural language understanding using active learning
US7792353B2 (en) * 2006-10-31 2010-09-07 Hewlett-Packard Development Company, L.P. Retraining a machine-learning classifier using re-labeled training samples

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145960A1 (ja) * 2016-02-24 2017-08-31 日本電気株式会社 学習装置、学習方法および記録媒体

Also Published As

Publication number Publication date
JP7139723B2 (ja) 2022-09-21
US20200005182A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP7169369B2 (ja) 機械学習アルゴリズムのためのデータを生成する方法、システム
US20190354810A1 (en) Active learning to reduce noise in labels
US8346776B2 (en) Generating a taxonomy for documents from tag data
US10452993B1 (en) Method to efficiently apply personalized machine learning models by selecting models using active instance attributes
JP4429236B2 (ja) 分類ルール作成支援方法
US20220044148A1 (en) Adapting prediction models
JP7473511B2 (ja) 学習装置、学習方法および学習プログラム
KR20210064344A (ko) 코드 분류를 위한 하이브리드 머신러닝 모델
US20200394265A1 (en) Matching Bias and Relevancy in Reviews with Artificial Intelligence
JP2023512856A (ja) 対話型機械学習
JP2023052555A (ja) 対話型機械学習
CN116127376A (zh) 模型训练方法、数据分类分级方法、装置、设备及介质
JP6975685B2 (ja) 学習制御方法及び計算機システム
KR20230054167A (ko) 기계학습모델의 생성 방법 및 그 장치
US20210192361A1 (en) Intelligent data object generation and assignment using artificial intelligence techniques
JP7139723B2 (ja) 選定プログラム、選定方法および選定装置
JP5187635B2 (ja) 能動学習システム、能動学習方法、及び能動学習用プログラム
KR102221263B1 (ko) 뇌기능 지식 베이스 자가 성장 시스템 및 방법
JP5555238B2 (ja) ベイジアンネットワーク構造学習のための情報処理装置及びプログラム
KR20230127861A (ko) 신용평가 모델 업데이트 또는 교체 방법 및 장치
JP7458352B2 (ja) 学習装置、学習方法および学習プログラム
JP2019159918A (ja) クラスタリングプログラム、クラスタリング方法およびクラスタリング装置
JP2022047526A (ja) 分類装置、分類方法および分類プログラム
JP2018156332A (ja) 生成装置、生成方法および生成プログラム
JP7044642B2 (ja) 評価装置、評価方法および評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7139723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150