JP7472999B2 - 出力制御プログラム、出力制御方法および情報処理装置 - Google Patents

出力制御プログラム、出力制御方法および情報処理装置 Download PDF

Info

Publication number
JP7472999B2
JP7472999B2 JP2022555213A JP2022555213A JP7472999B2 JP 7472999 B2 JP7472999 B2 JP 7472999B2 JP 2022555213 A JP2022555213 A JP 2022555213A JP 2022555213 A JP2022555213 A JP 2022555213A JP 7472999 B2 JP7472999 B2 JP 7472999B2
Authority
JP
Japan
Prior art keywords
data
machine learning
estimation
output
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022555213A
Other languages
English (en)
Other versions
JPWO2022074806A1 (ja
Inventor
諒 石崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2022074806A1 publication Critical patent/JPWO2022074806A1/ja
Application granted granted Critical
Publication of JP7472999B2 publication Critical patent/JP7472999B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、機械学習モデルの推定結果の表示制御を行う出力制御プログラム等に関する。
深層学習(Deep Learning:DL)などの機械学習を用いた機械学習モデルの推定結果に対して、再度の機械学習の実行やユーザによる推定結果の検証などの施策が行われることがある。一方で、機械学習モデルは、高精度ではあるが、内部構造等が複雑であることから、推定理由を解釈することが困難である。近年では、機械学習モデルが推定対象のデータの入力に応じて出力する推定結果のうち、機械学習モデルが出力した推定結果の信頼度が低い推定結果を施策対象として選択する技術が知られている。
Marco Tulio Rebeiro,et al、「"Why Should I Trust You?"Explaining the Predictions of Any Classifier」、arXiv:1602.04938v3、2016年8月16日
しかしながら、上記技術では、機械学習モデルの機械学習に利用された訓練データの数や性質などにより、推定結果の信頼度が必ずしも精度のよい情報ではないことがある。
一つの側面では、機械学習モデルの推定結果の出力を制御できる出力制御プログラム、出力制御方法および情報処理装置を提供することを目的とする。
第1の案では、出力制御プログラムは、第1のデータを機械学習モデルに入力し、前記機械学習モデルが出力する推定結果を取得する処理をコンピュータに実行させる。出力制御プログラムは、前記推定結果に含まれる第1の値が閾値より低い場合、前記第1のデータと前記推定結果とに基づいて生成された線形モデルに前記第1のデータを入力して、前記線形モデルが出力する第2の値を取得する処理をコンピュータに実行させる。出力制御プログラムは、前記第1の値と前記第2の値との差分に基づいて、前記推定結果の出力を制御する処理をコンピュータに実行させる。
一実施形態によれば、機械学習モデルの推定結果の出力を制御できる。
図1は、実施例1にかかる情報処理装置の処理を説明する図である。 図2は、施策に関する絞り込みの参考技術を説明する図である。 図3は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図4は、訓練データセットの一例を説明する図である。 図5は、推定データセットの一例を説明する図である。 図6は、推定処理を説明する図である。 図7は、線形モデルを説明する図である。 図8は、個体aに対する指標について説明する図である。 図9は、個体bに対する指標について説明する図である。 図10は、施策対象の選定を説明する図である。 図11は、処理の流れを示すフローチャートである。 図12は、施策判定モデルの生成を説明する図である。 図13は、施策判定モデルを用いた施策判定を説明する図である。 図14は、ハードウェア構成例を説明する図である。
以下に、本発明にかかる出力制御プログラム、出力制御方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
図1は、実施例1にかかる情報処理装置10の処理を説明する図である。図1に示す情報処理装置10は、大規模データに対して機械学習モデルを用いて推定し、推定結果に対して、再検査や再調査などユーザが何かしらの施策を実行する対象を絞り込むコンピュータの一例である。つまり、情報処理装置10は、ブラックボックスである機械学習モデルの推定結果を、ユーザ視点で解釈して提示する。
ここで、推定結果に対して施策対象の絞り込みを行う参考技術について説明する。図2は、施策に関する絞り込みの参考技術を説明する図である。図2に示す参考技術は、一例として、ワインの美味しさを推定し、推定結果が良くないワインを施策対象として絞り込む処理を実行する。
具体的には、参考技術は、訓練用のデータセットWを用いて機械学習モデルを生成する。訓練用のデータセットWには、ワインの個体(ロット)ごとに「甘味変数X、酸味変数Y、まろやかさ変数Z、おいしさ変数Q」が設定される。ここで、「甘味変数X、酸味変数Y、まろやかさ変数Z」は、ワインの美味しさを決める説明変数である。「おいしさ変数Q」は、ワインのおいしさを示す目的変数であり、例えば3(まずい)から8(良い)で設定される。なお、ワインの個体ごとのデータそれぞれが訓練データとなり、甘味、酸味、まろやかさの各変数からワインのおいしさを推定する機械学習モデルが生成される。
機械学習モデルが生成されると、参考技術は、未知のデータセットW2内の各推定対象データ(ワイン個体データ)を機械学習モデルに入力して、各ワインのおいしさの推定結果を取得する。このとき、機械学習モデルは、推定結果として、おいしさの推定値を示す「おいしさ推定Q´」と推定値の信頼度を示す「信頼度Cd」を出力する。
そして、参考技術では、「おいしさ推定Q´」に関わらず、「信頼度Cd」が閾値以下である個体h、個体i、個体jを施策対象として選択する。その後、選択された個体h、個体i、個体jの各ワインについて、製造者、ソムリエ、職人などに「おいしさ推定」の依頼を行うことで、ワインの味の維持を図り、製品の信頼性維持が図られている。
しかし、機械学習モデルの機械学習に利用された訓練データの数や性質などにより、推定結果の信頼度が必ずしも精度のよい情報ではないことがあり、信頼度だけで施策対象を絞り込むことが有効ではないことがある。
例えば、信頼度が50などのように、信頼度が第1の閾値未満である低信頼度の推定結果に該当する個体を施策対象として選択することは有効であり、信頼度が70などのように、信頼度が第2の閾値以上である高信頼度の推定結果に該当する個体を施策対象外として選択することも有効である。ところが、信頼度が60などのように、信頼度が第1の閾値以上かつ第2の閾値未満ある中信頼度の推定結果に該当する個体については、信頼度だけでは施策対象とするか否かを選択することが難しい。なぜなら、機械学習モデルの訓練時の状況により、このような中程度の信頼度である個体が多く発生することが予想でき、これらをすべて施策対象とすると、施策に膨大な時間がかかる一方で、すべてを施策対象外とすると、信頼性の低い推定結果が含まれることもある。このため、施策不要なデータが施策対象として選択されることもあり、施策にかかる時間が増大する。特に、推定結果の信頼度が低いデータが大量にある場合には、精度が低く、さらには施策の絞り込みに膨大な時間がかかる。
そこで、実施例1にかかる情報処理装置10は、機械学習モデルが算出する信頼度と、機械学習モデルの振る舞いを疑似的な入出力から線形モデル(線形回帰モデル:Linear Regressionモデル)に近似する手法の推定値とを用いて、施策対象に選択するための指標(評価指標)を生成し、この指標により施策対象の絞り込みを実行する。
具体的には、図1に示すように、情報処理装置10は、ラベルが設定された教師有の訓練データを含むデータセットを用いて、機械学習モデルを生成する。続いて、情報処理装置10は、未知のデータセットに含まれる各推定対象データを、機械学習モデルに入力して、推定結果を取得する。そして、情報処理装置10は、第1の推定対象データの推定結果に含まれる第1の値が閾値より低い場合、第1の推定対象データと推定結果とに基づいて生成された線形モデルに第1の推定対象データを入力して、線形モデルが出力する第2の値を取得する。その後、情報処理装置10は、第1の値と第2の値との差分に基づいて、第1の推定対象データを施策対象として出力するか否かを制御する。
このように、情報処理装置10は、機械学習モデルの信頼度だけでなく、機械学習モデルの特徴空間上で推定結果が同じであるデータを局所的に近似させた線形モデルの値を用いて、施策対象の絞り込みを実行する。この結果、情報処理装置10は、機械学習モデルの推定結果の出力を制御できる。
図3は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図3に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置との間の通信を制御する。例えば、通信部11は、管理者端末から、機械学習の開始指示などの各種指示や施策対象の絞り込みの指示などを受信し、管理者端末に対して、機械学習の結果や絞り込み結果を送信する。
記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する。例えば、記憶部12は、訓練データセット13、推定対象データセット14、機械学習モデル15、推定結果16を記憶する。
訓練データセット13は、機械学習モデル15の機械学習に利用される複数の訓練データを有する。図4は、訓練データセット13の一例を説明する図である。図4に示すように、訓練データセット13は、「ワイン、甘味変数X、酸味変数Y、まろやかさ変数Z、おいしさ変数Q」から構成される訓練データを有する。
「甘味変数X」は、ワインの甘味を示す変数であり、「酸味変数Y」は、ワインの酸味を示す変数であり、「まろやかさ変数Z」は、ワインのまろやかさを示す変数である。これらの変数は、公知の技術を用いて測定される値であり、例えば最も低い値1から最も高い値10までの10段階で示される。「おいしさ変数Q」は、ワインのおいしさを示す変数であり、例えば最も低い値1から最も高い値10までの10段階で示される。なお、「おいしさ変数Q」は、公知の技術を用いて測定されてもよく、職人等が試飲した結果を設定してもよい。
ここで、機械学習において、「甘味変数X、酸味変数Y、まろやかさ変数Z」は、説明変数であり、「おいしさ変数Q」は、目的変数となる。図4の例では、個体aのワインについては、「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=2、おいしさ変数Q=8」が設定されており、個体bのワインについては、「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=8、おいしさ変数Q=3」が設定されている。つまり、個体aの方が個体bよりもおいしいワインである。
推定対象データセット14は、機械学習モデル15を用いて推定する対象である複数の推定対象データを有する。図5は、推定対象データセット14の一例を説明する図である。図5に示すように、推定対象データセット14は、「ワイン、甘味変数X、酸味変数Y、まろやかさ変数Z」から構成される推定データを有する。なお、ここで記憶される情報は、図4で説明した情報と同一なので、説明を省略する。図5の例では、推定対象データである個体aについて、「甘味変数X=7、酸味変数Y=3、まろやかさ変数Z=8」が設定されている。
機械学習モデル15は、情報処理装置10による機械学習により生成されるモデルである。例えば、機械学習モデル15は、ディープニューラルネットワーク(DNN:Deep Neural Network)などを用いたモデルであり、他の機械学習や深層学習を採用することができる。
推定結果16は、推定対象データセット14に対する推定結果である。具体的には、推定結果16は、推定対象データセット14の各推定対象データを、機械学習により生成された機械学習モデル15により入力して得られる推定結果である。なお、詳細については後述する。
制御部20は、情報処理装置10全体を司る処理部であり、機械学習部21、推定部22、線形処理部23、表示制御部24を有する。
機械学習部21は、訓練データセット13を用いた機械学習により、機械学習モデル15を生成する。例えば、機械学習部21は、訓練データ「個体a、甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=2、おいしさ変数Q=8」を訓練データセット13から取得する。そして、機械学習部21は、「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=2」を機械学習モデル15に入力し、機械学習モデル15の出力結果を取得する。その後、機械学習部21は、出力結果と目的変数「おいしさ変数Q=8」との誤差が小さくなるように、機械学習モデルの機械学習を実行する。
このようにして、機械学習部21は、訓練データセット13内の各訓練データを用いた教師有学習によって機械学習モデル15を生成する。すなわち、機械学習部21は、「甘味変数X、酸味変数Y、まろやかさ変数Z」を機械学習モデル15に入力したときに、「おいしさ変数Q」を推定できるように、機械学習モデル15の機械学習を実行する。なお、機械学習の手法は、誤差逆伝播法などの公知の手法を採用することができ、誤差も最小二乗誤差など公知の手法を採用することができる。
推定部22は、機械学習モデル15を用いて、推定対象データの推定を実行する。具体的には、推定部22は、推定対象データセット14の各推定対象データを、生成された機械学習モデル15に入力して、機械学習モデル15から推定結果を取得し、記憶部12に推定結果16として格納する。ここで、機械学習モデル15が出力する推定結果には、「おいしさ推定Q´」と「おいしさ推定Q´」の「信頼度Cd」とが含まれる。なお、「おいしさ推定Q´」は、いわゆる推定値であり、「Qd=predFromDLmodel(X,Y,Z)」で算出される。また、「信頼度Cd」は、DNNが出力するsoftmaxの値を用いることができる。
図6は、推定処理を説明する図である。図6に示すように、推定部22は、個体dの「甘味変数X=7、酸味変数Y=3、まろやかさ変数Z=8」を機械学習モデル15に入力し、「おいしさ推定Q´=8」と「信頼度Cd=100」を取得する。同様に、推定部22は、個体eの「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=2」を機械学習モデル15に入力し、「おいしさ推定Q´=8」と「信頼度Cd=100」を取得する。また、推定部22は、個体fの「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=8」を機械学習モデル15に入力し、「おいしさ推定Q´=3」と「信頼度Cd=80」を取得する。このようにして、推定部22は、推定結果16を生成する。
線形処理部23は、線形モデルを生成して、施策対象を選択するための指標を算出する。例えば、線形処理部23は、機械学習モデル15の信頼度「Cd」が下限の閾値以上かつ上限の閾値未満である個体について、指標を算出する。なお、後述する表示制御部24では、機械学習モデル15により得られる信頼度と、線形処理部23により生成される指標との2つの情報を用いて、施策対象の絞り込みが実行される。
まず、線形モデルについて説明する。一例として、線形処理部23は、機械学習モデル15やデータの形式、機械学習モデル15の構造に非依存であるLIME(Local Interpretable Model-agnostic Explanations)と呼ばれるアルゴリズムを用いて指標を生成する。このLIMEでは、データが入力された機械学習モデル15が出力する推定結果(分類結果)を説明する際、データの近傍において機械学習モデル15の出力との間で出力が局所的に近似する線形モデルが機械学習モデル15を解釈可能なモデルとして生成される。このような線形モデルの生成には、データの特徴量の一部を変動させることにより得られる近傍データが用いられる。
図7は、線形モデルを説明する図である。この図7は、LIMEのアルゴリズムを模型的に示しており、一例として、特徴量がxとyの2次元の特徴量空間を模式的に示している。図2では、おいしさ推定Q´が閾値(例えば6)以上と推定された正例のクラスに対応する領域Aと、おいしさ推定Q´が閾値(例えば6)未満と推定された負例のクラスに対応する領域Bとが示されている。すなわち、LIMEのアルゴリズムを用いることで、図2に示す分離境界面が示される特徴量空間が生成される。
ここで、例えば、線形処理部23は、推定対象データセット14の各推定対象データを機械学習モデル15に入力して、推定結果を取得するとともに、特徴量を取得して、特徴量を用いてLIMEアルゴリズムにより図2に示す特徴量空間を生成する。
続いて、線形処理部23は、正例と推定された個体aについて、特徴量空間上で個体aから所定距離に位置する推定対象データを近隣データとしいて取得する。そして、線形処理部23は、個体aと近隣データとを用いて、個体aの周辺に限り有効であり、個体aの周辺データの推定を解釈可能に表現した線形モデル「Ql_a=3X+10Y+100Z+6」を生成する。
同様に、線形処理部23は、負例と推定された個体bについて、特徴量空間上で個体bから所定距離に位置する推定対象データを近隣データとしいて取得する。そして、線形処理部23は、個体bと近隣データとを用いて、個体bの周辺に限り有効であり、個体bの周辺データの推定を解釈可能に表現した線形モデル「Ql_b=-5X-2Y+100Z+8」を生成する。このように、線形処理部23は、個体(事例)ごとに、特徴空間で近接するデータを用いて線形モデルを生成する。
次に、施策対象の絞り込みのための情報となる指標について説明する。線形処理部23は、機械学習モデル15の推定結果と線形モデルとを用いて、施策対象の判定材料となる指標を生成する。具体的には、線形処理部23は、機械学習モデル15の推定結果に含まれる「おいしさ推定Q´」と、線形モデルにより得られる推定値との差分を用いて当該指標を算出する。
ここで、指標について説明する。この指標は、局所において、より単純な数式モデル(非線形性質より線形性質など)で表現できる度合として、他数学表現への「局所的置換容易性指標」などと表現できる。なお、指標は、機械学習モデル15が自動で生成するモデルの空間のうち線形に近似が難しい領域のひずみやずれ、線形モデルへの当てはまり度などとも表現できる。このように、線形モデルで得られる推定値は、機械学習モデル15の特徴量空間の局所領域内で正規化された値であり、機械学習モデル15の推定値は、機械学習時の経験値であり、いずれも直接推定できる2種類の機械学習モデル15の推定値である。したがって、これらの差を用いる指標は、「線形モデルなどの解釈しやすい他のモデルに置き換えて表現できる単純な領域だったかどうか」、「機械学習の経験が足りなかったことに由来する信頼度なのか、そうでないのか」、「もともと機械学習の経験を積んでも難しい判別問題か」など、事例をまたがってもその値で比較できるよう「正規化」した情報と位置付けることができる。
次に、上記個体a、個体bのそれぞれについて上記指標の算出を説明する。図8は、個体aに対する指標について説明する図である。図8に示すように、線形処理部23は、推定対象データセット14から、個体aのデータ「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=2」を取得する。そして、線形処理部23は、個体aの機械学習モデル15による推定値「Qd_a=predFromDLmodel(3,7,2)」を取得する。また、線形処理部23は、個体aに対する線形モデルの式(1)である「Ql_a=3X+10Y+100Z+6」に各変数値を代入して「Ql_a=3×3+10×7+100×2+6」を算出する。その後、線形処理部23は、式(2)により、指標「Cl_a」を「Cl_a=((Qd_a-Ql_a)の2乗)」として算出する。
図9は、個体bに対する指標について説明する図である。図9に示すように、線形処理部23は、推定対象データセット14から、個体bのデータ「甘味変数X=3、酸味変数Y=7、まろやかさ変数Z=8」を取得する。そして、線形処理部23は、個体bの機械学習モデル15による推定値「Qd_b=predFromDLmodel(3,7,8)」を取得する。また、線形処理部23は、個体bに対する線形モデルの式(3)である「Ql_b=-5X-2Y+100Z+8」に各変数値を代入して「Ql_b=-5×3-2×7+100×8+8」を算出する。その後、線形処理部23は、式(4)により、指標「Cl_b」を「Cl_b=((Qd_b-Ql_b)の2乗)」として算出する。
上述した指標の算出手法を用いて、線形処理部23は、機械学習モデル15の信頼度「Cd」が下限の閾値以上かつ上限の閾値未満である個体について、各個体についての指標を算出して、記憶部12に格納し、表示制御部24に出力する。なお、線形処理部23は、すべての個体について指標を算出することもでき、上述したように予め絞り込んだ個体について指標を算出することもできる。
表示制御部24は、推定結果の表示制御を実行する。例えば、表示制御部24は、推定部22による推定結果のうち、信頼度Cdが下限の閾値未満の個体については施策対象に選択し、信頼度Cdが上限の閾値以上の個体については施策対象外に選択する。また、表示制御部24は、信頼度Cdが下限の閾値以上かつ上限の閾値未満の個体については、線形処理部23により算出された指標が閾値以上である場合に、施策対象に選択する。
そして、表示制御部24は、施策対象に選択した個体に関する情報を、記憶部12に記憶し、ディスプレイなどの表示部に表示出力し、管理者の端末に送信する。なお、個体に関する情報とは、例えば推定対象データそのものであってもよく、推定対象データから選択した任意の情報であってもよい。
図10は、施策対象の選定を説明する図である。図10には、推定部22が図5に示した推定対象データセット14に対して推定した推定結果を示している。図10に示すように、表示制御部24は、信頼度Cdが上限の閾値以上である個体d、e、fについては、出力対象外すなわち施策対象外と決定する。また、表示制御部24は、信頼度Cdが下限の閾値未満である個体i、jについては、出力対象すなわち施策対象と決定する。
そして、表示制御部24は、信頼度Cdが上限の閾値未満かつ下限の閾値以上である個体g、hについては、施策候補と判定し、線形処理部23が算出した指標Clを参照する。ここで、表示制御部24は、個体gの指標Cl_gが「1.2」であり、個体hの指標Cl_hが「0.3」であり、個体gの指標Cl_g「1.2」が閾値「0.8」以上であると判定する。そして、表示制御部24は、個体gを施策対象と決定する。
この結果、表示制御部24は、施策対象と決定された個体g、i、jに関する情報を表示出力する。なお、施策対象はあくまで一例であり、単に表示出力の対象や送信対象とするか否かを判定することもできる。また、3段階の閾値で判定する例を説明したが、あくまで一例であり、2段階などの任意の閾値で判定することもでき、どの段階を指標により判定するかは任意に設定することもできる。
次に、上述した施策対象の決定および表示出力に関する処理の流れを説明する。図11は、処理の流れを示すフローチャートである。図11に示すように、処理開始が指示されると(S101:Yes)、機械学習部21は、訓練データセット13を用いた機械学習により、機械学習モデル15を生成する(S102)。
続いて、推定部22は、機械学習モデル15を用いて、推定対象データの推定を実行し、推定結果16を生成する(S103)。そして、線形処理部23は、機械学習モデル15が出力する推定値と信頼度とを用いて、施策対象を決定するとともに、施策候補を抽出する(S104)。
そして、線形処理部23は、施策候補に対して、線形モデルを生成して(S105)、施策候補を絞り込むための指標を生成する(S106)。その後、表示制御部24は、指標を用いて施策対象を決定し(S107)、決定した施策対象を表示出力する(S108)。
上述したように、情報処理装置10は、機械学習モデル15の信頼度だけではなく、線形モデルの推定値を用いて絞り込みを実行することができるので、絞り込みの判断に、機械学習モデル15の信頼度が小さくなる理由を間接的に解釈して加味することができる。この結果、情報処理装置10は、機械学習モデル15の信頼度のみを用いる場合と比較して、適切な絞り込みを実行することができる。
例えば、機械学習モデル15の信頼度が中程度の個体について、ユーザ手動により、施策対象とするか否かを判断することが難しい。中程度の個体すべてを施策対象とすると、施策対象が増大して施策に関するコストが増大し、中程度の個体すべてを施策対象外とすると、個体の品質低下が懸念される。
ここで、情報処理装置10は、指標の値が閾値以上である場合、線形回帰に近似がよくできず、空間がひずんでいると判定する。すなわち、情報処理装置10は、機械学習時にその周辺のモデルが作られたときの事例数は多かったが、難しい判別を迫られる領域であると判定し、相対的に施策(再検査)により精査したい目的から外れないので、施策(再検査対象)と決定する。
一方、情報処理装置10は、指標の値が閾値未満である場合、線形回帰への近似は比較的できており、空間がひずんでいないと判定する。すなわち、情報処理装置10は、信頼度が低く難しい判別を迫られる領域であるものの、期待できる程度の機械学習が実行されて信頼できる程度の要素が含まれると判定し、施策(再検査)の対象から除外する。
このように、情報処理装置10は、機械学習モデル15の信頼度を用いた施策対象の決定と、線形モデルの推定値に基づく指標を用いた施策対象の決定の2段階の決定処理を行うことで、施策対象を適切に選定することができる。
ところで、指標による施策対象の判定は、任意に設定した閾値との比較により判定することもできるが、機械学習により生成された施策判定モデルを用いることもできる。そこで、実施例2では、施策判定モデルの生成と施策判定モデルによる判定を説明する。
図12は、施策判定モデルの生成を説明する図である。ここでは、推定対象データとして「個体d、個体e、個体f、個体g、個体h、個体i、個体j」が存在し、各個体については「甘味変数X、酸味変数Y、まろやかさ変数Z」が予め設定されている。そして、推定部22により、各個体に対して機械学習モデル15を用いた推定が実行されて「おいしさ推定Q´」が設定され、線形処理部23により、指標が算出された「指標Cl」が設定される。
このような状態において、機械学習部21は、推定対象データである「個体d、個体e、個体f、個体g、個体h、個体i、個体j」のうち、施策対象として選択された「個体g、個体h、個体i、個体j」に対して、実際に施策が行われたか否かの情報である「ユーザ再検査履歴」を取得する。図12の例では、個体gに対して「Yes」、個体hに対して「No」、個体iに対して「No」、個体jに対して「Yes」が取得されたことを示している。つまり、個体gと個体jについて、再検査などの施策が実行されたことを示している。
その後、機械学習部21は、施策対象である「個体g、個体h、個体i、個体j」それぞれを訓練データとして機械学習を実行する。具体的には、機械学習部21は、「甘味変数X、酸味変数Y、まろやかさ変数Z、おいしさ推定Q´、信頼度Cd、指標Cl」を説明変数、「ユーザの再検査履歴」を目的変数とする機械学習を実行することにより、施策判定モデルを生成する。このようにして、ユーザ操作の必要性を推定する施策判定モデルが生成される。
図13は、施策判定モデルを用いた施策判定を説明する図である。図13に示すように、制御部20は、新たな推定対象データとして「個体d2、個体e2、個体f2、個体g2、個体h2、個体i2、個体j2」を取得する。なお、各個体には、「甘味変数X、酸味変数Y、まろやかさ変数Z」が設定されている。そして、推定部22は、これらの新たな推定対象データそれぞれの「甘味変数X、酸味変数Y、まろやかさ変数Z」を機械学習モデル15に入力して推定結果として「おいしさ推定Q´、信頼度Cd」を取得する。
そして、線形処理部23は、信頼度Cdが閾値未満である「個体g2、個体h2、個体i2、個体j2」を施策候補に特定し、各施策候補について、線形モデルの生成を実行した後に、指標Clを算出する。ここでは、「個体g2、個体h2、個体i2、個体j2」について「0.3、1.2、0.5、1.1」が算出された例を示している。
その後、表示制御部24は、施策候補「個体g2、個体h2、個体i2、個体j2」それぞれについて、「甘味変数X、酸味変数Y、まろやかさ変数Z、おいしさ推定Q´、信頼度Cd、指標Cl」を施策判定モデルに入力して、推定結果「再検査対象」を取得する。ここでは、表示制御部24は、施策候補「個体g2」に対して「再検査対象=No」、「個体h2」に対して「再検査対象=Yes」、「個体i2」に対して「再検査対象=No」、「個体j2」に対して「再検査対象=No」を取得する。
この結果、表示制御部24は、施策候補「個体g2、個体h2、個体i2、個体j2」のうち、「再検査対象=Yes」である「個体h2」を施策対象に決定し、記憶部12に格納し、ディスプレイ等に表示し、管理者端末に送信する。
上述したように、情報処理装置10は、過去の履歴を用いた機械学習により施策判定モデルを生成して、施策対象か否かを自動で判定することができるので、職人の癖や特徴などを機械学習することができ、施策の選定精度を向上することができる。なお、上記例では、「甘味変数X、酸味変数Y、まろやかさ変数Z、おいしさ推定Q´、信頼度Cd、指標Cl」を説明変数とする例を説明したが、任意に設定することができる。例えば、「甘味変数X、酸味変数Y、まろやかさ変数Z、おいしさ推定Q´、信頼度Cd」を説明変数とする場合、指標の算出コストを軽減し、算出時間を短縮することができる。
上記実施例で用いたデータ例、数値例、閾値、表示例、特徴空間の次元数、具体例等は、あくまで一例であり、任意に変更することができる。また、訓練データとしては、画像データ、音声データ、時系列データなどを用いることができ、機械学習モデル15は、画像分類や各種分析などにも用いることができる。また、機械学習モデル15は、DNNに限らず、CNN(Convolution Neural Network)など他のモデルを採用することができる。また、線形処理部23は、LIMEに限らず、K-LIME、あるいは、LIME-SUPなど他のアルゴリズムを採用することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図14は、ハードウェア構成例を説明する図である。図14に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図14に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、機械学習部21、推定部22、線形処理部23、表示制御部24等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、機械学習部21、推定部22、線形処理部23、表示制御部24等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで出力制御方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 情報処理装置
11 通信部
12 記憶部
13 訓練データセット
14 推定対象データセット
15 機械学習モデル
16 推定結果
20 制御部
21 機械学習部
22 推定部
23 線形処理部
24 表示制御部

Claims (7)

  1. 第1のデータを機械学習モデルに入力し、前記機械学習モデルが出力する、第1の推定値と前記第1の推定値の信頼度とを含む推定結果を取得し、
    前記推定結果に含まれる前記信頼度が閾値より低い場合、前記第1のデータと前記推定結果とに基づいて生成された線形モデルに前記第1のデータを入力して、前記線形モデルが出力する第2の推定値を取得し、
    前記機械学習モデルから取得された第1の推定値前記線形モデルから取得された第2の推定値との差分に基づいて、前記推定結果の出力を制御する、
    処理をコンピュータに実行させることを特徴とする出力制御プログラム。
  2. 前記推定結果を取得する処理は、
    前記第1のデータを含む複数のデータそれぞれを前記機械学習モデルに入力し、前記複数のデータそれぞれに対して前記推定結果を取得する処理と、
    前記第2の推定値を取得する処理は、
    前記複数のデータのうち、前記機械学習モデルにより生成される特徴量空間において前記第1のデータから所定距離に位置する複数の第2のデータを特定する処理と、
    前記第1のデータに対応する特徴量および前記複数の第2のデータそれぞれに対応する特徴量と前記第1の推定値とを用いて、前記第1のデータを局所的に近似させた前記線形モデルを生成する処理と、
    前記線形モデルに前記第1のデータを入力して、近似値である前記第2の推定値を取得する処理と、
    前記制御する処理は、
    前記第1の推定値と前記第2の推定値との前記差分に基づき算出される評価指標が閾値以上の場合に、前記第1のデータを出力し、前記評価指標が閾値未満の場合に、前記第1のデータの出力を抑制する処理と、
    を含むことを特徴とする請求項1に記載の出力制御プログラム。
  3. 前記制御する処理は、
    前記複数のデータそれぞれのうち、前記信頼度が下限閾値未満のデータについては、出力対象に選択し、前記信頼度が上限閾値以上のデータについては、出力対象外に選択し、前記信頼度が前記下限閾値以上かつ前記上限閾値未満のデータについては、出力対象候補に選択する処理と、
    前記出力対象候補のデータのうち、前記評価指標が閾値以上のデータを前記出力対象に選択し、前記評価指標が閾値未満のデータを前記出力対象外に選択する処理と、
    前記出力対象に選択された各データを、検査対象として出力する処理と、
    を含むことを特徴とする請求項2に記載の出力制御プログラム。
  4. 前記検査対象として出力された前記各データに対する検査結果を取得する処理と、
    前記各データそれぞれを説明変数、前記各データそれぞれに対応する前記検査結果を目的変数とする複数の訓練データを生成する処理と、
    前記複数の訓練データを用いて、前記検査対象のデータに該当するか否かを判定する判定モデルを生成する処理と
    を前記コンピュータに実行させることを特徴とする請求項3に記載の出力制御プログラム。
  5. 生成された前記判定モデルに推定対象データを入力して、前記判定モデルが判定した判定結果を取得する処理と、
    前記判定結果に基づき、前記推定対象データが前記検査対象か否かを特定する処理と
    を前記コンピュータに実行させることを特徴とする請求項4に記載の出力制御プログラム。
  6. 第1のデータを機械学習モデルに入力し、前記機械学習モデルが出力する、第1の推定値と前記第1の推定値の信頼度とを含む推定結果を取得し、
    前記推定結果に含まれる前記信頼度が閾値より低い場合、前記第1のデータと前記推定結果とに基づいて生成された線形モデルに前記第1のデータを入力して、前記線形モデルが出力する第2の推定値を取得し、
    前記機械学習モデルから取得された第1の推定値前記線形モデルから取得された第2の推定値との差分に基づいて、前記推定結果の出力を制御する、
    処理をコンピュータに実行することを特徴とする出力制御方法。
  7. 第1のデータを機械学習モデルに入力し、前記機械学習モデルが出力する、第1の推定値と前記第1の推定値の信頼度とを含む推定結果を取得し、
    前記推定結果に含まれる前記信頼度が閾値より低い場合、前記第1のデータと前記推定結果とに基づいて生成された線形モデルに前記第1のデータを入力して、前記線形モデルが出力する第2の推定値を取得し、
    前記機械学習モデルから取得された第1の推定値前記線形モデルから取得された第2の推定値との差分に基づいて、前記推定結果の出力を制御する、
    処理を実行する制御部を含むことを特徴とする情報処理装置。
JP2022555213A 2020-10-08 2020-10-08 出力制御プログラム、出力制御方法および情報処理装置 Active JP7472999B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/038216 WO2022074806A1 (ja) 2020-10-08 2020-10-08 出力制御プログラム、出力制御方法および情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2022074806A1 JPWO2022074806A1 (ja) 2022-04-14
JP7472999B2 true JP7472999B2 (ja) 2024-04-23

Family

ID=81126387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022555213A Active JP7472999B2 (ja) 2020-10-08 2020-10-08 出力制御プログラム、出力制御方法および情報処理装置

Country Status (4)

Country Link
US (1) US20230206128A1 (ja)
EP (1) EP4227865A4 (ja)
JP (1) JP7472999B2 (ja)
WO (1) WO2022074806A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069905A1 (ja) 2017-10-04 2019-04-11 Necソリューションイノベータ株式会社 情報処理装置、制御方法、及びプログラム
WO2019207910A1 (ja) 2018-04-24 2019-10-31 株式会社日立ソリューションズ データ分析システム及びデータ分析方法
JP2020046891A (ja) 2018-09-18 2020-03-26 富士通株式会社 予測プログラム、予測方法および学習装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069905A1 (ja) 2017-10-04 2019-04-11 Necソリューションイノベータ株式会社 情報処理装置、制御方法、及びプログラム
WO2019207910A1 (ja) 2018-04-24 2019-10-31 株式会社日立ソリューションズ データ分析システム及びデータ分析方法
JP2020046891A (ja) 2018-09-18 2020-03-26 富士通株式会社 予測プログラム、予測方法および学習装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今井 拓司,画像認識ディープニューラルネットの挙動を"デバッグ" 分類への寄与部を探すLIME技術、日立超LSI,NIKKEI Robotics,日経BP社,2019年,第45号,p.22-26,ISSN 2189-5783

Also Published As

Publication number Publication date
EP4227865A1 (en) 2023-08-16
JPWO2022074806A1 (ja) 2022-04-14
US20230206128A1 (en) 2023-06-29
WO2022074806A1 (ja) 2022-04-14
EP4227865A4 (en) 2023-12-06

Similar Documents

Publication Publication Date Title
CN107832581B (zh) 状态预测方法和装置
Galante et al. The challenge of modeling niches and distributions for data‐poor species: a comprehensive approach to model complexity
JP6849915B2 (ja) 比較プログラム、比較方法および比較装置
Dejaeger et al. Data mining techniques for software effort estimation: a comparative study
JP6954003B2 (ja) データベースのための畳み込みニューラルネットワークモデルの決定装置及び決定方法
US20160210535A1 (en) Image processing apparatus, image processing method, program, and storage medium
WO2017159403A1 (ja) 予測システム、方法およびプログラム
JP6807909B2 (ja) データ評価方法、装置、機器及び読み取り可能な記憶媒体
JP6311851B2 (ja) 共クラスタリングシステム、方法およびプログラム
JP5068383B1 (ja) 予測装置、予測方法及び予測プログラム
WO2020234984A1 (ja) 学習装置、学習方法、コンピュータプログラム及び記録媒体
US20170061284A1 (en) Optimization of predictor variables
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
JP6943067B2 (ja) 異常音検知装置、異常検知装置、プログラム
JP2021149842A (ja) 機械学習システム及び機械学習方法
JP7472999B2 (ja) 出力制御プログラム、出力制御方法および情報処理装置
JP2018028580A (ja) 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム
JP7231829B2 (ja) 機械学習プログラム、機械学習方法および機械学習装置
JP2020095397A (ja) 最適化装置、最適化プログラムおよび最適化方法
JPWO2019215904A1 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム
CN113035238B (zh) 音频评测方法、装置、电子设备和介质
JP2006318013A (ja) 評価装置及びそのコンピュータプログラム
CN115769194A (zh) 跨数据集的自动数据链接
Kent et al. A Permutation-Based Changepoint Technique for Monitoring Effect Sizes
Roffe et al. Detecting model drift using polynomial relations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7472999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150