JP7448039B2 - ルール更新プログラム、ルール更新方法及びルール更新装置 - Google Patents

ルール更新プログラム、ルール更新方法及びルール更新装置 Download PDF

Info

Publication number
JP7448039B2
JP7448039B2 JP2022574991A JP2022574991A JP7448039B2 JP 7448039 B2 JP7448039 B2 JP 7448039B2 JP 2022574991 A JP2022574991 A JP 2022574991A JP 2022574991 A JP2022574991 A JP 2022574991A JP 7448039 B2 JP7448039 B2 JP 7448039B2
Authority
JP
Japan
Prior art keywords
rule
mining
training data
sample data
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022574991A
Other languages
English (en)
Other versions
JPWO2022153486A1 (ja
JPWO2022153486A5 (ja
Inventor
洋哲 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2022153486A1 publication Critical patent/JPWO2022153486A1/ja
Publication of JPWO2022153486A5 publication Critical patent/JPWO2022153486A5/ja
Application granted granted Critical
Publication of JP7448039B2 publication Critical patent/JP7448039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、ルール更新プログラム、ルール更新方法及びルール更新装置に関する。
説明可能なAI(Artificial Intelligence)、いわゆるXAI(Explainable AI)を実現する側面から、ルール集合に基づく機械学習モデルが提案されている。
上記の機械学習モデルの生成には、データの性質を表す複数の項目の各々に対応する特徴量と、特定のラベルとを含む訓練データのサンプル集合がデータセットとして用いられる。訓練データのデータセットを用いて、項目に対応する特徴量がとり得る数値を項目間で組み合わせる組合せパターンが網羅的に列挙されたルール集合のうち重要度が高いルール集合を抽出するマイニングが実行される。そして、マイニングにより得られたルール集合に含まれるルールの各々を機械学習モデルの説明変数とし、ラベルを機械学習モデルの目的変数とし、各々のルールに付与される重みが回帰分析等の機械学習により決定される。
例えば、ルール集合に基づく機械学習モデルを用いて分類や予測などのタスクが実行される場合、機械学習モデルの出力結果に加えて、出力結果に寄与するルール集合を提示できる。このように提示されるルール集合は、論理式で表現可能であるので、解釈性(説明可能性)に優れる側面がある。
この他、ユーザの納得性の向上を図る側面から、線形回帰モデルを複数列挙する方法が提案されている。例えば、線形回帰モデルに含まれる特徴量を1つずつ交換して同程度の精度のモデルを生成したり、線形回帰モデルに用いる特徴量集合をまるごと別のものに置き換えて同程度の精度のモデルを生成したりする。
Satoshi Hara and Takanori Maehara. Finding alternate features in lasso. In NIPS 2016 workshop on Interpretable Machine Learning for Complex Systems, 2016. Satoshi Hara and Takanori Maehara. Enumerate lasso solutions for feature selection. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, AAAI ’17, page 1985-1991. AAAI Press, 2017.
しかしながら、上記のルール集合には、ユーザから必ずしも納得が得られるルールだけが含まれるとは限らず、ユーザの納得が得られないルールが混在する側面がある。このため、上記のルール集合に基づく機械学習モデルは、解釈性に優れる一方で納得性に欠ける一面がある。
そうであるからと言って、線形回帰モデルを複数列挙する方法を用いて、ユーザの納得が得られないルールの数が低減されたルール集合を獲得することも困難である。なぜなら、線形回帰モデルを複数列挙する方法は、あくまで個々の特徴量に重みを付与する線形回帰モデルを前提とする技術であるので、ルールに重みが付与される機械学習モデルにそのまま適用することは困難であるからである。
1つの側面では、ルール集合に基づく機械学習モデルの納得性向上を実現できるルール更新プログラム、ルール更新方法及びルール更新装置を提供することを目的とする。
一態様のルール更新プログラムは、訓練データを用いた第1のマイニングの結果生成されたルール集合に含まれるルールの少なくとも一部に対するユーザ指定を受け付け、前記ユーザ指定を受け付けたルールに対応するサンプルデータを前記訓練データから特定し、前記ユーザ指定を受け付けたルールに対応する前記サンプルデータに限定した訓練データを用いて第2のマイニングを実行することで、新規ルールを取得する、処理をコンピュータに実行させる。
ルール集合に基づく機械学習モデルの納得性向上を実現できる。
図1は、実施例1に係るサーバ装置の機能構成例を示すブロック図である。 図2は、機械学習モデルの生成方法の一例を示す図である。 図3は、ルール更新方法の一例を示す図である。 図4は、訓練データのサンプル集合の一例を示す図である。 図5は、訓練データのサンプル集合の一例を示す図である。 図6は、初期ルールの集合の一例を示す図である。 図7は、第1モデルデータの一例を示す図である。 図8は、正例ルールの再マイニングの一例を示す図である。 図9は、新規ルールの一例を示す図である。 図10は、第2モデルデータの一例を示す図である。 図11は、実施例1に係るルール更新処理の手順を示すフローチャートである。 図12は、ハードウェア構成例を示す図である。
以下に添付図面を参照して本願に係るルール更新プログラム、ルール更新方法及びルール更新装置について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
図1は、実施例1に係るサーバ装置10の機能構成例を示すブロック図である。図1に示すサーバ装置10は、機械学習モデルの生成に用いられたルール集合のうちユーザの納得が得られないルールを新規の代替ルールへ更新するルール更新機能を提供するものである。
このようなルール更新機能は、あくまで1つの側面として、ルール集合に基づく機械学習モデルを生成するモデル生成サービスの一機能としてパッケージ化され得る。なお、上記のルール更新機能は、必ずしも上記のモデル生成サービスにパッケージ化されずともよく、上記のモデル生成サービスや他のサービスにより参照されるライブラリに含まれるモジュールの1つとして提供されてもよい。
サーバ装置10は、上記のルール更新機能を実現するルール更新プログラムを任意のコンピュータにインストールさせることにより実装できる。一例として、サーバ装置10は、上記のルール更新機能をオンプレミスに提供するサーバとして実装することができる。他の一例として、サーバ装置10は、SaaS(Software as a Service)型のアプリケーションとして実装することで、上記のルール更新機能をクラウドサービスとして提供することもできる。
また、サーバ装置10は、図1に示すように、ネットワークNWを介して、クライアント端末30と通信可能に接続され得る。例えば、ネットワークNWは、有線または無線を問わず、インターネットやLAN(Local Area Network)などの任意の種類の通信網であってよい。
クライアント端末30は、上記のルール更新機能の提供を受けるコンピュータの一例である。例えば、クライアント端末30には、パーソナルコンピュータなどのデスクトップ型のコンピュータなどが対応し得る。これはあくまで一例に過ぎず、クライアント端末30は、ラップトップ型のコンピュータや携帯端末装置、ウェアラブル端末などの任意のコンピュータであってよい。
なお、図1には、上記のルール更新機能がクライアントサーバシステムで提供される例を挙げるが、この例に限定されず、スタンドアロンで上記のルール更新機能が提供されることとしてもよい。
次に、本実施例に係るルール集合に基づく機械学習モデルの生成方法について例示する。図2は、機械学習モデルの生成方法の一例を示す図である。図2に示す訓練データのデータセット21には、データの性質を表す複数の項目の各々に対応する特徴量と、特定のラベルとを含む訓練データのサンプル集合が含まれ得る。なお、図2では、機械学習のタスクの一例として、クラス分類を行う機械学習モデルが生成される例を挙げる。
図2に示すように、訓練データのデータセット21を用いて、項目に対応する特徴量がとり得る数値を項目間で組み合わせる組合せパターンが網羅的に列挙されたルール集合のうち重要度が高いルール集合を抽出するマイニングが実行される(S1)。
ステップS1におけるマイニングでは、特徴量の数値を組み合わせる項目の数を2つから訓練データに含まれる項目の数までの全てを含めることで、全通りの組合せパターンがルール集合として列挙され得る。なお、ここでは、全通りの組合せパターンが列挙される例を挙げたが、特徴量の数値を組み合わせる項目の数をユーザ定義またはシステム定義により設定される上限値までに制限することとしてもよい。
その上で、ステップS1におけるマイニングでは、上述の通りに網羅的に列挙されたルール集合を母集団とし、当該母集団とするルール集合のうち重要度が高いルール集合が抽出される。
例えば、「重要度」は、あくまで一例として、支持度(Support)および確信度(Confidence)などの指標により定義することができる。
“Support”は、訓練データのデータセットに含まれるサンプル数のうちマイニングで抽出対象とするルールの条件部にヒットするサンプル数の割合、あるいは、マイニングで抽出対象とするルールの条件部にヒットするサンプル数の頻度を指す。“Support”はヒット数とも呼ばれることがある。
“Confidence”は、マイニングで抽出対象とするルールの条件部にヒットするサンプル数のうち当該ルールの帰結部のラベルと一致するクラスに分類できるサンプル数を指す。“Confidence”は、信頼度、あるいはヒット率とも呼ばれることがある。
これら“Support”および“Confidence”の各々の下限値がユーザ定義またはシステム定義により機械学習モデルのハイパーパラメータとして設定される。
ステップS1におけるマイニングでは、“Support”が下限値以上であり、かつ“Confidence”が下限値以上であるルール集合22を抽出する。これにより、1つの側面として、十分な数のサンプルで期待通りのクラスへの分類を実現するルール集合を獲得できる。以下、ステップS1におけるマイニングで抽出される初期のルールのことを指して「初期ルール」と記載する場合がある。
ステップS1のマイニングにより得られた初期ルールの集合22に含まれるルールの各々を機械学習モデルの説明変数とし、各サンプルのラベルを機械学習モデルの目的変数とし、各々のルールに付与される重みが回帰分析等の機械学習により決定される(S2)。
ステップS2の機械学習の結果、ルールごとに当該ルールの重みが付与されたルール集合が機械学習モデル23として得られる。
このようにして生成された機械学習モデル23によれば、機械学習モデルの出力結果に加えて、出力結果に寄与するルール集合を提示できる。このように提示されるルール集合は、論理式で表現可能であるので、解釈性(説明可能性)に優れる側面がある。
しかしながら、上記のルール集合には、ユーザから必ずしも納得が得られるルールだけが含まれるとは限らず、ユーザの納得が得られないルールが混在する一面もある。このため、上記のルール集合に基づく機械学習モデルは、解釈性に優れる一方で納得性に欠ける一面がある。
そうであるからと言って、上記の背景技術の欄で挙げた非特許文献1および非特許文献2、すなわち線形回帰モデルを複数列挙する方法を用いて、ユーザの納得が得られないルールの数が低減されたルール集合を獲得することも困難である。
なぜなら、非特許文献1および非特許文献2は、あくまで個々の特徴量に重みを付与する線形回帰モデルを前提とする技術であるので、ルールに重みが付与される機械学習モデルにそのまま適用することは困難であるからである。
このように適用が困難である理由の1つとして、項目の数や項目に対応する特徴量の数値がとり得る範囲の増加にしたがってルールの数が指数関数的に増大することが挙げられる。
すなわち、ルールの数が指数関数的に増大すれば、各ルールの重みを決定する側面から実行される回帰分析などの機械学習の計算コスト、例えば計算量や計算時間を現実的なものに抑えることが困難となる。
さらに、たとえマイニングにより機械学習の計算コストが抑えられたとしても、マイニングの段階で抽出されずに除外されたルールは機械学習モデルの説明変数にも含まれなくなる。このため、ユーザにとって納得性が高いルールがマイニングで埋没し、より納得性の高い機械学習モデルが列挙される可能性が低下する。
そこで、本実施例に係るルール更新機能は、機械学習モデルの生成に用いられた訓練データのサンプル集合のうちユーザ指定を受け付けた初期ルールに対応するサンプルに限定して初期ルールの代替となる新規ルールを獲得する再マイニングを実行する。
図3は、ルール更新方法の一例を示す図である。図3には、図2に示す機械学習モデルの生成に用いられた初期ルールの集合のうちユーザの納得が得られないルールが新規の代替ルールへ更新される例が示されている。なお、図3では、ルール更新に対応する処理に関するフローの矢印を太線で示す。
図3に示すように、ルール更新機能は、図2に示す通りに生成された機械学習モデル23、例えば初期ルールごとに初期ルールの重みが付与された初期ルールの集合をGUI(Graphical User Interface)を介してクライアント端末30に提示できる(S11)。
このように初期ルールの集合が提示された際、ルール更新機能は、ユーザ指定41の一例として、ユーザの理解や納得が得られないルールの指定を受け付けることができる(S12)。あくまで一例として、ユーザの直感や経験則、機械学習モデル23が適用される業務の常識などに反するルール、あるいは条件部に含まれる特徴量の組合せおよび帰結部のラベルが差別的な表現を含むルールなどが指定され得る。ユーザ指定の他の一例として、ルール更新機能は、上記のルールの指定の他、機械学習モデル23が十分に説明できていない訓練データのサンプルの指定を受け付けることもできる。
図3に示すユーザ指定41の例で言えば、「ルールR1は予測の根拠として不適切」という思考の下でルールR1が指定されると共に、「サンプルP2に対する説明が(ルールR2だけでは)不十分」という思考の下でサンプルP2が指定される例が示されている。
ステップS12でユーザ指定を受け付けると、ルール更新機能は、ユーザ指定41を受け付けたルールに対応する訓練データのサンプルを特定する(S13)。例えば、図3に示す例で言えば、訓練データのデータセット21に含まれるサンプル集合のうち、ユーザ指定41を受け付けたルールR1の条件部に含まれる特徴量の組合せパターンと一致する訓練データのサンプルP1及びP4が特定される。
その後、ルール更新機能は、ステップS13で特定された訓練データのサンプルP1及びP4と、ステップS12でユーザ指定を受け付けた訓練データのサンプルP2とに限定して再マイニングを実行する(S14)。
ステップS14で訓練データのサンプルP1、P2及びP4に限定した再マイニングが実行されることで、初期ルールであるルールR1の代替となる新規ルール、さらには、サンプルP2の説明を補充する新規ルールがルールR11及びR12として抽出される。
ステップS14の再マイニングの結果、ルール更新機能は、初期ルールの集合を次のように更新できる(S15)。例えば、図3に示す例で言えば、初期ルールの集合22から初期ルールの1つであるルールR1を削除すると共に、新規ルールとして抽出されたルールR11及びR12が追加されることにより、初期ルールの集合22が更新後のルール集合42へ更新される。
以上のように、本実施例に係るルール更新機能は、ユーザの理解や納得が得られないルールの代替となる新規ルールを獲得できる。したがって、本実施例に係るルール更新機能によれば、ルール集合に基づく機械学習モデルの納得性向上を実現できる。さらに、本実施例に係るルール更新機能は、機械学習モデルの説明が不十分である訓練データのサンプルの説明を補充する新規ルールを獲得ができる。それ故、本実施例に係るルール更新機能によれば、ルール集合に基づく機械学習モデルの解釈性(説明可能性)をより高めることもできる。
なお、図3には、初期ルールの集合22が更新後のルール集合42へ更新されるまでの説明を行ったが、当然のことながら、更新後のルール集合42に基づく機械学習モデル43を生成できることができる。この場合、更新後のルール集合42に含まれるルールの各々を機械学習モデルの説明変数とし、ラベルを機械学習モデルの目的変数とし、各々のルールに付与される重みを回帰分析等の機械学習により決定する。これにより、更新後のルール集合42に基づく機械学習モデル43を生成できる。
次に、本実施例に係るルール更新機能を有するサーバ装置10の機能的構成の一例について説明する。図1には、サーバ装置10が有する機能に対応するブロックが模式化されている。図1に示すように、サーバ装置10は、通信インタフェイス部11と、記憶部13と、制御部15とを有する。なお、図1には、上記のルール更新機能に関連する機能部が抜粋して示されているに過ぎず、図示以外の機能部、例えば既存のコンピュータがデフォルトまたはオプションで装備する機能部がサーバ装置10に備わることとしてもよい。
通信インタフェイス部11は、他の装置、例えばクライアント端末30との間で通信制御を行う通信制御部の一例に対応する。あくまで一例として、通信インタフェイス部11は、LANカードなどのネットワークインターフェイスカードにより実現される。例えば、通信インタフェイス部11は、クライアント端末30からルール更新に関するリクエスト、あるいはユーザ指定41、例えばルールやサンプルの指定などを受け付ける。また、通信インタフェイス部11は、更新後のルール集合42、あるいは更新後のルール集合42に基づく機械学習モデル43をクライアント端末30へ出力する。
記憶部13は、各種のデータを記憶する機能部である。あくまで一例として、記憶部13は、ストレージ、例えば内部、外部または補助のストレージにより実現され得る。例えば、記憶部13は、データセット21と、第1モデルデータ23と、第2モデルデータ43とを記憶する。なお、記憶部13は、データセット21、第1モデルデータ23及び第2モデルデータ43以外にも、上記のルール更新機能で参照される設定、例えば機械学習モデルのハイパーパラメータなどの各種のデータを記憶することができる。
データセット21は、図2及び図3に示す訓練データのサンプル集合21の一例に対応し得る。第1モデルデータ23及び第2モデルデータ43は、いずれもルール集合に基づく機械学習モデルのデータである。第1モデルデータ23は、図2に示す初期ルールの集合22に基づく機械学習モデル23に対応し得る一方で、第2モデルデータ43は、図3に示す更新後のルール集合42に基づく機械学習モデル43に対応し得る。
図4及び図5は、訓練データのサンプル集合の一例を示す図である。図4及び図5には、機械学習のタスクの一例として、2クラス分類を行う機械学習モデルの生成に用いる訓練データのサンプル集合211及び212が示されている。なお、ここでは、2クラス分類を行う機械学習モデルが生成される例を挙げるが、機械学習のタスクは2クラス分類に限定されず、多クラス分類であってもよいし、クラス分類以外の他のタスク、例えば予測などであってもよい。
例えば、図4には、正例、すなわちポジティブ「+」のラベルが付与された訓練データのサンプル集合211が例示される一方で、図5には、負例、すなわちネガティブ「-」のラベルが付与された訓練データのサンプル集合212が示されている。
さらに、図4及び図5には、項目の一例として、A~Eの5つの項目が例示されており、各々の項目に対応する特徴量が「1」または「0」のバイナリで表現される例が示されている。
ここで挙げる「項目」は、任意のものでよいが、あくまで説明上の例示として、年齢や性別などを挙げる。例えば、年齢の例で言えば、項目「年齢」が20歳以上であるサンプルの特徴量として「1」が抽出される一方で、項目「年齢」が20歳未満であるサンプルの特徴量として「0」が抽出される。また、性別の例で言えば、項目「性別」が男性であるサンプルの特徴量として「1」が抽出される一方で、性別の例で言えば、項目「性別」が女性であるサンプルの特徴量として「0」が抽出される。なお、図4及び図5には、特徴量がバイナリで表現される例を挙げたが、特徴量は3つ以上の多値で表現されることとしてもよい。例えば、年齢で言えば、年齢の数値そのものを特徴量とすることもできる。この他、項目「年齢」が10代未満であるサンプルの特徴量として「0」を抽出し、10代であるサンプルの特徴量として「1」を抽出し、・・・、N×10代であるサンプルの特徴量として「N」を抽出することもできる。
例えば、図4には、正例の訓練データのサンプル集合211の一例として、サンプルP1~P5の5つの事例が示されている。あくまで一例として、サンプルP1を例に挙げれば、ポジティブ「+」のラベルが付与された事例であって、項目「A」~項目「E」の各々の特徴量が「1」、「1」、「1」、「0」、「1」であることを意味する。
また、図5には、負例の訓練データのサンプル集合212の一例として、サンプルN1~N5の5つの事例が示されている。あくまで一例として、サンプルN1を例に挙げれば、ネガティブ「-」のラベルが付与された事例であって、項目「A」~項目「E」の各々の特徴量が「0」、「1」、「1」、「1」、「0」であることを意味する。
図4に示す正例の訓練データのサンプル集合211及び図5に示す負例の訓練データのサンプル集合212が訓練データのデータセット21として機械学習モデルの生成に用いられる。
例えば、図4及び図5に示す訓練データのデータセット21を用いて網羅的に列挙されたルール集合に図2に示すステップS1のマイニングが実行されることにより、図6に示す初期ルールの集合が得られる。
図6は、初期ルールの集合の一例を示す図である。図6には、あくまで一例として、“Support”の下限値が「10」に設定されると共に“Confidence”の下限値が「100%」に設定された状況の下でマイニングが実行されることにより得られた初期ルールの集合が例示されている。
図6に示すように、初期ルールの集合として、ルールR1~ルールR4の4つの初期ルールが示されている。図6に示す例で言えば、ルールには、右矢印の左辺に対応する条件部と、右矢印の右辺に対応する帰結部とが含まれる。
例えば、ルールR1の条件部には、項目「A」の特徴量が「1」であり、項目「B」の特徴量が「1」であり、かつ項目「C」の特徴量が「1」であるといった特徴量の組合せパターンが定義される。また、ルールR1の帰結部には、条件部に定義される事象の下で発生するポジティブ「+」というクラスが定義される。
このようなルールR1は、Support「10」が下限値「10」以上であり、かつConfidence「100%」が下限値「100%」以上であるというマイニング条件を満たすことから初期ルールの集合の1つとして抽出されている。
図6に示す初期ルールの集合に含まれるルールの各々を機械学習モデルの説明変数とし、各サンプルのラベルを機械学習モデルの目的変数とし、各々のルールに付与される重みが図2に示すステップS2の回帰分析、例えばロジスティック回帰等により決定される。
図7は、第1モデルデータの一例を示す図である。図7には、初期ルールの集合22に基づく機械学習モデル23の一例として、ルールR1~R4の4つの初期ルールごとに当該初期ルールの重みが付与されたルール集合が示されている。このような機械学習モデル23は、あくまで一例として、ルールR1~ルールR4の各々を説明変数とし、各ルールに付与される重みを偏回帰係数とする重回帰モデルとして機能し得る。
例えば、ルールR1~ルールR4に基づく機械学習モデル23には、入力データに含まれる項目「A」~項目「E」に対応する特徴量がルールR1~ルールR4の各々のルールの条件部を満たすか否かの判定結果が入力され得る。
ルールR1~ルールR4の4つの説明変数のうち、ルールの条件部を満たす説明変数には「1」が入力される一方でルールの条件部を満たさない説明変数には「0」が入力されることにより、機械学習モデル23から重み付けの総和が出力される。
このとき、機械学習モデル23により出力される重み付けの総和が0以上である場合、入力データが正例、すなわちポジティブ「+」のクラスへ分類される。その一方で、重み付けの総和が0未満である場合、入力データが負例、すなわちネガティブ「-」のクラスへ分類される。
このような初期ルールの集合22に基づく機械学習モデル23が第1モデルデータ23として記憶部13に保存され得る。なお、第2モデルデータ43の説明は、第2モデルデータ43の生成が行われる処理の説明と合わせて後述する。
制御部15は、サーバ装置10の全体制御を行う処理部である。例えば、制御部15は、ハードウェアプロセッサにより実現される。図1に示すように、制御部15は、受付部15Aと、特定部15Bと、マイニング部15Cと、更新部15Dと、生成部15Eとを有する。なお、図1には、ルール更新機能がパッケージされたモデル生成サービスに対応する機能部を例示したが、ルール更新機能に対応する機能部のみが備わることとしてもよい。
受付部15Aは、各種の情報を受け付ける処理部である。一実施形態として、受付部15Aは、クライアント端末30からルール更新に関するリクエストを受け付けることができる。このとき、ルール更新に関するリクエストを受け付けると、受付部15Aは、記憶部13に記憶された第1モデルデータ23に含まれる機械学習モデル、例えば初期ルールの集合に基づく機械学習モデルをクライアント端末30に表示させる。
あくまで一例として、受付部15Aは、図7に示すルールR1~ルールR4に基づく機械学習モデルをクライアント端末30に表示させることができる。なお、図7には、各項目がA~Eという記号でマスクされた例が示されているが、実際には、性別や年齢の他、任意の項目の値を表示できるのは言うまでもない。
このように図7に示すルールR1~ルールR4に基づく機械学習モデルが提示された際、受付部15Aは、ユーザ指定41の一例として、ユーザの理解や納得が得られないルールの指定を受け付けることができる。あくまで一例として、ユーザの直感や経験則、機械学習モデル23が適用される業務の常識などに反するルール、あるいは条件部に含まれる特徴量の組合せおよび帰結部のラベルが差別的な表現を含むルールなどが指定され得る。例えば、図3に示すユーザ指定41で例示される通り、「ルールR1は予測の根拠として不適切」という思考の下でルールR1のユーザ指定を受け付けることができる。
他の一例として、受付部15Aは、図4に示す正例の訓練データのサンプル、図5に示す負例の訓練データのサンプル、あるいはこれら両方を含むデータセット21をクライアント端末30に表示させることができる。なお、図4や図5には、各項目がA~Eという記号でマスクされた例が示されているが、実際には、性別や年齢の他、任意の項目の値を表示できるのは言うまでもない。
このようなサンプルの提示が行われた際、受付部15Aは、ユーザ指定の一例として、図7に示す機械学習モデルが十分に説明できていない訓練データのサンプルの指定を受け付けることもできる。例えば、サンプルの指定を支援する側面から、図4に示す正例の訓練データのサンプルや図5に示す負例の訓練データのサンプルが提示される際、各サンプルがサポートするルールを対応付けて表示させることができる。あくまで一例として、訓練データのサンプルのうちいずれかのサンプルにマウスオーバーが行われた場合、マウスオーバーが行われたサンプルをサポートするルールを表示させることができる。例えば、図3に示すユーザ指定41で例示される通り、「サンプルP2に対する説明が(ルールR2だけでは)不十分」という思考の下でサンプルP2のユーザ指定を受け付けることができる。なお、マウスオーバー時に表示されるルールは、ルールそのものではなく、ルールの識別情報であってもよい。
なお、ここでは、機械学習モデルや訓練データのサンプルが提示されてからユーザ指定を受け付ける例を挙げたが、機械学習モデルや訓練データのサンプルの提示をスキップしてユーザ指定を受け付けることとしてもよい。また、ユーザ指定として、ルールの指定および訓練データのサンプルの指定の両方が必ずしも受け付けられずともよく、少なくともいずれか一方を受け付けることができる。
特定部15Bは、ユーザ指定を受け付けたルールに対応する訓練データのサンプルを特定する処理部である。一実施形態として、特定部15Bは、訓練データのデータセット21に含まれるサンプル集合のうち、ユーザ指定41を受け付けたルールの条件部に含まれる特徴量の組合せパターンと一致する訓練データのサンプルを特定する。例えば、ルールR1のユーザ指定を受け付けた場合、第1モデルデータ23に含まれる初期ルールの集合22のうち、ルールR1の条件部が参照される。ルールR1の条件部には、図7に示す通り、項目「A」の特徴量が「1」であり、項目「B」の特徴量が「1」であり、かつ項目「C」の特徴量が「1」である特徴量の組合せパターンが定義されている。このような特徴量の組合せパターンには、図4に示す正例の訓練データのサンプル集合211及び図5に示す負例の訓練データのサンプル集合212のうち、正例の訓練データのサンプルP1及びP4が一致する。この結果、ルールR1に対応するサンプルとして、正例の訓練データのサンプルP1及びP4が特定される。
マイニング部15Cは、マイニングを実行する処理部である。一実施形態として、マイニング部15Cは、訓練データのデータセット21のうち特定部15Bにより特定された訓練データのサンプルと、受付部15Aによりユーザ指定41が受け付けられた訓練データのサンプルとに限定して再マイニングを実行する。以下、特定部15Bにより特定された訓練データのサンプルと、受付部15Aによりユーザ指定が受け付けられた訓練データのサンプルとを纏めて指して「改善対象のサンプル」と記載する場合がある。
このような改善対象のサンプルに含まれるラベルの種類は、次に挙げる3つのケース1~ケース3に分岐し得る。ケース1として、改善対象のサンプルには、正例のラベルが付与された訓練データのサンプルのみが含まれる場合が挙げられる。ケース2として、負例のラベルが付与された訓練データのサンプルのみが含まれる場合が挙げられる。ケース3として、正例のラベルが付与された訓練データのサンプルと、負例のラベルが付与された訓練データのサンプルとの両方が含まれる場合が挙げられる。
例えば、ケース1で再マイニングが実行される場合、マイニング部15Cは、改善対象のサンプルと、全ての負例の訓練データのサンプルとを用いて再マイニングを実行する。これにより、帰結部が正例のクラスに対応する正例ルールを抽出できる。また、ケース2で再マイニングが実行される場合、マイニング部15Cは、改善対象のサンプルと、全ての正例の訓練データのサンプルとを用いて再マイニングを実行する。これにより、帰結部が負例のクラスに対応する正例ルールを抽出できる。さらに、ケース3で再マイニングが実行される場合、マイニング部15Cは、改善対象のサンプルのうち正例のラベルが付与されたサンプルと、全ての負例の訓練データのサンプルとを用いて再マイニングを実行する。さらに、マイニング部15Cは、改善対象のサンプルのうち負例のラベルが付与されたサンプルと、全ての正例の訓練データのサンプルとを用いて再マイニングを実行する。これにより、帰結部が正例のクラスに対応する正例ルールと、帰結部が負例のクラスに対応する負例ルールとを抽出できる。
ここで、再マイニングの実行時には、“Support”の下限値、“Confidence”の下限値またはこれらの両方を変更することができる。あくまで一例として、初期ルールの集合のマイニング時よりもマイニング条件を緩和することができる。例えば、マイニング部15Cは、再マイニング時の“Support”の下限値を初期ルールの集合のマイニング時の“Support”の下限値よりも下げることができる。また、マイニング部15Cは、再マイニング時の“Confidence”の下限値を初期ルールの集合のマイニング時の“Confidence”の下限値よりも下げることができる。このようなマイニング条件の緩和により、サンプルのサポート不足やサンプルのノイズが一因となって新規ルール42nが獲得できない事態を抑制し、もって新規ルール42nを獲得できる可能性を高めることができる。
例えば、図3に示すユーザ指定41の例に従えば、特定部15Bにより特定された訓練データのサンプルP1及びP4と、受付部15Aによりユーザ指定が受け付けられた訓練データのサンプルP2とが改善対象のサンプルI1とされる。
このような改善対象のサンプルI1には、正例のサンプルP1及びP4と、正例のサンプルP2といったように正例の訓練データのサンプルしか含まれない。この場合、上記のケース1に該当するので、図8に示す正例ルールの再マイニングが実行される。
図8は、正例ルールの再マイニングの一例を示す図である。図8には、あくまで一例として、“Support”の下限値が「10」に設定されると共に“Confidence”の下限値をマイニング時の「100%」から「90%」に下げて設定された状況の下で再マイニングが実行される例が示されている。図8に示すように、改善対象のサンプルI1と、負例の訓練データのサンプル集合212とを用いて、正例ルールの再マイニングが実行される。このような再マイニングの結果、図9に示す正例のルールが新規ルール42nとして得られる。
図9は、新規ルールの一例を示す図である。図9に示すように、再マイニングの結果として、ルールR11及びルールR12の2つの新規ルール42nが得られる。このうち、ルールR11の条件部には、項目「B」の特徴量が「1」であり、かつ項目「E」の特徴量が「1」である特徴量の組合せパターンが定義されると共に、ルールR11の帰結部には、正例、すなわちポジティブ「+」のクラスが定義されている。また、ルールR12の条件部には、項目「D」の特徴量が「1」であり、かつ項目「E」の特徴量が「1」である特徴量の組合せパターンが定義されると共に、ルールR12の帰結部には、正例、すなわちポジティブ「+」のクラスが定義されている。これらルールR11及びルールR12の2つの正例ルールが新規ルール42nとして得られる。
このように、ユーザの理解や納得が得られないルールR1の代替となる新規ルール42n、さらには、サンプルP2の説明を補充する新規ルール42nをルールR11及びR12として獲得できる。なお、新規ルール42nは、機械学習モデル43の生成のみならず、クライアント端末30に提示することもできる。
更新部15Dは、ルール集合を更新する処理部である。一実施形態として、更新部15Dは、マイニング部15Cによる再マイニングの結果として得られた新規ルール42nに基づいて初期ルールの集合22を更新する。例えば、初期ルールの集合22のうちユーザ指定41を受け付けたルールを削除すると共に、マイニング部15Cによる再マイニングで得られた新規ルール42nを追加する。あくまで一例として、図9に示す新規ルール42nに基づいて図6に示す初期ルールの集合22が更新される場合、図6に示す初期ルールの集合22に図9に示す新規ルール42nが追加される。さらに、図6に示す初期ルールの集合22のうちユーザ指定41で受け付けたルールR1が削除される。これにより、初期ルールの集合22が更新後のルール集合42へ更新される。
このように得られた更新後のルール集合42も、機械学習モデル43の生成のみならず、クライアント端末30に提示することもできる。
生成部15Eは、機械学習モデルを生成する処理部である。一実施形態として、生成部15Eは、更新後のルール集合42に含まれるルールの各々を機械学習モデルの説明変数とし、データセット21に含まれる各サンプルのラベルを機械学習モデルの目的変数とし、各ルールに付与される重みを回帰分析等により決定する。これにより、更新後のルール集合42に基づく機械学習モデル43を生成できる。
図10は、第2モデルデータの一例を示す図である。図10には、更新後のルール集合42に基づく機械学習モデル43の一例として、ルールR2~R4及びルールR11~R12の5つのルールごとに当該ルールの重みが付与されたルール集合が示されている。このような機械学習モデル43は、あくまで一例として、ルールR2~R4及びルールR11~R12の各々を説明変数とし、各ルールに付与される重みを偏回帰係数とする重回帰モデルとして機能し得る。
例えば、機械学習モデル43には、入力データに含まれる項目「A」~項目「E」に対応する特徴量がルールR2~R4及びルールR11~R12の各々のルールの条件部を満たすか否かの判定結果が入力され得る。
ルールR2~R4及びルールR11~R12の5つの説明変数のうち、ルールの条件部を満たす説明変数へ「1」が入力される一方でルールの条件部を満たさない説明変数へ「0」が入力されることにより、機械学習モデル43から重み付けの総和が出力される。
このとき、機械学習モデル43により出力される重み付けの総和が0以上である場合、入力データが正例、すなわちポジティブ「+」のクラスへ分類される。その一方で、重み付けの総和が0未満である場合、入力データが負例、すなわちネガティブ「-」のクラスへ分類される。
このように得られた機械学習モデル43は、クライアント端末30に提示したり、第2モデルデータとして記憶部13に保存したりすることができる。
図11は、実施例1に係るルール更新処理の手順を示すフローチャートである。図11に示す処理は、あくまで一例として、クライアント端末30からルール更新に関するリクエストを受け付けた場合に開始することができる。
図11に示すように、受付部15Aは、ユーザ指定41として、ユーザの理解や納得が得られないルールの指定や機械学習モデルが十分に説明できていない訓練データのサンプルの指定などを受け付ける(ステップS101)。
続いて、特定部15Bは、訓練データのデータセット21に含まれるサンプル集合のうち、ステップS101でユーザ指定41を受け付けたルールの条件部に含まれる特徴量の組合せパターンと一致する訓練データのサンプルを特定する(ステップS102)。
その後、マイニング部15Cは、ステップS102で特定された訓練データのサンプルと、ステップS101でユーザ指定41が受け付けられた訓練データのサンプルとを含む改善対象のサンプルに限定して再マイニングを実行する。
すなわち、マイニング部15Cは、改善対象のサンプルのうち正例のラベルが付与されたサンプルと、全ての負例の訓練データのサンプルとを用いて再マイニングを実行する(ステップS103A)。
これと並行して、マイニング部15Cは、改善対象のサンプルのうち負例のラベルが付与されたサンプルと、全ての正例の訓練データのサンプルとを用いて再マイニングを実行する(ステップS103B)。
なお、改善対象のサンプルに正例のラベルが付与されたサンプルが存在しない場合、ステップS103Aの処理がスキップされる一方で、改善対象のサンプルに負例のラベルが付与されたサンプルが存在しない場合、ステップS103Bの処理がスキップされる。
その後、更新部15Dは、ステップS103A及びS103Bの再マイニングで得られた新規ルール42nを初期ルールの集合22に追加すると共に初期ルールの集合22のうちユーザ指定41を受け付けたルールを削除する(ステップS104)。これにより、初期ルールの集合22が更新後のルール集合42へ更新される。
その上で、生成部15Eは、更新後のルール集合42に含まれるルールの各々を説明変数とし、データセット21に含まれる各サンプルのラベルを目的変数とし、各ルールに付与される重みを回帰分析等により決定する(ステップS105)。これにより、更新後のルール集合42に基づく機械学習モデル43が生成される。
そして、生成部15Eは、ステップS105で生成された更新後のルール集合42に基づく機械学習モデル43をクライアント端末30等に提示し(ステップS106)、処理を終了する。
上述してきたように、本実施例に係るルール更新機能は、機械学習モデルの生成に用いられた訓練データのサンプル集合のうちユーザ指定を受け付けた初期ルールに対応するサンプルに限定して初期ルールの代替となる新規ルールを獲得する再マイニングを行う。これにより、ユーザの理解や納得が得られないルールの代替となる新規ルールを獲得できる。したがって、本実施例に係るルール更新機能によれば、ルール集合に基づく機械学習モデルの納得性向上を実現できる。
さらに、本実施例に係るルール更新機能は、機械学習モデルの説明が不十分である訓練データのサンプルの説明を補充する新規ルールを獲得ができる。それ故、本実施例に係るルール更新機能によれば、ルール集合に基づく機械学習モデルの解釈性(説明可能性)をより高めることもできる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、受付部15A、特定部15B、マイニング部15C、更新部15Dまたは生成部15Eをサーバ装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、受付部15A、特定部15B、マイニング部15C、更新部15Dまたは生成部15Eを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のサーバ装置10の機能を実現するようにしてもよい。また、記憶部に記憶されるデータセット21、第1モデルデータ23および第2モデルデータ43の全部または一部を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のサーバ装置10の機能を実現するようにしてもかまわない。
[ルール更新プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、実施例1及び実施例2と同様の機能を有するルール更新プログラムを実行するコンピュータの一例について説明する。
図12は、ハードウェア構成例を示す図である。図12に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110~180の各部はバス140を介して接続される。
HDD170には、図12に示すように、上記の実施例1で示した受付部15A、特定部15B、マイニング部15C、更新部15D及び生成部15Eと同様の機能を発揮するルール更新プログラム170aが記憶される。このルール更新プログラム170aは、図1に示した受付部15A、特定部15B、マイニング部15C、更新部15D及び生成部15Eの各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
このような環境の下、CPU150は、HDD170からルール更新プログラム170aを読み出した上でRAM180へ展開する。この結果、ルール更新プログラム170aは、図12に示すように、ルール更新プロセス180aとして機能する。このルール更新プロセス180aは、RAM180が有する記憶領域のうちルール更新プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、ルール更新プロセス180aが実行する処理の一例として、図11に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記のルール更新プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
10 サーバ装置
11 通信インタフェイス部
13 記憶部
15 制御部
15A 受付部
15B 特定部
15C マイニング部
15D 更新部
15E 生成部
21 データセット
22 初期ルールの集合
23 第1モデルデータ
30 クライアント端末
41 ユーザ指定
42 更新後のルール集合
43 第2モデルデータ

Claims (11)

  1. 訓練データを用いた第1のマイニングの結果生成されたルール集合に含まれるルールの少なくとも一部に対するユーザ指定を受け付け、
    前記ユーザ指定を受け付けたルールに対応するサンプルデータを前記訓練データから特定し、
    前記ユーザ指定を受け付けたルールに対応する前記サンプルデータに限定した訓練データを用いて第2のマイニングを実行することで、新規ルールを取得する、
    処理をコンピュータに実行させることを特徴とするルール更新プログラム。
  2. 前記受け付ける処理は、前記ユーザ指定として、前記訓練データからいずれかのサンプルデータの指定を受け付ける処理を含み、
    前記取得する処理は、前記特定する処理で特定された前記サンプルデータと、前記ユーザ指定を受け付けた前記サンプルデータとに限定した訓練データを用いて、前記第2のマイニングを実行する処理を含む、
    ことを特徴とする請求項1に記載のルール更新プログラム。
  3. 前記訓練データは、正例のラベルが付与されたサンプルデータの集合および負例のラベルが付与されたサンプルデータの集合を含み、
    前記取得する処理は、前記特定する処理で特定された前記サンプルデータのうち前記正例のラベルが付与されたサンプルデータと、前記負例のラベルが付与されたサンプルデータの集合とを用いて前記第2のマイニングを実行することで、ルールの帰結部が前記正例のクラスに対応する前記新規ルールを取得する処理を含む、
    ことを特徴とする請求項1に記載のルール更新プログラム。
  4. 前記訓練データは、正例のラベルが付与されたサンプルデータの集合および負例のラベルが付与されたサンプルデータの集合を含み、
    前記取得する処理は、前記特定する処理で特定された前記サンプルデータのうち前記負例のラベルが付与されたサンプルデータと、前記正例のラベルが付与されたサンプルデータの集合とを用いて前記第2のマイニングを実行することで、ルールの帰結部が前記負例のクラスに対応する前記新規ルールを取得する処理を含む、
    ことを特徴とする請求項1に記載のルール更新プログラム。
  5. 前記取得する処理は、前記第1のマイニング時に用いられる支持度の下限値よりも小さい支持度の下限値に基づいて、前記第2のマイニングを実行する処理を含む、
    ことを特徴とする請求項1に記載のルール更新プログラム。
  6. 前記取得する処理は、前記第1のマイニング時に用いられる確信度の下限値よりも小さい確信度の下限値に基づいて、前記第2のマイニングを実行する処理を含む、
    ことを特徴とする請求項1に記載のルール更新プログラム。
  7. 前記新規ルールを前記ルール集合に追加すると共に、前記ルール集合のうち前記ユーザ指定を受け付けたルールを削除することで、前記ルール集合を更新する処理を前記コンピュータにさらに実行させる、
    ことを特徴とする請求項1に記載のルール更新プログラム。
  8. 前記更新する処理で更新されたルール集合に基づいて前記訓練データを用いた機械学習を実行することで、機械学習モデルを生成する処理を前記コンピュータにさらに実行させる、
    ことを特徴とする請求項7に記載のルール更新プログラム。
  9. 前記生成する処理は、前記更新する処理で更新されたルール集合に含まれるルールの各々を説明変数とし、前記訓練データに付与されたラベルを目的変数とし、各ルールに付与される重みを機械学習により決定することで、前記機械学習モデルを生成する処理を含む、
    ことを特徴とする請求項8に記載のルール更新プログラム。
  10. 訓練データを用いた第1のマイニングの結果生成されたルール集合に含まれるルールの少なくとも一部に対するユーザ指定を受け付け、
    前記ユーザ指定を受け付けたルールに対応するサンプルデータを前記訓練データから特定し、
    前記ユーザ指定を受け付けたルールに対応する前記サンプルデータに限定した訓練データを用いて第2のマイニングを実行することで、新規ルールを取得する、
    処理をコンピュータが実行することを特徴とするルール更新方法。
  11. 訓練データを用いた第1のマイニングの結果生成されたルール集合に含まれるルールの少なくとも一部に対するユーザ指定を受け付け、
    前記ユーザ指定を受け付けたルールに対応するサンプルデータを前記訓練データから特定し、
    前記ユーザ指定を受け付けたルールに対応する前記サンプルデータに限定した訓練データを用いて第2のマイニングを実行することで、新規ルールを取得する、
    処理を実行する制御部を含むルール更新装置。
JP2022574991A 2021-01-15 2021-01-15 ルール更新プログラム、ルール更新方法及びルール更新装置 Active JP7448039B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/001273 WO2022153486A1 (ja) 2021-01-15 2021-01-15 ルール更新プログラム、ルール更新方法及びルール更新装置

Publications (3)

Publication Number Publication Date
JPWO2022153486A1 JPWO2022153486A1 (ja) 2022-07-21
JPWO2022153486A5 JPWO2022153486A5 (ja) 2023-06-01
JP7448039B2 true JP7448039B2 (ja) 2024-03-12

Family

ID=82448104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022574991A Active JP7448039B2 (ja) 2021-01-15 2021-01-15 ルール更新プログラム、ルール更新方法及びルール更新装置

Country Status (5)

Country Link
US (1) US20230334342A1 (ja)
EP (1) EP4280119A4 (ja)
JP (1) JP7448039B2 (ja)
CN (1) CN116745781A (ja)
WO (1) WO2022153486A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116682524B (zh) * 2023-07-17 2024-02-02 北京惠每云科技有限公司 病历质控方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004036496A1 (ja) 2002-10-18 2004-04-29 Fujitsu Limited ルールベース管理装置およびルールベース管理プログラム
US20200293836A1 (en) 2019-03-14 2020-09-17 Adobe Inc. Fast And Accurate Rule Selection For Interpretable Decision Sets

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106391A (ja) * 1994-10-04 1996-04-23 Fuji Electric Co Ltd 判別ルール生成方法
JPH11306023A (ja) * 1998-04-20 1999-11-05 Kobe Steel Ltd 知識処理システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004036496A1 (ja) 2002-10-18 2004-04-29 Fujitsu Limited ルールベース管理装置およびルールベース管理プログラム
US20200293836A1 (en) 2019-03-14 2020-09-17 Adobe Inc. Fast And Accurate Rule Selection For Interpretable Decision Sets

Also Published As

Publication number Publication date
EP4280119A4 (en) 2024-03-13
JPWO2022153486A1 (ja) 2022-07-21
EP4280119A1 (en) 2023-11-22
WO2022153486A1 (ja) 2022-07-21
CN116745781A (zh) 2023-09-12
US20230334342A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US20210342369A1 (en) Method and system for implementing efficient classification and exploration of data
JP2019164761A (ja) ラベル付きトレーニングデータの品質向上
US10380501B2 (en) Lookalike evaluation
US20190311293A1 (en) Machine learning for determining confidence for reclamation of storage volumes
US11270023B2 (en) Anonymity assessment system
JP6597066B2 (ja) 個人情報匿名化方法、プログラム、及び情報処理装置
JP2013140510A (ja) データ処理方法、分散処理システムおよびプログラム
US9959197B2 (en) Automated bug detection with virtual machine forking
JP2020533692A (ja) 訓練データを更新するための方法、システム、およびコンピュータ・プログラム
EP3198478A1 (en) Method and system for implementing efficient classification and exploration of data
US20220350733A1 (en) Systems and methods for generating and executing a test case plan for a software product
US20240112229A1 (en) Facilitating responding to multiple product or service reviews associated with multiple sources
JP2009151471A (ja) 評価装置、評価方法及び評価プログラム
JP2020140596A (ja) 対象者の行動変容と習慣化を支援するシステム及び方法
US20150347926A1 (en) Fast Naive Bayesian Framework with Active-Feature Ordering
CN112559522A (zh) 数据存储方法、装置、查询方法、电子设备及可读介质
JP7448039B2 (ja) ルール更新プログラム、ルール更新方法及びルール更新装置
JPWO2017203672A1 (ja) アイテム推奨方法、アイテム推奨プログラムおよびアイテム推奨装置
Bernard et al. Discovering customer journeys from evidence: a genetic approach inspired by process mining
US10313457B2 (en) Collaborative filtering in directed graph
US11023497B2 (en) Data classification
JP2015064856A (ja) データ分析プログラム、データ分析方法及びデータ分析装置
JP6422346B2 (ja) プログラム生成装置、及び、プログラム生成方法
JP2022067642A (ja) マイクロサービス識別を向上させるためにリファクタリングを識別および優先順位付するためのコンピュータシステム、コンピュータプログラムおよび方法(マイクロサービス識別を向上させるためにリファクタリングを識別および優先順位付するための方法およびシステム)
US11556710B2 (en) Processing entity groups to generate analytics

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7448039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150