JP7475956B2 - 推論方法、機械学習推論システム及びコンピュータプログラム - Google Patents

推論方法、機械学習推論システム及びコンピュータプログラム Download PDF

Info

Publication number
JP7475956B2
JP7475956B2 JP2020085252A JP2020085252A JP7475956B2 JP 7475956 B2 JP7475956 B2 JP 7475956B2 JP 2020085252 A JP2020085252 A JP 2020085252A JP 2020085252 A JP2020085252 A JP 2020085252A JP 7475956 B2 JP7475956 B2 JP 7475956B2
Authority
JP
Japan
Prior art keywords
inference
result
machine learning
request
client device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020085252A
Other languages
English (en)
Other versions
JP2021179840A (ja
Inventor
ハリエット ンヤンチャマ オチャロ
泰隆 河野
聡一 高重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020085252A priority Critical patent/JP7475956B2/ja
Publication of JP2021179840A publication Critical patent/JP2021179840A/ja
Application granted granted Critical
Publication of JP7475956B2 publication Critical patent/JP7475956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Description

本発明は、推論方法、機械学習推論システム及びコンピュータプログラムに関する。
稼働中の機械学習システムはますます増えている。しかしながら、機械学習システムは、モデル更新を必要とするデータの変化に起因して、予測システムに障害を有することがある。機械学習推論システムにおけるエラーの原因には、データドリフトに起因するモデルの劣化、デプロイメント中の誤りなどが含まれる。エラーの原因を特定し、再訓練するのに長時間を要することがある。その間に、システムは利用できなくなることがある。このような場合、機械学習システムにおいて連続的な可用性および信頼性を確保する必要がある。これは、履歴的に成功した推論結果のキャッシュを利用することによって行うことができる。
従来のWebおよびデータベースシステムのキャッシュでは、データベースのクエリまたはweb要求は静的であり、期待される応答は元のデータベースまたはwebサーバにすでに存在する。Least Recently UsedまたはLeast Frequently Usedなどのキャッシュ(置換)アルゴリズムは、推論要求および応答が動的であるため、機械学習システムでは機能することができない。時々、推論要求が以前になかったために、キャッシュされた結果では完全一致する検索ができない場合がある。代替案は、特徴ベクトル空間の近傍を探索することである。
本技術に関連する従来技術として、特許文献1に開示されたものがある。特許文献1に開示された技術では、システムは応答キャッシュ内の要求への応答をキャッシュするために使用される一連の属性を受け取り、要求への応答に関連する自然言語テキストのコーパスを分析して、1つ以上の属性に関連する値の範囲を識別する。システムは1つ以上の属性に関連付けられた値の特定された範囲に基づいて複数のキャッシングバケットを生成し、複数のキャッシングバケット内の各キャッシングバケットについて、対応するキャッシュキーを生成する。返答は、返答がメンバーであるキャッシュバケットに対応するキャッシュキーに関連付けられて返答キャッシュに保存される。リクエストは、その後、キャッシュされたレスポンスをレスポンスキャッシュから取得することによって処理される。
米国特許第9886390号明細書
特許文献1に開示されたような機械学習推論システムでは、直接ヒットがない場合に、キャッシングおよび適切な応答を返すための規則を開発者が静的に定義しなければならない場合がある。ただし、機械学習推論システムでは、これらの属性を静的に定義することはできない。
本発明は上記の課題に鑑みてなされたもので、信頼性及び可用性を改善することが可能な推論方法、機械学習推論システム及びコンピュータプログラムを提供することにある。
上記課題を解決すべく、本発明の一つの観点に従う推論方法は、プロセッサ及びメモリを有する機械学習推論システムにより実施される推論方法であって、プロセッサは、クライアント装置から推論要求を受け入れ、推論要求を機械学習モデルに提示してこの機械学習モデルから推論結果を受け入れ、推論結果を検証し、検証の結果が肯定的であれば推論結果をクライアントに提示し、検証の結果が否定的であれば、キャッシュされかつ既に検証された推論要求と推論結果との組から少なくとも一つの代替的な推論結果をクライアントに提示し、代替的な推論結果を提示するときに、機械学習トレーニングシステムから、機械学習モデルによる推論処理の際に用いられるそれぞれの特徴の特徴重要度情報を検索し、キャッシュされかつ既に検証された推論要求と推論結果との組を生成する際に用いられた特徴の重み付け値を算出し、特徴の重み付け値に基づいて、クライアント装置から受け入れた推論要求に含まれる特徴とキャッシュされた推論要求に含まれる特徴との類似度を算出し、類似度に基づいて、クライアント装置から受け入れた推論要求に最も類似するキャッシュされた推論要求を決定し、キャッシュされた推論要求と推論結果との複数の組から、最も類似する推論要求に対応する代替的な推論結果を決定する。
本発明によれば、信頼性及び可用性を改善することが可能な推論方法、機械学習推論システム及びコンピュータプログラムを実現することができる。
実施形態に係る機械学習推論システムの概略構成を示すブロック図である。 実施形態に係る機械学習推論システムの概略ハードウェア構成を示す図である。 実施形態に係る機械学習推論システムの推論スーパーバイザサーバの概略構成を示すブロック図である。 実施形態に係る機械学習推論システムの代替結果生成サーバの概略構成を示すブロック図である。 実施形態に係る機械学習推論システムのSLA(Service Level Agreement:サービス品質保証)検証テーブルの一例を示す図である。 実施形態に係る機械学習推論システムのドメイン制約テーブルの一例を示す図である。 実施形態に係る機械学習推論システムの推論結果テーブルの一例を示す図である。 実施形態に係る機械学習推論システムの特徴重み値テーブルの一例を示す図である。 実施形態に係る機械学習推論システムのキャッシュクラスタテーブルの一例を示す図である。 実施形態に係る機械学習推論システムの推論処理フローの一例を示すフローチャートである。 実施形態に係る機械学習推論システムのSLA検証処理フローの一例を示すフローチャートである。 実施形態に係る機械学習推論システムのドメイン制約検証処理フローの一例を示すフローチャートである。 実施形態に係る機械学習推論システムの代替結果生成処理フローの一例を示すフローチャートである。 実施形態に係る機械学習推論システムの重み値算出処理フローの一例を示すフローチャートである。 実施形態に係る機械学習推論システムのキャッシュクラスタ作成処理フローの一例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。
なお、実施例を説明する図において、同一の機能を有する箇所には同一の符号を付し、その繰り返しの説明は省略する。
また、以下の説明では、情報の一例として「xxxデータ」といった表現を用いる場合があるが、情報のデータ構造はどのようなものでもよい。すなわち、情報がデータ構造に依存しないことを示すために、「xxxデータ」を「xxxテーブル」と言うことができる。さらに、「xxxデータ」を単に「xxx」と言うこともある。そして、以下の説明において、各情報の構成は一例であり、情報を分割して保持したり、結合して保持したりしても良い。
なお、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)及び/又は通信インターフェースデバイス(例えばポート)を用いながら行うため、処理の主語がプログラムとされても良い。プログラムを主語として説明された処理は、プロセッサ或いはそのプロセッサを有する計算機が行う処理としても良い。
本実施例の機械学習推論システムは、一例として下記のような構成を有してもよい。
すなわち、本実施例の機械学習推論システムでは、重み付け特徴クラスタリングを用いた機械学習推論システムにおけるキャッシングに対する動的アプローチを採用した。最近の応答が記憶され、次に、重み付けされたクラスタリングが規則的な間隔で実行される。重み値は、機械学習トレーニングシステムから得られた解析的特徴情報を使用して計算される。本実施例の機械学習推論システムは、別の機械学習モデルを作成することではなく、むしろ、機械学習推論システムにおけるエラーが固定されるまで時間的に解を提供するための信頼できるフォールバック方法を作成することである。新しい推論要求を受信すると、最も近いクラスタに割り当てられ、そのクラスタから集約値が返される。クラスタからの総計値を使用することは、以前の結果には何ら存在しない可能性がある正確な一致を見つけようとするのではなく、バイアスの機会を減らす。
より詳細には、本実施例の機械学習推論システムは、推論結果の信頼性を検証するためにドメイン制約検証部およびSLA検証部を使用する推論スーパーバイザからなる機械学習推論システムにおける信頼性および可用性を改善するためのシステムおよび方法と、機械学習推論結果の検証が失敗の際に、代替結果生成部が成功した推論結果を使用することによって許容可能な代替結果を生成し、返すための方法が提供される。
代替結果の生成は、機械学習トレーニングシステムから動的に得られた特徴重要度情報から計算された重み値を使用して成功した推論結果に対して重み付けクラスタリングを実行し、クラスタ化された推論要求と推論結果とを関連するキャッシュクラスタに保存する。事前に計算された特徴重み付けを使用する類似度ベースのクラスタ算出によって受信した推論要求を最も近いキャッシュクラスタに割り当て、それに続いて割り当てられたキャッシュクラスタからすべての結果を読み取り、そのキャッシュクラスタから集約結果を計算し、この集約結果を許容可能な代替結果として返す。
以下に、機械学習推論システムにおける信頼性および可用性を改善する推論方法、機械学習推論システム、および他の構成要素の実施形態が提示される。
図1は、実施形態に係る機械学習推論システムの概略構成を示すブロック図である。
図1において、クライアント100は推論要求を機械学習推論システム210に送信し、推論結果を取得する。クライアント100の一例は、スマートフォンアプリを利用してタクシーを呼び出すユーザであり、このアプリは、ユーザが支払うことが予想されるタクシー料金の額を推論結果として返す。推論要求は、ユーザの現在位置、目的地、要求時刻などの情報を含むことができる。この情報は、一連の機能としてアプリによってコード化され、API110などのモデルAPIへの推論要求として送信される。
一般的な機械学習推論システムでは、APIへの推論要求コールはモデルのゲートウェイまたはロードバランサへの要求コールとすることができ、次いで、ゲートウェイまたはロードバランサは推論要求を機械学習モデル140に転送する。この実施形態では、APIへのコールは推論スーパーバイザ120によって受信される。推論スーパーバイザ120は、クライアント100に代わって、機械学習モデルAPI130を介して機械学習モデル140に要求を転送する。
一般的な機械学習推論システムでは推論結果が受信されると、推論結果はクライアント100に返送される前に有効性についてチェックされない。本実施形態では、推論結果が推論スーパーバイザ120によって受信されると、ドメイン制約検証部124によって妥当性が検証される。例えば、タクシーを呼び出すアプリによる料金見積もり要求の場合、推論結果は負の値であってはならない。さらに同じ例を使用すると、料金は、ドメイン知識記憶部104に記憶された位置または他のそのようなドメイン制約に応じて、課せられた最大値を有することができる。
ドメイン知識記憶部104は、特定の機械学習モデル140のためのドメイン制約に関する情報を含む。このドメイン知識記憶部104は、機械学習開発サイクルの初期段階中にドメインの専門家によって作成することができる。
推論結果がドメイン制約の検証チェックに合格した場合、推論結果はクライアント100に送信され、検証が失敗した場合、推論スーパーバイザ120は、代替結果生成部160を呼び出して、受け入れ可能な代替的な推論結果を生成する。
クライアント100が推論結果を受信すると、そのフィードバックをフィードバックプロセッサ102によって収集し、処理することができる。そして、この情報を使用して、ドメイン知識記憶部104内の知識を改善することができる。
いくつかの実施形態ではクライアント100がフィードバックを直接要求されてもよく、またはクライアント100のフィードバックが間接的に評価されてもよい。例えば、タクシー呼び出しアプリのユーザは、アプリを評価することで推論サービスにどれだけ満足しているかを直接問われることができるかもしれないし、これは、アプリをどれだけ頻繁に使用しているかによって間接的に測定することができるかもしれない。
クライアント100が機械学習推論システム210に推論要求を送信するとき、クライアント100は応答(推論結果)を得るまでにしばらく待たなければならないことがある。この実施形態では、SLA検証部122を使用して、この待機時間を特定の機械学習モデル140のSLAと照合する。待機時間が長すぎる場合、SLAの検証は失敗する。このような場合、クライアント100を無期限に待たせる代わりに、本実施形態では、推論スーパーバイザ120が代替結果生成部160を呼び出して、受け入れ可能な代替結果(推論結果)を生成する。
成功した推論結果、すなわち、推論スーパーバイザ120による検証チェックに合格した推論結果は、成功した推論要求および推論結果記憶部106に保存される。検証チェックは、機械学習推論システム210の信頼性を保証する。
代替結果生成部160は、成功した推論要求および推論結果を記憶部106から定期的にフェッチし、それらの特徴に基づいてこれらの結果のキャッシュクラスタ170を作成する。
クラスタリングの際には、全ての特徴が同じ重要度を有するわけではないので、本実施形態では重み付きクラスタリングを行う。例えば、タクシー呼び出しアプリにおける料金見積もりの場合、距離特徴は、要求のタイミングよりも重要であり得る。この特徴重要度情報は、例えば、機械学習モデルトレーニングシステム150から自動的かつ動的に取得される。特徴重要度情報は、特徴エントロピーまたは連続性などの情報を含む。
機械学習モデルトレーニングシステム150は、データ科学者が機械学習モデルを訓練し、いったん機械学習モデルが許容可能な性能品質を達成したら、それらを稼働する決定を下す機械学習推論システム210の一部である。機械学習モデル140は、稼働中の機械学習モデルである。この実施形態では、機械学習モデルを稼働すると、機械学習の特徴重要度情報が代替結果生成部160に送られるようにトリガされる。
代替結果生成部160は、代替結果に対する推論スーパーバイザ120からの推論要求を受信すると、キャッシュクラスタ170からその推論要求に対する最も近いクラスタを計算し、次いでその特定のクラスタから集約結果をフェッチし、これを受け入れ可能な代替要求として返す。タクシー呼び出しアプリの例では、集計結果がそのクラスタからの平均料金とすることができる。機械学習推論結果が分類結果である場合、集約結果は、そのクラスタからのモードとすることができる。これは、機械学習推論システムを常に動作させ続け、したがって、可用性を改善する。
図2は、実施形態に係る機械学習推論システム210の概略ハードウェア構成を示す図である。
図2に示されるサーバは、各種情報処理が可能な装置、一例としてコンピュータ等の情報処理装置である。情報処理装置は、演算素子(プロセッサ)、記憶媒体を有し、さらに、必要に応じて通信インタフェース、マウス、キーボード等の入力部、ディスプレイ等の画面部を有する。
演算素子は、例えばCPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)等である。記憶媒体は、例えばHDD(Hard Disk Drive)などの磁気記憶媒体、RAM(Random Access Memory)、ROM(Read Only Memory)、SSD(Solid State Drive)などの半導体記憶媒体等を有する。また、DVD(Digital Versatile Disk)等の光ディスク及び光ディスクドライブの組み合わせも記憶媒体として用いられる。その他、磁気テープメディアなどの公知の記憶媒体も記憶媒体として用いられる。
記憶媒体には、ファームウェアなどのプログラムが格納されている。サーバの動作開始時(例えば電源投入時)にファームウェア等のプログラムをこの記憶媒体から読み出して実行し、サーバの全体制御を行う。また、記憶媒体には、プログラム以外にも、サーバの各処理に必要なデータ等が格納されている。
なお、本実施例のサーバは、複数の情報処理装置が通信ネットワークを介して通信可能に構成された、いわゆるクラウドにより構成されてもよい。
クライアント機器200は、ネットワーク300を介して機械学習推論システム210に推論要求を送信するクライアントアプリケーションである。クライアント機器200は例えば、デスクトップコンピュータ、携帯電話、タブレット、またはコンピュータサーバなどの装置を含むことができる。ネットワーク300は例えば、公衆インターネットであっても、ローカルエリアネットワークであってもよい。
クライアント機器200は、ネットワーク300を介して推論スーパーバイザサーバ500にそれらの推論要求を送信する。推論スーパーバイザサーバ500は実際の物理サーバであってもよく、またはオンプレミスまたはクラウド上の異なるサーバ内の仮想マシンまたはコンテナとして実行されてもよい。
機械学習推論システム210は、仮想プライベートクラウド内でホストされ、クライアント機器200および公衆インターネットから論理的に分離され、ネットワーク300を介してクライアント機器200と対話するシステムであってもよい。この機械学習推論システム210内のコンポーネントは、信頼されたネットワークを介して、物理的または論理的に公開から分離して、メッセージを介して互いに通信する。
推論スーパーバイザサーバ500は推論要求を機械学習モデルサーバ220に転送し、機械学習モデルサーバ220では、実際に稼働中の機械学習モデルがホストされる。推論スーパーバイザサーバ500は、SLA検証プログラムおよびドメイン制約検証プログラムをホストする。推論スーパーバイザサーバ500は物理サーバであってもよいし、いくつかの仮想サーバであってもよく、または、いくつかの実施形態ではコンテナサービスとしてホストされてもよい
機械学習モデルサーバ220は稼働中の機械学習モデルをホストし、モデルが推論を計算するのに必要なメモリ、プロセッサなどのコンピューティングリソースを提供する。機械学習モデルサーバ220は物理サーバであってもよいし、いくつかの仮想サーバであってもよく、またはいくつかの実施形態ではコンテナサービスとしてホストされてもよい。機械学習モデルサーバ220は、推論結果を推論スーパーバイザサーバ500に送り返す。
機械学習モデルトレーニングサーバ230は、メモリ、プロセッサ等のような計算リソースと、データサイエンティストが機械学習モデルを訓練するために必要なプラットフォームとを提供する。機械学習モデルトレーニングサーバ230は物理サーバであってもよいし、サーバであってもよいし、いくつかの仮想サーバであってもよく、またはいくつかの実施形態ではコンテナサービスとしてホストされてもよい。機械学習モデルトレーニングサーバ230は、稼働の準備ができたモデルを機械学習モデルサーバ220にデプロイする。同時に、機械学習モデルトレーニングサーバ230は、本番環境にデプロイされた機械学習モデルの特徴に関する分析情報を代替結果生成サーバ800に送信する。
成功した推論要求および対応する推論結果はデータ記憶部204に格納される。データ記憶部204は機械学習推論システム210内の別個のストレージサーバとして実装されてもよく、または推論スーパーバイザサーバ500のストレージ内にローカルに実装されてもよく、またはネットワーク300などの信頼できるネットワークを介してアクセス可能な他の場所に実装されてもよい。
成功した推論要求および対応する推論結果を格納することに加えて、データ記憶部204は推論スーパーバイザサーバ500に必要とされるドメイン制約知識を格納することもできる。さらに、機械学習トレーニングデータなどの他の関連データを機械学習推論システム210内に格納することもできる。
また、本実施例では、クライアント機器200からのフィードバックを収集することができ、これはドメイン制約知識を更新するために使用することができる形式でフィードバック処理サーバ202によって処理される。
代替結果生成サーバ800は、データ記憶部204に記憶された成功した推論要求からの代替結果を生成するために必要な、メモリ、プロセッサ、キャッシュメモリ、記憶装置などの計算リソースを提供する。代替結果生成サーバ800は、物理サーバ、またはいくつかの仮想サーバであってもよく、またはコンテナサービスとしてホストされてもよい。代替結果生成サーバ800は機械学習モデルが本番環境にデプロイされる度に、機械学習モデルトレーニングサーバ230から特徴重要情報を取得する。
図3は、実施形態に係る機械学習推論システム210の推論スーパーバイザサーバ500の概略構成を示すブロック図である。
メモリ502は、RAMのようなコンピュータメモリであってもよい。メモリ502は、SLA検証プログラム600およびドメイン制約検証プログラム700を含むプログラムまたはコードをホストする。メモリ502には、SLA検証テーブル510およびドメイン制約テーブル512も含まれる。
推論スーパーバイザサーバ500は、プロセッサまたはプロセッサ群530A、530B、…、530Nを有する完全なコンピュータシステムである。メモリ502内のプログラムは、これらのプロセッサによって実行される。推論スーパーバイザサーバ500内のコンポーネントは、バス、I/Oインタフェース、ネットワークカードインタフェースなどのインタフェース520を介して通信する。推論スーパーバイザサーバ500は、また、プログラムおよびデータの永続的記憶のためのディスク記憶装置であり得る記憶媒体516を有する。
図4は、実施形態に係る機械学習推論システム210の代替結果生成サーバ800の概略構成を示すブロック図である。
メモリ802は、RAMのようなコンピュータメモリであってもよい。メモリ802は、代替結果生成プログラム1000、重み値計算プログラム2000およびキャッシュクラスタ作成プログラム3000を含むプログラムまたはコードをホストする。これらのプログラムは、後に詳細に説明される。
代替結果生成サーバ800は、プロセッサまたはプロセッサ群822A、822B、…、822Nを有する完全なコンピュータシステムである。メモリ802内のプログラムは、これらのプロセッサによって実行される。代替結果生成サーバ800内のコンポーネントは、バス、I/Oインタフェース、ネットワークカードインタフェースなどのインタフェース820を介して通信する。サーバはまた、キャッシュクラスタ842A、842B...842Nのための高速記憶アクセスを提供する記憶媒体840を有する。記憶媒体840は、キャッシュメモリまたはRAMなどの高速アクセスメモリによって実現することができる。キャッシュクラスタ842は、成功した推論要求および推論結果の対応するクラスタを記憶する。メモリ802は、推論結果テーブル810、特徴重み値テーブル812、およびキャッシュクラスタテーブル814を格納する。
図5は、実施形態に係る機械学習推論システム210のSLA検証テーブル510の一例を示す図である。
一般的に、機械学習推論システムにデプロイされる各モデルについて、機械学習モデルが推論結果を返すための最大許容遅延を指定するSLAが存在する。多くのアプローチでは、多くのシステムがSLAに違反しないように、垂直方向または水平方向にスケールアップを実施する。本実施形態では、SLAを超える場合、機械学習推論システム210はコストを節約することができる近似代替結果を単に返す。SLA検証テーブル510は、モデルの例とそのSLA時間(秒単位)を示している。例えば、タクシー呼び出しアプリの場合、SLAは機械学習モデル140が推論結果、すなわち、クライアントが支払うことが予想される料金を返すべき5秒以内であってもよい。
図6は、実施形態に係る機械学習推論システム210のドメイン制約テーブル512の一例を示す図である。
機械学習推論システム210にデプロイされた各モデルについて、その制約は、ドメイン制約テーブル512に格納される。タクシー呼び出しアプリの例では、返却された料金は否定されてはならない。最大値についても、他の制約を設定することができる。例えば、機械学習モデルModel003は、1,000の最小許容値および10,000の最大許容値を有する。ドメイン制約テーブル512には、ドメインに応じて、他の制約がある場合もある。
図7は、実施形態に係る機械学習推論システム210の推論結果テーブル810の一例を示す図である。
推論結果テーブル810内の情報は、成功した推論要求および推論結果記憶部106から得られる。推論結果テーブル810は、例えば、推論ID、特徴、メタデータ(オプション)および推論結果のためのフィールドを有する。キャッシュクラスタ作成プログラム3000は、キャッシュクラスタを作成する際にこのテーブルを利用する。
図8は、実施形態に係る機械学習推論システム210の特徴重み値テーブル812の一例を示す図である。
稼働中の各機械学習モデル140について、特徴および対応する重みが特徴重み値テーブル812に保存される。重み値計算プログラム2000は、機械学習モデルトレーニングシステム150から取得した特徴重要度情報に基づいて特徴重み値を算出する。キャッシュクラスタ作成プログラム3000は、特徴重み値テーブル812内の重み値を利用して、適切な重み付きクラスタリングアルゴリズムを使用してクラスタを作成する前に、推論結果テーブル810内の推論要求の特徴の重み値を計算する。その後、クラスタは適切なキャッシュクラスタ170に書き出され、キャッシュクラスタテーブル814が適切に更新される。
図9は、実施形態に係る機械学習推論システム210のキャッシュクラスタテーブル814の一例を示す図である。
成功した推論要求の各クラスタおよびキャッシュクラスタ170内の結果について、対応するクラスタ重心がキャッシュクラスタテーブル814に保存される。このキャッシュクラスタテーブル814は、特徴およびメタデータ(オプション)、ならびにクラスタIDを有する。このテーブルは、キャッシュクラスタ作成プログラム3000によって更新される。
代替結果生成プログラム1000は、代替結果の要求を受信すると、推論要求の重み付けされた特徴をキャッシュクラスタテーブル814内のクラスタ重心と比較して、最も近い重心IDを見つける。次に、キャッシュクラスタ170から適切なクラスタ内のすべての結果を読み取り、集約結果を計算して、この結果を返す。
図10は、実施形態に係る機械学習推論システム210の推論処理フロー400の一例を示すフローチャートである。
推論APIプログラム504は、クライアント100から推論要求を受信する(410)。推論要求は、メタデータを含むヘッダと、要求のフィーチャーベクトルおよび要求に対応する必要がある機械学習モデルIDを含む本文を持つHTTP要求に含まれる場合がある。
複数の機械学習モデルが存在する場合、推論APIプログラム504は、推論要求を適切な機械学習モデルAPI130にマッピングする。推論APIプログラム504はSLA検証プログラム600を呼び出し、推論要求および適切な機械学習モデルAPI130をパラメータとして渡す(420)。次に、SLA検証プログラム600は推論要求を機械学習モデルAPI130に非同期的に転送し、次に、SLAが違反されているか否かを確認するために待機し、SLA検証の結果を返す。ステップ420で行われるSLA検証処理フローの詳細については、図11を参照して後に詳述する。
結果チェックステップ430で、SLA検証の結果がチェックされる。真の場合、すなわち、SLA違反が検出されなかったときには、推論結果がステップ440において、ドメイン制約検証プログラム700に転送される。ステップ440で、ドメイン制約検証プログラム700は推論結果をドメイン制約で検証し、真または偽を返す。ドメイン制約検証処理フローの詳細については、図12を参照して後に詳述する。
結果チェックステップ450では、ドメイン制約検証プログラム700の結果がチェックされる。それが真であれば、制約違反が検出されなかったので、推論要求および推論結果は、成功した推論要求および推論結果 記憶部106に格納される。推論結果は、次いで、最終ステップ480において、クライアントに送り返される。
結果チェック430または450が偽である場合、代替結果生成プログラム1000が呼び出され(460)、許容可能な代替結果が生成される。代替結果生成処理フローの詳細については、図13を参照して後に詳述する。代替結果は、次いで、最終ステップ480において、クライアントに送り返される。代替結果生成プログラム1000によって送り返される推論結果は近似結果であり、実際の機械学習推論結果ではないことを示すいくつかのエラー情報と、推論要求を後で再試行するオプションとを含むことができる。さらに、この情報は検証失敗の原因、SLA検証失敗またはドメイン制約失敗のいずれかを含むことができ、さらに、違反された厳密な制約の方法など、より詳細を提供することができる。
(多すぎる)検証失敗があった場合、機械学習推論システム210の管理者にはこれらの失敗を修正するために適切なアクションをとることができるように、これらのエラーが通知される。そのようなアクションは、機械学習モデル140の再訓練、ドメイン知識記憶部104の更新などを含む。
図11は、実施形態に係る機械学習推論システム210のSLA検証処理フロー600の一例を示すフローチャートである。
SLA検証プログラム600はステップ610において推論要求およびモデルAPIを受信し、ステップ620において、SLA検証プログラム600は、この推論要求を適切な機械学習モデルAPI130に非同期的に転送する。ステップ630において、プログラムはSLA検証テーブル510からSLA_TIME(秒)値を取得し、この値をカウントダウン値として使用し、次のステップ640においてカウントダウンタイマーを開始する。
次に、SLA検証プログラム600は、機械学習モデル140からの推論結果を待つ。推論結果が到着する前にタイマーが切れた場合、SLA妥当性検査は失敗し(SLA違反が発生したことを意味する)、SLA検証プログラム600は妥当性検査のためにFALSEを戻し(660)、終了する。カウントダウンが終了する前に推論結果が返された場合、SLA検証は合格し、SLA検証プログラム600はTRUEを返し、推論結果も返して(670)終了する。
図12は、実施形態に係る機械学習推論システム210のドメイン制約検証処理フロー700の一例を示すフローチャートである。
ドメイン制約検証プログラム700は、ステップ710において、推論結果をチェックする要求を受信する。要求には、モデルIDと推論結果が含まれる。次のステップ720では、ドメイン制約検証プログラム700が、その特定のモデルIDに対するドメイン制約テーブル512から対応するドメイン制約(すなわち、MIN_ALLOWED_VALUE、MAX_ALLOWED_VALUEおよび他の制約)を読み出す。ステップ730において、ドメイン制約検証プログラム700は、推論結果を、ステップ720において検索されたドメイン制約に対してチェックする。ステップ740で、ドメイン制約検査のいずれかが失敗した場合(すなわち、ドメイン制約違反が発生した場合)、検証失敗があり、プログラムはFALSEを返して(760)終了する。すべてのドメイン制約チェックに合格すると、プログラムはTRUEを返して(750)終了する。
図13は、実施形態に係る機械学習推論システム210の代替結果生成処理フロー1000の一例を示すフローチャートである。
代替結果生成プログラム1000は、ステップ410と同様に、クライアント100によって最初に送信された推論要求をステップ1010で受信する。推論要求は、メタデータを含むヘッダと、要求のフィーチャーベクトルおよび要求に対応する必要がある機械学習モデルIDを含む本文を持つHTTP要求に含まれる場合がある。
オプションとして、ステップ1012において、代替結果生成プログラム1000は、要求を行ったブラウザ、要求が行われた時間など、HTTP要求ヘッダからメタデータを抽出する。アルゴリズムは密接に関連する推論要求を1つのクラスタにグループ化するので、この情報は履歴推論要求のクラスタを作成するときに有用であり得る。例えば、タクシー呼び出しアプリケーションでは、データポイントとしての場所や要求のタイミングのようなメタデータは、機械学習モデル140を生成するためにのみ考慮される情報である特徴からのデータポイントに加えて、より適切なクラスタを形成する際に有用である。
次のステップ1020は、推論要求から特徴ベクトルを抽出することである。特徴ベクトルは、特徴IDおよび特徴値を有するJSONファイル、またはキー値ペアを有する辞書の形態であってもよい。
ステップ1030において、代替結果生成プログラム1000はモデルIDおよび特徴IDに対応する特徴重み値(すなわち、重み値)を特徴重み値テーブル812から得る。
ステップ1040において、推論要求に含まれる全ての特徴に対する重み付け特徴量が計算される。
ステップ1050は類似性計算機であり、推論要求に対する重み付けされた特徴量は、キャッシュクラスタテーブル814内のクラスタ重心と比較されて、最も近い重心を見つける。この距離は、特徴データのタイプおよび領域のための適切な類似性計算アルゴリズムを使用して計算することができる。たとえば、特徴がストリングである場合、編集距離を使用して距離を決定できる。類似性尺度の別の例は、実数に対するユークリッド距離である。最も近いクラスタ重心が識別されると、対応するクラスタIDがキャッシュクラスタテーブル814から取得される。
ステップ1060は結果集約部であり、ステップ1050で得られたクラスタID内のクラスタ内のすべての推論結果を読み取り、次に集約結果を返す。値の予測の場合、総合結果は平均とすることができる。機械学習推論モデルが分類結果を返す場合、集約結果はキャッシュクラスタの多数決(モード)クラスとすることができる。
最後のステップ1070で、代替結果生成プログラム1000は集約結果を返し、終了する。
図14は、実施形態に係る機械学習推論システム210の重み値算出処理フロー2000の一例を示すフローチャートである。
重み値計算プログラム2000は、機械学習モデル140が機械学習モデルトレーニングシステム150によってデプロイされて稼働されるときにトリガされる。第1のステップ2010において、重み値計算プログラム2000はモデルIDと共に、機械学習モデルトレーニングシステム150による機械学習モデル140のデプロイメント成功の通知を受信する。
ステップ2020において、重み値計算プログラム2000は、機械学習モデルトレーニングシステム150から特徴重要度情報を取得する。そのような情報の例には、特徴エントロピー、特徴連続性、トレーニングフェーズ中に試され、テストされたアルゴリズムによって特徴がどのくらいの頻度で使用されるか等が含まれる。例えば、いくつかの特徴はトレーニング中にいくつかのアルゴリズムによって使用され、一方、いくつかの特徴は多くのアルゴリズムによってドロップされる。この情報はしばしば使用されるそのような特徴が機械学習モデルによってより重要であると考えられる可能性が高いことを意味し、したがって、そのような特徴は後に重み付けクラスタリングを実行するときにより大きな重みを有するべきである。特徴の連続性とは、対象となる結果に対して個々の特徴をプロットすると、連続したグラフが得られることである。ただし、特徴によっては明確な関連性はない。連続的な特徴は、重み付けクラスタリングにおいて、非連続的な特徴よりも有益であり得る。決定木アルゴリズムによって計算される特徴エントロピーのような他の特徴情報は、特徴の重みに影響を及ぼす際に直接重要である。
ステップ2030では、重み値計算プログラム2000が前のステップ2020で取得した特徴重要度情報から特徴重み値を算出する。特徴重み値は、特徴エントロピー、特徴連続性、およびトレーニングに使用されるアルゴリズムによって特徴がどのくらい頻繁に使用されるかといった、すべての特徴重要度情報の関数である。特徴重み値を計算するための正確な公式は、領域に応じて変わり得る。一例では、特徴が0.8(min 0、maximum 1)のエントロピー、0.6(min 0、maximum 1)の特徴連続性値、および試みられた4つのアルゴリズムのうちの3つにおける使用頻度、したがって0.75を有することができる。例示的な公式は3つすべての平均を使用することによってこの情報を組み合わせ、したがって、特徴の重みは(0.8+0.6+0.75)を3で割ることになる。他の例では、異なる特徴情報が特徴のそれぞれについて適切な重みをもたらすために、異なるように計算されてもよい。
ステップ2040において、特徴重み値テーブル812は、ステップ2030で計算された特徴重み値で更新され、重み値計算プログラム2000は終了する。
図15は、実施形態に係る機械学習推論システム210のキャッシュクラスタ作成処理フロー3000の一例を示すフローチャートである。キャッシュクラスタ作成プログラム3000は、キャッシュクラスタ170を定期的に更新するために使用される。
ステップ3010において、キャッシュクラスタ作成処理フロー3000は定期的に、成功した推論要求及び推論結果記憶部106から成功した推論要求および推論結果を取り出す。検索の頻度は、アプリケーションドメイン、推論要求の量、およびそれらがバッチ要求であるかストリーム要求であるかに依存する。例えば、大量のストリーム要求を処理するタクシー呼び出しアプリケーションである場合、キャッシュクラスタ作成プログラム3000は、時間単位で実行することができる。別の例では機械学習推論システム210が1日に1回発生するストック予測のためのバッチ要求を処理する場合、キャッシュクラスタ作成プログラム3000は1日に1回実行され得る。
次のステップ3010は任意に実行され、このステップでは、メタデータが記憶部106から抽出され、推論結果テーブル810に保存される。ステップ3020では、特徴および推論も推論結果テーブル810に保存される。
ステップ3040において、特徴に対応する重み値が特徴重み値テーブル812から得られる。
ステップ3050において、適切な重み付けクラスタリングアルゴリズムが選択され、重み付けされた特徴および任意選択でメタデータを使用して、推論結果テーブル810内に推論のクラスタを作成する。重み付きクラスタリングアルゴリズムの一例は、重み付きK平均法(K-means)アルゴリズムである。
所与のデータセットYについて、K平均は、クラスタS={S1,S2、...、SK}のばらばらの集合、ならびに各クラスタSk∈Sの重心ckを出力する。重心ckは、すべてのyi`Skまでの距離の最小合計を有するように設定され、ckを、しばしばプロトタイプと呼ばれるSkの良好な一般的表現にする。K平均は、エンティティ間のクラスタ内距離の合計yi∈Yとそれぞれの重心ck∈Cとを反復的に最小化することによって、所与のデータセットYを分割する。
Figure 0007475956000001
クラスタが作成され、各推論要求にクラスタが割り当てられると、ステップ3060で各推論要求が対応するキャッシュクラスタ170に書き出される。
ステップ3070で、クラスタ重心および対応するキャッシュクラスタIDの特徴でキャッシュクラスタテーブル814が更新され、キャッシュクラスタ作成プログラム3000が終了する。
従って、本実施例によれば、信頼性及び可用性を改善することが可能な推論方法、機械学習推論システム及びコンピュータプログラムを実現することができる。
なお、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラムまたはスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段またはCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
100…クライアント、102…フィードバックプロセッサ、104…ドメイン知識記憶部、106…記憶部、120…推論スーパーバイザ、122…SLA検証部、124…ドメイン制約検証部、140…機械学習モデル、150…機械学習モデルトレーニングシステム、160…代替結果生成部、170…キャッシュクラスタ、200…クライアント機器、202…フィードバック処理サーバ、204…データ記憶部、210…機械学習推論システム、220…機械学習モデルサーバ、230…機械学習モデルトレーニングサーバ、500…推論スーパーバイザサーバ、510…SLA検証テーブル、512…ドメイン制約テーブル、600…SLA検証プログラム、700…ドメイン制約検証プログラム、800…代替結果生成サーバ、810…推論結果テーブル、812…特徴重み値テーブル、814…キャッシュクラスタテーブル、842…キャッシュクラスタ、1000…代替結果生成プログラム、2000…重み値計算プログラム、3000…キャッシュクラスタ作成プログラム

Claims (7)

  1. プロセッサ及びメモリを有する機械学習推論システムにより実施される推論方法であって、
    前記プロセッサは、
    クライアント装置から推論要求を受け入れ、
    前記推論要求を機械学習モデルに提示してこの機械学習モデルから推論結果を受け入れ、
    前記推論結果を検証し、前記検証の結果が肯定的であれば前記推論結果を前記クライアント装置に提示し、前記検証の結果が否定的であれば、キャッシュされかつ既に検証された前記推論要求と前記推論結果との組から少なくとも一つの代替的な前記推論結果を前記クライアント装置に提示し、
    前記代替的な前記推論結果を提示するときに、
    機械学習トレーニングシステムから、前記機械学習モデルによる推論処理の際に用いられるそれぞれの特徴の特徴重要度情報を検索し、
    キャッシュされかつ既に検証された前記推論要求と前記推論結果との組を生成する際に用いられた前記特徴の重み付け値を算出し、
    前記特徴の前記重み付け値に基づいて、前記クライアント装置から受け入れた前記推論要求に含まれる前記特徴とキャッシュされた前記推論要求に含まれる前記特徴との類似度を算出し、
    前記類似度に基づいて、前記クライアント装置から受け入れた前記推論要求に最も類似するキャッシュされた前記推論要求を決定し、
    キャッシュされた前記推論要求と前記推論結果との複数の組から、前記最も類似する前記推論要求に対応する前記代替的な前記推論結果を決定する
    推論方法。
  2. 前記類似度の算出は、キャッシュされた前記推論結果のクラスタを生成することで、前記特徴の前記重み付け値を用いて前記キャッシュされた前記推論要求の前記特徴を重み付けクラスタリングすることにより行うことを特徴とする請求項1に記載の推論方法。
  3. 前記重み付けクラスタリングは、
    前記推論要求からメタデータを抽出し、
    クラスタリングアルゴリズムに含まれるデータ点の前記メタデータと前記クラスタリングアルゴリズムにより前記データ点として用いられている重み付けされた前記特徴とを用いて前記推論要求の重み付けクラスタリングを行う
    ことを特徴とする請求項2に記載の推論方法。
  4. 前記代替的な前記推論結果を前記クライアント装置に提示する際に適切なエラーメッセージを返信し、
    前記代替的な前記推論結果には、この代替的な前記推論結果は近似的結果であり実際の前記機械学習モデルによる結果でないという前記エラーメッセージと、後に推論要求を再試行するオプションとが含まれ、
    さらに、前記エラーメッセージには、前記検証が否定的である理由が含まれ、
    前記検証が否定的であるときは前記検証が否定的になったことを是正できるように通知を行う
    ことを特徴とする請求項1に記載の推論方法。
  5. 前記推論要求を行った前記クライアント装置から、直接的または間接的に、前記クライアント装置が前記推論結果に満足しているとの評価と、前記推論結果を得るまでの時間に満足していることを含むフィードバックを受け入れ、
    前記フィードバックを、最適なサービス品質保証(Service Level Agreement)を得るために要約統計量(Summary Statistics)を用いて算出し、
    前記フィードバックを、ドメインに対する最適な許容結果を見つけるために解析し、
    そして、算出・解析された前記フィードバックを、前記推論結果を検証するために前記ドメインの制約及び前記サービス品質保証を更新するために用いる
    ことを特徴とする請求項1に記載の推論方法。
  6. プロセッサ及びメモリを有する機械学習推論システムであって、
    前記プロセッサは、
    クライアント装置から推論要求を受け入れ、
    前記推論要求を機械学習モデルに提示してこの機械学習モデルから推論結果を受け入れ、
    前記推論結果を検証し、前記検証の結果が肯定的であれば前記推論結果を前記クライアント装置に提示し、前記検証の結果が否定的であれば、キャッシュされかつ既に検証された前記推論要求と前記推論結果との組から少なくとも一つの代替的な前記推論結果を前記クライアント装置に提示し、
    前記代替的な前記推論結果を提示するときに、
    機械学習トレーニングシステムから、前記機械学習モデルによる推論処理の際に用いられるそれぞれの特徴の特徴重要度情報を検索し、
    キャッシュされかつ既に検証された前記推論要求と前記推論結果との組を生成する際に用いられた前記特徴の重み付け値を算出し、
    前記特徴の前記重み付け値に基づいて、前記クライアント装置から受け入れた前記推論要求に含まれる前記特徴とキャッシュされた前記推論要求に含まれる前記特徴との類似度を算出し、
    前記類似度に基づいて、前記クライアント装置から受け入れた前記推論要求に最も類似するキャッシュされた前記推論要求を決定し、
    キャッシュされた前記推論要求と前記推論結果との複数の組から、前記最も類似する前記推論要求に対応する前記代替的な前記推論結果を決定する
    機械学習推論システム。
  7. プロセッサ及びメモリを有するコンピュータにより実行されるコンピュータプログラムであって、
    前記コンピュータプログラムは、前記コンピュータに、
    クライアント装置から推論要求を受け入れさせ、
    前記推論要求を機械学習モデルに提示してこの機械学習モデルから推論結果を受け入れさせ、
    前記推論結果を検証し、前記検証の結果が肯定的であれば前記推論結果を前記クライアント装置に提示させ、前記検証の結果が否定的であれば、キャッシュされかつ既に検証された前記推論要求と前記推論結果との組から少なくとも一つの代替的な前記推論結果を前記クライアント装置に提示させ、
    前記代替的な前記推論結果を提示させるときに、
    機械学習トレーニングシステムから、前記機械学習モデルによる推論処理の際に用いられるそれぞれの特徴の特徴重要度情報を検索させ、
    キャッシュされかつ既に検証された前記推論要求と前記推論結果との組を生成する際に用いられた前記特徴の重み付け値を算出させ、
    前記特徴の前記重み付け値に基づいて、前記クライアント装置から受け入れた前記推論要求に含まれる前記特徴とキャッシュされた前記推論要求に含まれる前記特徴との類似度を算出させ、
    前記類似度に基づいて、前記クライアント装置から受け入れた前記推論要求に最も類似するキャッシュされた前記推論要求を決定させ、
    キャッシュされた前記推論要求と前記推論結果との複数の組から、前記最も類似する前記推論要求に対応する前記代替的な前記推論結果を決定させる
    コンピュータプログラム。
JP2020085252A 2020-05-14 2020-05-14 推論方法、機械学習推論システム及びコンピュータプログラム Active JP7475956B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020085252A JP7475956B2 (ja) 2020-05-14 2020-05-14 推論方法、機械学習推論システム及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085252A JP7475956B2 (ja) 2020-05-14 2020-05-14 推論方法、機械学習推論システム及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021179840A JP2021179840A (ja) 2021-11-18
JP7475956B2 true JP7475956B2 (ja) 2024-04-30

Family

ID=78511541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020085252A Active JP7475956B2 (ja) 2020-05-14 2020-05-14 推論方法、機械学習推論システム及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7475956B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142868A (ja) 1999-11-12 2001-05-25 Fuji Electric Co Ltd ニューラルネットワークの出力値の評価装置、評価方法及び記憶媒体
JP2011517494A (ja) 2008-03-19 2011-06-09 アップルシード ネットワークス インコーポレイテッド 行動パターンを検出する方法及び装置
JP2016103243A (ja) 2014-11-28 2016-06-02 キヤノン株式会社 予測装置、予測方法、及びプログラム
JP2020071493A (ja) 2018-10-29 2020-05-07 株式会社神戸製鋼所 結果予測装置、結果予測方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142868A (ja) 1999-11-12 2001-05-25 Fuji Electric Co Ltd ニューラルネットワークの出力値の評価装置、評価方法及び記憶媒体
JP2011517494A (ja) 2008-03-19 2011-06-09 アップルシード ネットワークス インコーポレイテッド 行動パターンを検出する方法及び装置
JP2016103243A (ja) 2014-11-28 2016-06-02 キヤノン株式会社 予測装置、予測方法、及びプログラム
JP2020071493A (ja) 2018-10-29 2020-05-07 株式会社神戸製鋼所 結果予測装置、結果予測方法、及びプログラム

Also Published As

Publication number Publication date
JP2021179840A (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
CN116057510B (zh) 用于异常检测的系统、设备和方法
US10599506B2 (en) Methods and systems for identifying action for responding to anomaly in cloud computing system
US10902207B2 (en) Identifying application software performance problems using automated content-based semantic monitoring
US10491697B2 (en) System and method for bot detection
US20210097343A1 (en) Method and apparatus for managing artificial intelligence systems
US10216622B2 (en) Diagnostic analysis and symptom matching
US10963808B1 (en) Predicting event outcomes using clickstream data
US20210150631A1 (en) Machine learning approach to automatically disambiguate ambiguous electronic transaction labels
CN110798467A (zh) 目标对象识别方法、装置、计算机设备及存储介质
WO2022018538A1 (en) Identifying source datasets that fit transfer learning process for target domain
US20220237232A1 (en) Conversation based data analysis recommendations
KR20220143766A (ko) 데이터 품질 문제들의 동적 발견 및 수정
US11651041B2 (en) Method and system for storing a plurality of documents
US20230205618A1 (en) Performing root cause analysis on data center incidents
JP7475956B2 (ja) 推論方法、機械学習推論システム及びコンピュータプログラム
US20220300822A1 (en) Forgetting data samples from pretrained neural network models
US9818066B1 (en) Automated development and utilization of machine-learning generated classifiers
US11212162B2 (en) Bayesian-based event grouping
US20230259631A1 (en) Detecting synthetic user accounts using synthetic patterns learned via machine learning
US12014142B2 (en) Machine learning for training NLP agent
US11620473B1 (en) Pre-processing raw data in user networks to create training data for service provider networks
US20210334678A1 (en) Framework for measuring telemetry data variability for confidence evaluation of a machine learning estimator
WO2021181605A1 (ja) 機械学習モデル決定システム及び機械学習モデル決定方法
US20230214750A1 (en) Generating a mitigation workflow for mitigating a technical issue of a computing service using historical mitigation workflows
WO2022206197A1 (en) Training and scoring for large number of performance models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230306

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7475956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150