JP2023553676A - Delivering explainable machine learning model results using a distributed ledger - Google Patents

Delivering explainable machine learning model results using a distributed ledger Download PDF

Info

Publication number
JP2023553676A
JP2023553676A JP2023536415A JP2023536415A JP2023553676A JP 2023553676 A JP2023553676 A JP 2023553676A JP 2023536415 A JP2023536415 A JP 2023536415A JP 2023536415 A JP2023536415 A JP 2023536415A JP 2023553676 A JP2023553676 A JP 2023553676A
Authority
JP
Japan
Prior art keywords
model
program instructions
computer
input data
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023536415A
Other languages
Japanese (ja)
Inventor
シュクツェパニク、グルズゴーツ、ピオトル
パルス、ルーカス、ヤコブ
エス パテル、クーシャル
エス パテル、サーベシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2023553676A publication Critical patent/JP2023553676A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/50Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2474Sequence data queries, e.g. querying versioned data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/12Applying verification of the received information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3236Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions

Abstract

機械学習(ML)モデルのための入力データを受信することと、MLモデルを使用して入力データを処理し、初期結果を生じることと、第1のブロックを分散台帳に追加することであって、ブロックが、入力データ、初期結果、MLモデル・データ構造、およびMLモデルのための訓練データへのリンクを含み、訓練データが先行分散台帳ブロックに存在する、追加することと、初期結果を含む出力を提供することとによって、再現可能な機械学習モデル結果を提供すること。receiving input data for a machine learning (ML) model; processing the input data using the ML model to produce an initial result; and adding a first block to a distributed ledger. , the block includes input data, an initial result, an ML model data structure, and a link to training data for the ML model, the training data is present in the preceding distributed ledger block, and includes the initial result. Providing reproducible machine learning model results by providing output.

Description

本開示は、一般的に説明可能な機械学習モデル結果を提供することに関する。本開示は特に、機械学習モデルの成熟に伴う説明可能な機械学習モデル結果を提供することに関する。 The present disclosure generally relates to providing explainable machine learning model results. The present disclosure particularly relates to providing explainable machine learning model results as the machine learning model matures.

機械は高知能になっている。これらの機械は、スマートなやり方で、無形インターフェース(自然言語で人間とコミュニケーションを取ることができるコグニティブなデバイス)を通じて人間にサービスするだけではなく、有形インターフェース(ロボットまたは他の有形インターフェース)を通じても、人間にサービスする。コグニティブなインターフェースは、機械知能を持っており、入力データを処理する能力を有し、他のデバイスと通信するより好適な処理のためのリソースから追加的な情報を得ることもできる。 Machines are becoming highly intelligent. In a smart way, these machines not only serve humans through intangible interfaces (cognitive devices that can communicate with humans in natural language), but also through tangible interfaces (robots or other tangible interfaces). serve humans. Cognitive interfaces have machine intelligence, have the ability to process input data, and can also obtain additional information from resources for better processing by communicating with other devices.

深層学習および遺伝的アルゴリズムなどの現代の複雑な人工知能(AI)技術は、性質として不透明である。AIシステムは、訓練コーパスに積極的に依存してそこから学習し、より自然なやり方で判断する。この絶え間ない学習は、より関連性のある学習および履歴に基づいて、AIシステムのパフォーマンスを日々改善する。時には、機械学習(ML)モデルの複雑さに起因して、AIシステムは望ましくない分類パスウェイを学習する。これらの望ましくない分類パスウェイは、AI結果の解釈可能性問題を招く。 Modern complex artificial intelligence (AI) techniques, such as deep learning and genetic algorithms, are opaque in nature. AI systems actively rely on the training corpus to learn from it and make decisions in a more natural manner. This constant learning improves the performance of the AI system daily based on more relevant learning and history. Sometimes, due to the complexity of machine learning (ML) models, AI systems learn undesirable classification pathways. These undesirable classification pathways lead to interpretability problems of AI results.

ブラック・ボックスタイプのMLモデルでは、AIが特定の決定に到達した理由を、ステークホルダは説明することができない。したがって、AIシステムによって生成された情報および結果を正当化するデータは、ほとんどない。説明可能なAI(XAI:Explainable AI)とは、モデルの結果を説明することができ、人間のエキスパートによって理解され得るような、人工知能技術(AI)の応用における方法および技術を称する。XAIは、MLモデル結果の説明可能性および解釈可能性を与える。XAIモデルは、多くのメタデータを生成して手作業で検証可能な必要な説明およびエビデンスを提供し、エンド・ユーザにMLモデル結果に望ましい信頼レベルを与える。XAIは、各入力要素がモデル予測の最終結果にどれだけ寄与したかを説明するスコアを与える。これは「Safe AI」の概念をサポートするもので、それにより、人間はAIのMLモデルの内部で何が決定されているかを知ることができる。そのような説明を与えないMLモデルは、事業に致命的な決定には適用できない場合がある。 In a black box type ML model, stakeholders cannot explain why the AI reached a particular decision. Therefore, there is little data to justify the information and results produced by AI systems. Explainable AI (XAI) refers to methods and techniques in the application of artificial intelligence techniques (AI) in which the results of a model can be explained and understood by human experts. XAI provides explainability and interpretability of ML model results. XAI models generate a lot of metadata to provide the necessary explanations and evidence that can be manually verified, giving end users a desired level of confidence in the ML model results. XAI gives a score that describes how much each input element contributed to the final result of the model prediction. This supports the concept of ``Safe AI,'' which allows humans to know what is being decided inside the AI's ML model. ML models that do not provide such explanations may not be applicable to business-critical decisions.

典型的なMLモデルでは、出力または出力のセットを生成する主要なコントリビュータは、モデルを訓練するために使用されるコーパスである。モデルがデータを処理すると、モデルは結果を生成して、結果に関連付けられたメタデータ・マッパ・オブジェクトを訓練コーパスに付加する。これらのメタデータ・マッパ・オブジェクトは、出力の第1のセットの生成中に導出された情報を含む。MLモデルが多くを学習するにつれ、現在および以前のランの副生成物として生成された訓練コーパスへのメタデータのバックフィルにより、MLモデルはさらに成熟する。 In a typical ML model, the primary contributor that produces an output or set of outputs is the corpus used to train the model. As the model processes the data, it generates results and appends metadata mapper objects associated with the results to the training corpus. These metadata mapper objects contain information derived during generation of the first set of outputs. As the ML model learns more, it becomes more mature due to the backfilling of metadata into the training corpus that was generated as a byproduct of current and previous runs.

MLモデルが日々成熟することは、MLモデルの進化するインデックスを使用して導出されたMLモデルによって生成される出力に影響を及ぼす。結果として、MLモデルの成熟に基づいて、同一セットの入力データが、異なる時点では異なる出力を生成する可能性がある。さらには、成熟するモデルにおける変化のため、一定期間の後、MLモデルからの出力を遡って検証または説明する手段がない場合がある。 The daily maturation of the ML model affects the output produced by the ML model derived using the ML model's evolving index. As a result, the same set of input data may produce different outputs at different times, based on the maturation of the ML model. Furthermore, due to changes in the maturing model, there may be no means to retrospectively verify or explain the output from the ML model after a period of time.

例として、いったんMLモデルが成熟してその状態が変わってしまうと、そのモデルからの以前の結果がどのように差別禁止規定を満たしているかを、検証して説明することができるメカニズムは存在しない。MLモデルの動的な状態は、モデルの訓練コーパスの進化に基づいて変化する。したがって、MLモデル決定が適切なやり方で保存されない場合、時間が経過してしまうと、その決定を監査する術が存在しない。さらには、かなりの時間が経つと、多重検証を行うことができる方法が存在しない。試験検証証拠の一部としてMLモデルの中間的な結果を保存するメカニズムはあるが、共通の訓練コーパスを使用する複数のMLモデルが存在し、この複数のMLモデルがそれぞれ複数の中間結果データを生成する場合には、モデル結果および訓練コーパス・セットのサイズは管理不可能となる。 For example, once an ML model matures and its state changes, there is no mechanism that can verify and explain how previous results from that model satisfy anti-discrimination provisions. . The dynamic state of an ML model changes based on the evolution of the model's training corpus. Therefore, if ML model decisions are not saved in a proper manner, there is no way to audit them over time. Furthermore, there is no method that can perform multiple validations over a significant period of time. Although there are mechanisms to store intermediate results of ML models as part of test validation evidence, there are multiple ML models that use a common training corpus, and each ML model stores multiple intermediate result data. In this case, the size of the model results and training corpus set becomes unmanageable.

本開示の1つまたは複数の実施形態の基本的な理解を与えるための概要を、以下に提示する。この概要は、主要もしくは重要な要素を特定すること、または特定の実施形態のいかなる範囲もしくは特許請求のいかなる範囲をも詳述することを意図されていない。その唯一の目的は、後に提示されるより詳細な説明への導入部として簡素化された形式で概念を提示することである。本明細書において説明される1つまたは複数の実施形態では、デバイス、システム、コンピュータ実装方法、装置、またはコンピュータ・プログラム製品あるいはその組合せによって、説明可能で再現可能な機械学習モデル結果を提供することが可能となる。 A summary is presented below to provide a basic understanding of one or more embodiments of the disclosure. This summary is not intended to identify key or critical elements or to delineate any scope of particular embodiments or the claims. Its sole purpose is to present concepts in a simplified form as a prelude to the more detailed description that is presented later. In one or more embodiments described herein, a device, system, computer-implemented method, apparatus, and/or computer program product provides explainable and reproducible machine learning model results. becomes possible.

本発明の態様は、機械学習モデルのための入力データを受信することと、機械学習モデルを使用して入力データを処理し、初期結果を生じることと、第1のブロックを分散台帳に追加することであって、ブロックが、入力データ、初期結果、MLモデル・データ構造、およびMLモデルのための訓練データへのリンクを含み、訓練データが先行分散台帳ブロックに存在する、追加することと、初期結果を含む出力を提供することとによって、再現可能な機械学習モデル結果を提供することに関連付けられた、方法、システム、およびコンピュータ可読媒体を開示する。この方法は、MLモデル変革の分散した不変な追跡を提供し、過去のMLモデル結果の監査および検証を可能にする。 Aspects of the invention include receiving input data for a machine learning model, processing the input data using the machine learning model to produce an initial result, and adding a first block to a distributed ledger. adding, the block includes input data, an initial result, an ML model data structure, and a link to training data for the ML model, the training data being present in a previous distributed ledger block; Disclosed are methods, systems, and computer-readable media associated with providing reproducible machine learning model results by providing output that includes initial results. This method provides distributed and immutable tracking of ML model transformations and allows auditing and validation of past ML model results.

本発明の態様は、機械学習モデルのための入力データを受信することと、機械学習モデルを使用して入力データを処理し、初期結果を生じることと、第1のブロックを分散台帳に追加することであって、ブロックが、入力データ、初期結果、MLモデル・データ構造、およびMLモデルのための訓練データへのリンクを含み、訓練データが先行分散台帳ブロックに存在する、追加することと、入力データに関する結果検証要求を受信することと、入力データおよびMLモデル・データ構造を第1のブロックから検索することと、MLモデル・データ構造を使用して入力データを処理し、検証結果を生じることと、初期結果および検証結果を含む出力を提供することとによって、再現可能な機械学習モデル結果を提供することに関連付けられた、方法、システム、およびコンピュータ可読媒体を開示する。この方法は、MLモデル変革の分散した不変な追跡を提供し、過去のMLモデル結果の監査および検証を可能にする。 Aspects of the invention include receiving input data for a machine learning model, processing the input data using the machine learning model to produce an initial result, and adding a first block to a distributed ledger. adding, the block includes input data, an initial result, an ML model data structure, and a link to training data for the ML model, the training data being present in a previous distributed ledger block; receiving a result validation request for input data; retrieving the input data and an ML model data structure from the first block; and processing the input data using the ML model data structure to produce a validation result. Disclosed are methods, systems, and computer-readable media associated with providing reproducible machine learning model results by providing output that includes initial results and validation results. This method provides distributed and immutable tracking of ML model transformations and allows auditing and validation of past ML model results.

本発明の態様は、機械学習モデルのための入力データを受信することと、機械学習モデルを使用して入力データを処理し、初期結果を生じることと、初期結果に関連付けられたMLモデル説明を判定することと、第1のブロックを分散台帳に追加することであって、ブロックが、入力データ、初期結果、MLモデル説明、MLモデル・データ構造、およびMLモデルのための訓練データへのリンクを含み、訓練データが先行分散台帳ブロックに存在する、追加することと、初期結果およびMLモデル説明を含む出力を提供することとによって、再現可能な機械学習モデル結果を提供することに関連付けられた、方法、システム、およびコンピュータ可読媒体を開示する。この方法は、MLモデル変革の分散した不変な追跡を提供し、過去のMLモデル結果の説明、監査および検証を可能にする。 Aspects of the invention include receiving input data for a machine learning model, processing the input data using the machine learning model to produce an initial result, and generating an ML model description associated with the initial result. determining and adding a first block to the distributed ledger, the block including input data, initial results, an ML model description, an ML model data structure, and a link to training data for the ML model; associated with providing reproducible machine learning model results by appending the training data present in the preceding distributed ledger block and providing an output that includes the initial results and the ML model description. , methods, systems, and computer-readable media are disclosed. This method provides distributed and immutable tracking of ML model transformations and allows for explanation, auditing, and validation of past ML model results.

本発明の態様は、機械学習モデルのための入力データを受信することと、機械学習モデルを使用して入力データを処理し、初期結果を生じることと、第1のブロックを分散台帳に追加することであって、ブロックが、入力データ、初期結果、MLモデル・データ構造、およびMLモデルのための訓練データへのリンクを含み、訓練データが先行分散台帳ブロックに存在する、追加することと、初期結果を含む出力を提供することと、入力データおよび結果を使用してMLモデルを更新することと、新規MLモデル・バージョンを生じることと、第2のブロックを分散台帳に追加することであって、第2のブロックが、新規MLモデル・バージョンに関連付けられたラベル、入力データ、初期結果、MLモデル・データ構造、および先行バージョンMLモデルのための訓練データへのリンクを含む、追加することとによって、再現可能な機械学習モデル結果を提供することに関連付けられた、方法、システム、およびコンピュータ可読媒体を開示する。この方法は、MLモデル変革の分散した不変な追跡を提供し、過去のMLモデル結果の監査および検証を可能にする。 Aspects of the invention include receiving input data for a machine learning model, processing the input data using the machine learning model to produce an initial result, and adding a first block to a distributed ledger. adding, the block includes input data, an initial result, an ML model data structure, and a link to training data for the ML model, the training data being present in a previous distributed ledger block; providing an output containing the initial results; updating the ML model using the input data and results; generating a new ML model version; and adding a second block to the distributed ledger. and adding a second block containing labels associated with the new ML model version, input data, initial results, ML model data structure, and a link to training data for the previous version ML model. Discloses methods, systems, and computer-readable media associated with providing reproducible machine learning model results. This method provides distributed and immutable tracking of ML model transformations and allows auditing and validation of past ML model results.

添付の図面における本開示の一部の実施形態のさらに詳細な説明を通じて、本開示の上記および他の目的、特徴、および利点が、より明らかとなろう。本開示の実施形態では、同一の符号は一般的に同一のコンポーネントを指す。 These and other objects, features, and advantages of the present disclosure will become more apparent through a more detailed description of some embodiments of the present disclosure in the accompanying drawings. In embodiments of the present disclosure, like numbers generally refer to like components.

本発明の実施形態による、コンピューティング環境の概略図である。1 is a schematic diagram of a computing environment, according to an embodiment of the invention; FIG. 本発明の実施形態による、動作可能なシーケンスを描いたフローチャートである。2 is a flowchart depicting an operable sequence according to an embodiment of the invention. 本発明の実施形態による、データ・フローの概略図である。2 is a schematic diagram of data flow according to an embodiment of the invention; FIG. 本発明の実施形態による、クラウド・コンピューティング環境の図である。1 is a diagram of a cloud computing environment, according to an embodiment of the invention. FIG. 本発明の実施形態による、抽象的なモデル・レイヤの図である。FIG. 2 is a diagram of abstract model layers, according to an embodiment of the invention.

本開示の実施形態が図示された添付の図面を参照して、いくつかの実施形態を、より詳細に説明する。しかしながら、本開示は様々な様式で実装することが可能であり、したがって本明細書において開示される実施形態に限定されるものと解釈されてはならない。 Some embodiments will now be described in more detail with reference to the accompanying drawings, in which embodiments of the disclosure are illustrated. However, this disclosure may be implemented in a variety of ways and therefore should not be construed as limited to the embodiments disclosed herein.

開示される実施形態は、機械学習モデル結果の説明可能性および再現性の問題に対処する。実施形態は、モデルの以前の実装中に作られた結果の再生成を可能にし、時間ベースのMLモデル出力を検証するメカニズムを提供する。開示される実施形態は、中間コンポーネントの1つとしてブロックチェーン台帳を含む。MLモデルに関連付けられた静的および動的なコンピューティング・プラットフォームなどの様々なエンティティから入力データを受信した後、開示される実施形態は、ブロックチェーン台帳上にブロックを作成し、台帳内の既存のブロックとの適当なリンクを生成する。開示される実施形態は、ブロックチェーン台帳に支援されるプロデューサ-消費者アーキテクチャを含み、この場合、MLモデル計算に関与するエンティティがブロックチェーン・ステークホルダである。 The disclosed embodiments address issues of explainability and reproducibility of machine learning model results. Embodiments enable regeneration of results produced during previous implementations of the model and provide a mechanism to validate time-based ML model output. The disclosed embodiments include a blockchain ledger as one of the intermediate components. After receiving input data from various entities, such as static and dynamic computing platforms associated with the ML model, disclosed embodiments create blocks on the blockchain ledger and update existing blocks in the ledger. Generate appropriate links with blocks. The disclosed embodiments include a blockchain ledger-backed producer-consumer architecture, where the entities involved in ML model computation are blockchain stakeholders.

問題および入力情報の所与のセットについて、MLモデル出力を計算する時点では、実装におけるプロデューサ・エンジンは分散台帳上にブロックを作成し、MLモデルをPRODUCTION信号で更新する。これに応答して、MLモデル中の実装された消費者デーモン・メカニズムは、関連付けられた訓練コーパス・データ、または以前のMLモデル・バージョンおよびノード重み付けを台帳から収集し、訓練されたMLモデルが入力データに適用される。消費者は、計算に関与する個々のステークホルダを明確に理解している。台帳およびMLモデルに関連付けられた消費者デーモンは、中間結果を台帳に書き込む。多くのMLモデルは、複数の中間データ構造が生成され台帳にポストされるパス指向アーキテクチャを実装する。 At the time of computing the ML model output for a given set of problem and input information, the producer engine in the implementation creates blocks on the distributed ledger and updates the ML model with PRODUCTION signals. In response, the implemented consumer daemon mechanism in the ML model collects the associated training corpus data or previous ML model versions and node weights from the ledger so that the trained ML model Applied to input data. Consumers have a clear understanding of the individual stakeholders involved in the calculation. A consumer daemon associated with the ledger and ML model writes intermediate results to the ledger. Many ML models implement a path-oriented architecture in which multiple intermediate data structures are generated and posted to a ledger.

実施形態では、MLモデルは、中間結果のために台帳アーキテクチャ上にブロックを作成し、すべての関与者-ステークホルダをタグ付けし、現在のMLバージョンに関連付けられたデータおよび現在の入力に関連付けられた出力を保存する。入力されたステークホルダ・データは、消費者処理のために台帳に直接書き込まれるが、訓練コーパス・データは、MLモデルの以前のランの間に作成された既存のブロックから収集される。訓練コーパスからフェッチする間、MLモデルはフラグまたはデータ場所リンク(タグ付けデータ)を、実際の訓練コーパス・データセットとともに収集する。開示される実施形態は、新規MLモデル・バージョンのデータ構造を作成し、MLモデル履歴が更新されつつオブジェクト内の古いリンクは保持される。この古い訓練コーパスのタグ付けへのリンクの保持は、タグ付けコーパスへの逆方向トレーサビリティを与え、必要であれば、または要求された場合に、MLモデルの再作成を可能にする。 In embodiments, the ML model creates blocks on the ledger architecture for intermediate results, tags all participants - stakeholders, and creates blocks with data associated with the current ML version and the current input. Save the output. Input stakeholder data is written directly to the ledger for consumer processing, while training corpus data is collected from existing blocks created during previous runs of the ML model. While fetching from the training corpus, the ML model collects flags or data location links (tagging data) along with the actual training corpus dataset. The disclosed embodiments create a data structure for new ML model versions, and old links within objects are preserved while the ML model history is updated. Retaining a link to this old training corpus tagging provides backward traceability to the tagging corpus and allows for re-creation of the ML model if needed or requested.

成熟インデックスが変わった後にMLモデルが検証される必要があれば、開示される実施形態は、MLモデルの消費者インスタンスにおいてコグニティブ・システムの再現性をアクティブにする再現性の特殊なFLAGを利用する。MLモデルにおける消費者デーモンは、台帳上でタグ付けされた訓練コーパス・データを選択し、それにしたがって関連付けられた時間ベースのステークホルダ入力データを探索する。この入力データが収集されてしまうと、開示される実施形態は、データ構造をタグ付けする台帳を探索し、以前のランの実行の時間に基づいてリンクをトレースすることによって、訓練コーパスをフェッチする。消費者/ユーザおよびプロデューサのデーモンとは、開示される方法のユーティリティ・プログラム部分を称する。これらのユーティリティ・プログラム部分は、それぞれ消費者/ユーザおよびプロデューサのために、開示される方法アクティビティを遂行する。そのようなステップは、入力および出力に関連付けられた台帳エントリを生成/署名することと、関連台帳エントリを含むブロックを生成/署名することと、出力検証を要求することと、検証/監査を遂行するために必要なMLモデル・コンポーネントを検索および利用することとを含む。 If the ML model needs to be validated after the maturity index changes, the disclosed embodiments utilize a reproducibility special FLAG that activates the reproducibility of the cognitive system in the consumer instance of the ML model. . The consumer daemon in the ML model selects training corpus data tagged on the ledger and searches for associated time-based stakeholder input data accordingly. Once this input data has been collected, the disclosed embodiments fetch the training corpus by exploring a ledger tagging data structure and tracing links based on the time of previous run executions. . Consumer/user and producer daemons refer to the utility program portion of the disclosed method. These utility program parts perform the disclosed method activities for consumers/users and producers, respectively. Such steps include generating/signing ledger entries associated with inputs and outputs, generating/signing blocks containing associated ledger entries, requesting output validation, and performing validation/auditing. searching for and utilizing the necessary ML model components to

MLモデル結果、台帳における監査証跡、およびMLモデルの説明は、オリジナルの結果を出力するために使用されたのと全く同じ訓練コーパスおよびMLモデル・データ構造を使用して検証することができる。データ・モデルからのレポーティング/出力の各信頼レベルにおいて、開示される方法は、説明可能性モジュールを呼び出す。このモジュールは、ブロックチェーン上でブロックを作成して、関連する説明とともに、モデルの現在の状態を更新する。決定/出力を提供した後、使用されたデータ・ソース、使用されたMLモデルのデータ構造、MLモデル訓練コーパス、および途中の信頼説明などのすべての監査証跡が、その決定に対して作成される。開示される方法は、スマート・コントラクトまたは手作業の制御を使用してモデルをコース訂正し、そのような調整の監査証跡を作成する。 The ML model results, the audit trail in the ledger, and the ML model description can be verified using the exact same training corpus and ML model data structure that was used to output the original results. At each confidence level of reporting/output from the data model, the disclosed method invokes an explainability module. This module creates blocks on the blockchain and updates the current state of the model with an associated description. After providing a decision/output, all audit trails are created for that decision, including the data sources used, the data structure of the ML model used, the ML model training corpus, and any trust explanations along the way. . The disclosed method uses smart contracts or manual controls to course correct the model and creates an audit trail of such adjustments.

実施形態では、システムの1つまたは複数のコンポーネントは、ハードウェアまたはソフトウェアあるいはその両方を利用して、性質として高度に技術的な問題を解決することができる(例えば、訓練された機械学習モデルを使用して入力データを処理すること、ブロックを分散台帳に追加することであって、ブロックが、入力データ、機械学習モデル・データ構造、中間モデル結果、モデル説明、および分散台帳内でのモデル訓練コーパス場所へのタグを含む、追加すること、モデル処理結果を提供すること、など)。これらの解決策は抽象的ではなく、例えば、再現可能で説明可能な機械学習モデル結果を容易にするために必要とされる処理能力に起因して、人間による一連の精神的な行為として実施することはできない。さらには、実施される処理の一部は、説明可能で再現可能な機械学習モデル結果に関する定義されたタスクを遂行するための特殊コンピュータによって実施されてもよい。例えば、特殊コンピュータは、関与するステークホルダなどから分散台帳全体でアクセス可能な、再現可能で説明可能な機械学習モデル結果に関するタスクを遂行するために利用することができる。 In embodiments, one or more components of the system may utilize hardware and/or software to solve problems that are highly technical in nature (e.g., train trained machine learning models). adding blocks to a distributed ledger, where the blocks include input data, machine learning model data structures, intermediate model results, model descriptions, and model training within the distributed ledger. including and adding tags to corpus locations, providing model processing results, etc.). These solutions are not abstract and can be implemented as a series of mental acts by humans, e.g. due to the processing power required to facilitate reproducible and explainable machine learning model results. It is not possible. Furthermore, some of the processing performed may be performed by specialized computers to perform defined tasks for explainable and reproducible machine learning model results. For example, specialized computers can be utilized to perform tasks involving reproducible and explainable machine learning model results that are accessible across distributed ledgers, such as by participating stakeholders.

実施形態では、AIデータ・ガバナンスおよび説明可能性のための方法は、入力データを受信する。入力データは、モデルの現在のノード重み付けおよび入力データの処理に基づいたpass-fail分類など、訓練された機械学習モデルの意図された使用に関する。ユーザは、ユーザ、データ、およびプロデューサをリンクするデジタル署名された台帳エントリとしてデータを入力する。台帳エントリは、ユーザのデジタル署名ならびにユーザおよびプロデューサの公開鍵を含む。実施形態では、プロデューサは、入力データをユーザから受信する。この実施形態では、プロデューサは、台帳エントリを作成して署名する。 In embodiments, a method for AI data governance and explainability receives input data. The input data relates to the intended use of the trained machine learning model, such as pass-fail classification based on the model's current node weightings and processing of the input data. Users enter data as digitally signed ledger entries that link users, data, and producers. The ledger entry includes the user's digital signature and the user's and producer's public keys. In embodiments, the producer receives input data from a user. In this embodiment, the producer creates and signs ledger entries.

台帳エントリは、入力データ、ユーザの公開鍵、プロデューサの公開鍵、およびプロデューサのデジタル署名を含む。台帳エントリは、ユーザ、プロデューサ、またはユーザとプロデューサ両方についての識別情報データを含む場合がある。方法は、訓練されたモデルを使用して入力データを処理し、入力データのpassまたはfail分類などの結果を生じる。例として、単純な線形回帰モデルが、与えられるデータセットを入力として受信し、入力記録についての属性を含む出力を生成する。入力データおよびモデルからの出力は、ブロックチェーン・ユーザのコンセンサスによって認証され、後にブロックチェーンの新規ブロックに追加される、サブミットされた台帳エントリとしてともに捕捉される。サブミットされた台帳エントリを台帳およびブロックチェーンへ追加することに先立って、デジタル署名および利用可能な公開鍵を使用して、このエントリをコンセンサスベースで認証することは、台帳の整合性を保つ。 The ledger entry includes the input data, the user's public key, the producer's public key, and the producer's digital signature. Ledger entries may include identifying information data about users, producers, or both users and producers. The method processes input data using the trained model and produces a result, such as a pass or fail classification of the input data. As an example, a simple linear regression model receives a given dataset as input and produces an output that includes attributes about the input records. Input data and output from the model are captured together as submitted ledger entries that are authenticated by the consensus of blockchain users and later added to new blocks on the blockchain. Consensus-based authentication of submitted ledger entries using digital signatures and available public keys prior to their addition to the ledger and blockchain preserves the integrity of the ledger.

入力データについて結果を判定した後、方法は、ブロックチェーンなどの分散台帳のための新規ブロックを作成する。ブロックチェーンは、関与者の身分が互いに分かっているプライベートな分散台帳であってもよいし、関与者の身分が隠された、よりパブリックな分散台帳であってもよい。ブロックチェーンは、オープン・ソースのHYPERLEDGERもしくはETHEREUMブロックチェーンの記述プラットフォーム、または他のブロックチェーン・プラットフォームを使用して作成してもよい。(注:「HYPERLEDGER」および「ETHEREUM」という用語は、世界中の様々な管轄域における商標権を対象とする場合があり、本明細書では単に、商標によって適切に命名された製品またはサービスに対し、そのような商標権が存在する可能性がある範囲で、それらへの言及として使用される。) After determining the results for the input data, the method creates new blocks for a distributed ledger, such as a blockchain. A blockchain may be a private distributed ledger in which the identities of participants are mutually known, or it may be a more public distributed ledger in which the identities of participants are hidden. Blockchains may be created using the open source HYPERLEDGER or ETHEREUM blockchain description platforms, or other blockchain platforms. (Note: The terms "HYPERLEDGER" and "ETHEREUM" may be subject to trademark rights in various jurisdictions around the world and are used herein solely for products or services appropriately named by the trademarks. , used as a reference to such trademark rights to the extent they may exist.)

各関与者は、識別情報(ID)、公開-プライベート鍵対、およびデジタル署名を有する。関与者のデジタル署名は、公開-プライベートの暗号鍵対に基づくことができる。idは、関与者の公開鍵を含む場合がある。idとデジタル署名との組合せを使用して、あらゆるトランザクションを認証することができる。実施形態では、各トランザクションは、トランザクションid、発信者id、ならびに発信者のプライベート鍵およびトランザクションidを使用してエンコードされた発信者のデジタル署名を伝える。次いで、発信者id、または発信者公開鍵を使用して、トランザクションの発信元を認証するデジタル署名からトランザクションidを復号化することができる。 Each participant has an identification information (ID), a public-private key pair, and a digital signature. The participants' digital signatures can be based on public-private cryptographic key pairs. The id may include the public key of the participant. A combination of identity and digital signature can be used to authenticate any transaction. In embodiments, each transaction carries a transaction id, an originator id, and the originator's digital signature encoded using the originator's private key and the transaction id. The originator id, or originator public key, can then be used to decrypt the transaction id from the digital signature that authenticates the origin of the transaction.

公開鍵-プライベート鍵の対を使用することによって、ユーザによって署名された入力データ台帳エントリおよびプロデューサによって署名されたMLモデル結果エントリなど、デジタル署名を使用して作成および署名された台帳へのエントリを、関与者が検証することができる。エントリは、発信者の身元の情報なしに検証することができる。実施形態では、各ブロックのサイズは所定である。所定のサイズ限度に到達すると、先行ブロックのハッシュを組み込む新規ブロックが作成される。この実施形態では、方法は、処理中に、各結果を伴う新規ブロックを作成する。方法は、中間結果ごとにブロックを、同様に処理の最終結果について1つのブロックを作成する。 By using a public-private key pair, entries to the ledger that are created and signed using digital signatures, such as input data ledger entries signed by users and ML model result entries signed by producers, can be created and signed using digital signatures. , can be verified by those involved. Entries can be verified without information of the originator's identity. In embodiments, the size of each block is predetermined. When a predetermined size limit is reached, a new block is created that incorporates the hash of the previous block. In this embodiment, the method creates a new block with each result during processing. The method creates a block for each intermediate result, as well as one block for the final result of the processing.

一実施形態では、方法は中間結果ごとに台帳エントリを作成し、最終結果を判定した後、1つの新規ブロックを作成する。作成されたブロックには、ユーザの識別情報、中間または最終あるいはその両方の結果、および結果を達成するために使用された機械学習モデルのバージョンまたはデータ構造(モデルに関するノード重み付けの現在の行列など)が含まれる。ブロックはまた、1つまたは複数のタグを含む。各タグは、機械学習モデルの現在のバージョンに関して、訓練コーパスとして使用されたデータの場所についての情報を与える。タグは、訓練コーパス・データが記憶された分散台帳の先行ブロックを指し示す。ブロックは、入力データを提供するユーザ・エンティティ、およびMLモデルを保有しユーザ・エンティティが関与する決定についての判定結果を利用するプロデューサ・エンティティなど、現在の結果のステークホルダ同士をリンクする1つまたは複数の台帳エントリをさらに含む。台帳エントリは、スマート・コントラクト・エントリを含む。スマート・コントラクトは、ユーザおよびプロデューサのそれぞれが、機械学習モデルの適切なバージョンを使用して、結果を検証および再現することを可能にする。実施形態では、スマート・コントラクトは、台帳の先行ブロックから検索したタグ付けされた訓練コーパス・データを使用して、機械学習モデルの再作成または再訓練を、さらに可能にする。スマート・コントラクトは、先行結果の検証を生成するために満足する必要のある条件を含む場合がある。そのような条件は、検証結果を生成するために、プロデューサおよびユーザのそれぞれからの合意を含む。 In one embodiment, the method creates a ledger entry for each intermediate result and creates one new block after determining the final result. The created block contains the user's identity, intermediate and/or final results, and the version or data structure of the machine learning model used to achieve the result, such as the current matrix of node weights for the model. is included. A block also includes one or more tags. Each tag gives information about the location of the data used as the training corpus with respect to the current version of the machine learning model. The tag points to the previous block of the distributed ledger where the training corpus data was stored. A block is one or more entities that link stakeholders of the current outcome, such as a user entity that provides input data and a producer entity that holds the ML model and utilizes the decision results for decisions involving the user entity. further includes ledger entries for . Ledger entries include smart contract entries. Smart contracts allow users and producers to each use appropriate versions of machine learning models to verify and reproduce results. In embodiments, the smart contract further enables the recreation or retraining of the machine learning model using tagged training corpus data retrieved from previous blocks of the ledger. A smart contract may include conditions that must be satisfied to generate validation of prior results. Such conditions include agreement from each of the producers and users to generate verification results.

方法は、ある実施形態では、少なくとも最終結果用に、いくつかの実施形態では、中間MLモデル結果ならびに最終結果ごとに、XAI説明を生成する。方法は、XAI方法論を使用してXAI説明を生成する。XAI説明は、判定結果に対する各入力データの相対的な重み付けについての情報を提供し、それによって入力データの各データが結果に与えた影響を説明する。例えば、nデータ点を含む入力データのセットの場合、XAI説明はnデータ点のそれぞれが結果に対して、ポジティブに、それともネガティブに寄与したかどうか、pass結果の場合、pass結果の判定に追加された各データ点がその判定を損なうものかどうかを示す。XAI説明は、最も高く重み付けされ最も影響を与えるものから、最も低く重み付けされ最も影響を与えないものまでの、nデータ点のセットの相対的な重み付けをさらに含む。この実施形態では、方法は、結果に対して作成されたブロック中にXAI説明データをさらに含む。 The method generates an XAI explanation, in some embodiments, at least for the final result, and in some embodiments, for each intermediate ML model result as well as the final result. The method generates an XAI description using an XAI methodology. The XAI description provides information about the relative weighting of each piece of input data on the decision result, thereby explaining the impact that each piece of input data has on the result. For example, for a set of input data containing n data points, an indicates whether each data point detected impairs the decision. The XAI description further includes the relative weighting of the set of n data points, from highest weighted and most influential to lowest weighted and least influential. In this embodiment, the method further includes XAI descriptive data in the blocks created for the results.

実施形態では、それぞれ作成されたブロックは、台帳のすべての先行ブロックから導出されたハッシュ値を含む。この実施形態では、方法は、SHA-256などのハッシュ関数を使用して、先行ブロックからハッシュ値を生成する。この実施形態では、ブロックは、プロデューサのプライベート鍵ベースのデジタル署名を使用して署名される。ブロックのコンセンサス検証は、ユーザ、およびプロデューサの公開鍵を使用してデジタル署名を検証する他の関与者を通じて発生する。 In embodiments, each created block includes hash values derived from all previous blocks of the ledger. In this embodiment, the method uses a hash function such as SHA-256 to generate a hash value from the previous block. In this embodiment, blocks are signed using the producer's private key-based digital signature. Consensus verification of blocks occurs through users and other participants who verify digital signatures using the producer's public keys.

実施形態では、方法は、ユーザおよびプロデューサに、判定された結果を出力として提供する。方法は、ユーザおよびプロデューサに、結果判定トランザクションを記憶する台帳エントリおよびブロックのインジケーションをさらに提供する場合がある。 In embodiments, the method provides the determined results as output to the user and producer. The method may further provide users and producers with an indication of ledger entries and blocks that store outcome-determining transactions.

時間をかけて、また多数の結果の生成を経て、MLモデル・ノード重み付けなどのデータ構造は、進化する。方法は、入力データおよび判定結果のそれぞれの組合せを追加して、そのモデル用の訓練コーパスを拡張する。訓練コーパスが拡張するにつれ、モデル・データ構造が進化し、モデルの新規バージョンが作成される。実施形態では、方法は、モデル・バージョン番号および関連するデータ構造に関する台帳エントリを含む、作成されたブロックとともに各新規バージョンを記憶する。エントリは、新規のデータ構造を導出するために使用される拡張された訓練コーパスへのタグをさらに含む。 Over time and through the generation of a large number of results, data structures such as ML model node weights evolve. The method expands the training corpus for the model by adding each combination of input data and decision results. As the training corpus expands, the model data structure evolves and new versions of the model are created. In embodiments, the method stores each new version along with the blocks created, including a ledger entry for the model version number and associated data structure. The entry further includes a tag to the expanded training corpus used to derive the new data structure.

MLモデル・データ構造の進化または成熟の後、方法は、適当な台帳エントリならびに訓練コーパスおよびMLモデル・データ構造の進化を記憶するブロックを、ブロックチェーンに追加する。この追加に続いて、ユーザ、プロデューサ、または他のステークホルダは、先行結果を再現および検証するよう試みる場合がある。モデル・バージョンおよびデータ構造が進化してしまっているため、先行結果の再現には、現在のバージョンではなく最初に使用されたモデル・バージョンの使用を必要とする。ステークホルダは関連台帳エントリを通じて所望の結果に関連付けられているため、ユーザ、プロデューサ、または他の関連するステークホルダのいずれかは、結果の検証および再現を要求することができる。要求側のステークホルダは、自身のデジタル署名を用いて署名した要求をサブミットする。実施形態では、方法は、要求のデジタル署名を、ステークホルダの公開鍵を使用して検証する。 After the evolution or maturation of the ML model data structure, the method adds appropriate ledger entries and blocks that store the training corpus and evolution of the ML model data structure to the blockchain. Following this addition, users, producers, or other stakeholders may attempt to reproduce and verify previous results. Because model versions and data structures have evolved, replicating previous results requires using the model version originally used rather than the current version. Because stakeholders are associated with the desired results through associated ledger entries, either users, producers, or other relevant stakeholders can request verification and reproduction of the results. The requesting stakeholder submits a request signed using his digital signature. In embodiments, the method verifies the digital signature of the request using the stakeholder's public key.

署名を検証した後、方法は、検証要求に関するデータをブロックチェーンのブロックから検索する。方法は、検証要求を完了するために、関連するユーザ入力データ、モデル・バージョンおよびデータ構造、訓練コーパス・リンク、オリジナルの中間および最終結果、ならびに関連付けられるXAI説明を、適当なブロックから検索する。検証要求を完了することには、MLモデル・データ構造を使用して入力データを再処理することを含み、検証の中間および最終結果を生じる。次いで、方法は、オリジナルおよび検証の、中間および最終結果を比較する。実施形態では、方法は、オリジナルおよび検証のXAI説明同士をさらに比較する。方法は、オリジナルの入力データを、オリジナルのMLバージョンおよびデータ構造を使用して処理するため、オリジナルおよび検証の結果およびXAI説明は同一でなければならない。方法は、オリジナルおよび検証の結果を検証要求元に提供する。 After verifying the signature, the method retrieves data regarding the verification request from blocks of the blockchain. The method retrieves relevant user input data, model versions and data structures, training corpus links, original intermediate and final results, and associated XAI descriptions from appropriate blocks to complete the validation request. Completing a validation request involves reprocessing input data using ML model data structures to produce intermediate and final validation results. The method then compares the original and validation intermediate and final results. In embodiments, the method further compares the original and verified XAI descriptions. Since the method processes the original input data using the original ML version and data structure, the original and validation results and XAI descriptions must be identical. The method provides the original and the results of the verification to the verification requester.

実施形態では、方法は、検索されたモデル・データ構造にしたがうモデルを使用して検索された入力データを処理し、検索されたMLモデルが同一の結果および同一の説明を判定することを確認する。実施形態では、方法は、タグを使用して訓練コーパス・データをさらに検索する。この実施形態では、方法は、訓練コーパスが、検索されたモデル・バージョンに関連付けられた検索されたMLモデル・データ構造を生じることを検証するために、検索された訓練コーパスを使用してMLモデルを再作成する。方法は、要求された結果検証の出力を、検証の要求元に提供する。実施形態では、方法は、要求および検証についての関連する出力ならびに検証の結果(結果は反復される、または検証の失敗結果は反復されない)をドキュメント化する台帳エントリを作成する。実施形態では、方法は、検証の要求の通知および要求された検証の出力を、結果に関連するすべてのステークホルダに提供する。この実施形態では、すべての方法ステップは、次の新規ブロックに組み込まれる、関連する台帳エントリ内に記憶される。 In embodiments, the method processes the retrieved input data using a model that conforms to the retrieved model data structure and verifies that the retrieved ML models determine the same results and the same explanations. . In embodiments, the method uses the tags to further search the training corpus data. In this embodiment, the method uses the retrieved training corpus to create an ML model to verify that the training corpus yields a retrieved ML model data structure associated with the retrieved model version. Re-create. The method provides the output of the requested result validation to the validation requester. In embodiments, the method creates a ledger entry that documents the request and associated output for the verification and the results of the verification (results are repeated or failed verification results are not repeated). In embodiments, the method provides notification of the request for validation and output of the requested validation to all stakeholders associated with the results. In this embodiment, all method steps are stored in associated ledger entries that are incorporated into the next new block.

開示される実施形態によって、pass-fail決定を行うための、または他の使用のための、MLモデルの使用に関連する規制要件を満足する手段として、MLモデル結果の監査、検証、および複製が可能となる。開示される実施形態は、MLモデル・データ構造を通じて初期結果を判定する際に使用されるMLモデルのレプリカを提供し、訓練を確かめるためにオリジナルのデータ・コーパスを使用してMLモデル・データ構造を再作成する手段を提供し、MLモデルの透明性に関する規制要件を満足するためにモデル決定のXAI説明を提供する。 Disclosed embodiments enable auditing, validation, and replication of ML model results as a means of satisfying regulatory requirements related to the use of ML models to make pass-fail decisions or for other uses. It becomes possible. The disclosed embodiments provide a replica of the ML model used in determining initial results through the ML model data structure and use the original data corpus to verify training. and provide an XAI explanation of model decisions to satisfy regulatory requirements regarding ML model transparency.

実施形態では、プロデューサはモデル結果の判定に手作業で介入し、例えばモデル判定をfailからpassに変える場合がある。そのような介入には、プロデューサからの介入用の適当なデジタル署名が必要である。この実施形態では、方法は、プロデューサの公開鍵を使用してデジタル署名を検証し、要求された変更を行い、手作業での介入およびモデルのデータ構造に対するその効果を追跡する。方法は、この効果を、モデルの新規バージョンとして台帳エントリ内に記憶し、手作業の介入および結果の改変をドキュメント化する。方法は、介入に関連付けられた台帳エントリを捕捉する新規ブロックを作成する。方法は、モデルのこのバージョンのための、ならびにすべての後続のバージョンのための訓練コーパスの一部として、タグを手作業の結果に追加する。実施形態では、方法は、介入に関連付けられた台帳エントリにタグを追加する。 In embodiments, the producer may manually intervene in the determination of model results, for example changing the model determination from fail to pass. Such intervention requires a suitable digital signature of the intervention from the producer. In this embodiment, the method uses the producer's public key to verify the digital signature, make the requested changes, and track manual intervention and its effect on the model's data structure. The method stores this effect in a ledger entry as a new version of the model, documenting the manual intervention and modification of the results. The method creates a new block that captures ledger entries associated with the intervention. The method adds tags to the manual results as part of the training corpus for this version of the model, as well as for all subsequent versions. In embodiments, the method adds tags to ledger entries associated with the intervention.

実施形態では、方法は、手作業の介入結果および関連する入力データを使用してMLモデルを再訓練し、MLモデルの修正されたバージョンおよび関連する修正されたデータ構造を生成する。方法は、新規のMLバージョンをラベル付けし、効果的にラベル付けされた入力データ(入力データおよび手作業の介入結果)を含め、新規バージョン、データ構造、および訓練コーパスを記憶する。方法は、新規バージョン、入力データ、手作業の介入結果ラベル、バージョン・ラベル、手作業の介入のインジケーションなどを含む、新規台帳エントリおよび関連する新規ブロックを生成する。プロデューサは、新規ブロックを署名し、署名に基づくコンセンサス検証のためにそれをサブミットする。 In embodiments, the method retrains the ML model using the manual intervention results and related input data to generate a modified version of the ML model and an associated modified data structure. The method labels the new ML version, includes effectively labeled input data (input data and manual intervention results), and stores the new version, data structure, and training corpus. The method generates new ledger entries and associated new blocks, including new versions, input data, manual intervention result labels, version labels, manual intervention indications, and the like. The producer signs a new block and submits it for signature-based consensus validation.

実施形態では、方法は、本方法のステークホルダが、入力データを提供し、監査または検証要求をサブミットするための、およびモデルからの出力データを受信するための、1つまたは複数のアプリケーション・プログラム・インターフェース(API)を含む。APIは、台帳ならびにモデルおよび訓練コーパスを使用して構築された状態機械に、ステークホルダをリンクする。APIは、ユーザ入力データおよびプロデューサ直接/手作業の介入データのパスウェイを、状態機械に提供する。APIは、モデル結果を記憶して、先行ブロックにおけるモデル訓練コーパス・データ場所をタグ付けする、新規台帳エントリおよび新規ブロックの生成のための手段を提供する。APIは、ステークホルダをそれらの共通結果にリンクする、台帳エントリ・スマート・コントラクトの生成をさらに可能にする。 In embodiments, the method includes one or more application programs for providing input data, submitting audit or validation requests, and receiving output data from the model. Contains an interface (API). The API links stakeholders to the ledger and the state machine built using the model and training corpus. The API provides a pathway for user input data and producer direct/manual intervention data to the state machine. The API provides a means for the generation of new ledger entries and new blocks that store model results and tag model training corpus data locations in previous blocks. The API further enables the generation of ledger entry smart contracts that link stakeholders to their common outcomes.

図1は、開示される発明を実用化することに関連する例示のネットワーク・リソースの概略図である。本発明は、命令ストリームを処理する開示される要素のいずれかのプロセッサで実用化することができる。図面で示されるように、ネットワーク化されたクライアント・デバイス110は、サーバ・サブシステム102に無線接続する。クライアント・デバイス104は、サーバ・サブシステム102に、ネットワーク114を介して無線接続する。クライアント・デバイス104および110は、開示される実施形態に関連するアプリケーション・プログラム・インターフェース(図示せず)を、プログラムを実行するために十分な計算リソース(プロセッサ、メモリ、ネットワーク通信ハードウェア)とともに含む。 FIG. 1 is a schematic diagram of example network resources associated with implementing the disclosed invention. The invention may be practiced with any processor of the disclosed elements that processes a stream of instructions. As shown in the figures, networked client devices 110 wirelessly connect to server subsystem 102 . Client device 104 wirelessly connects to server subsystem 102 via network 114 . Client devices 104 and 110 include an application program interface (not shown) associated with the disclosed embodiments, along with sufficient computational resources (processor, memory, network communication hardware) to execute the program. .

実施形態では、クライアント・デバイス104および110は、開示されるシステムおよび方法に関連付けられるユーザおよびプロデューサを含む。ユーザおよびプロデューサは、ネットワーク114を介して接続され、入力データを提供し、MLモデルを使用して結果を生成し、ブロックを作成して検証し、それをブロックチェーンに追加する。 In embodiments, client devices 104 and 110 include users and producers associated with the disclosed systems and methods. Users and producers connect through network 114 to provide input data, use ML models to generate results, create and validate blocks, and add them to the blockchain.

図1に示されるように、サーバ・サブシステム102は、サーバ・コンピュータ150を含む。図1は、本発明の実施形態による、ネットワーク化されたコンピュータ・システム1000内のサーバ・コンピュータ150のコンポーネントのブロック図である。図1は、単に一実装形態の例示を与えるものであり、様々な実装形態が実装され得る環境に関して、いかなる限定も意味しないことを諒解されたい。描かれる環境には多くの修正が成され得る。 As shown in FIG. 1, server subsystem 102 includes server computer 150. FIG. 1 is a block diagram of components of a server computer 150 in a networked computer system 1000, according to an embodiment of the invention. It is to be understood that FIG. 1 merely provides an illustration of one implementation and does not imply any limitations as to the environment in which various implementations may be implemented. Many modifications can be made to the depicted environment.

サーバ・コンピュータ150は、プロセッサ154、メモリ158、永続的ストレージ170、通信ユニット152、入出力(I/O)インターフェース156、および通信ファブリック140を含む。通信ファブリック140は、キャッシュ162、メモリ158、永続的ストレージ170、通信ユニット152、および入出力(I/O)インターフェース156間の通信を実現する。通信ファブリック140は、プロセッサ(マイクロプロセッサ、通信およびネットワーク・プロセッサなど)、システム・メモリ、周辺デバイス、およびシステム内のあらゆる他のハードウェア・コンポーネント間で、データまたは制御情報あるいはその両方を通過させるように設計されたあらゆるアーキテクチャで実装することが可能である。例えば、通信ファブリック140は、1つまたは複数のバスを用いて実装することが可能である。 Server computer 150 includes a processor 154, memory 158, persistent storage 170, communications unit 152, input/output (I/O) interface 156, and communications fabric 140. Communication fabric 140 provides communication between cache 162, memory 158, persistent storage 170, communication unit 152, and input/output (I/O) interface 156. Communications fabric 140 is configured to pass data and/or control information between processors (such as microprocessors, communications and network processors), system memory, peripheral devices, and any other hardware components within the system. It can be implemented on any architecture designed in For example, communications fabric 140 may be implemented using one or more buses.

メモリ158および永続的ストレージ170は、コンピュータ可読記憶媒体である。この実施形態では、メモリ158は、ランダム・アクセス・メモリ(RAM)160を含む。一般には、メモリ158は、あらゆる好適な揮発性または非揮発性のコンピュータ可読記憶媒体を含むことが可能である。キャッシュ162は、メモリ158から最近アクセスされたデータ、およびごく最近アクセスされたデータを保持することによって、プロセッサ154のパフォーマンスを向上させる高速のメモリである。 Memory 158 and persistent storage 170 are computer readable storage media. In this embodiment, memory 158 includes random access memory (RAM) 160. In general, memory 158 may include any suitable volatile or nonvolatile computer-readable storage medium. Cache 162 is a high speed memory that improves the performance of processor 154 by retaining recently accessed data from memory 158, as well as more recently accessed data.

本発明の実施形態を実用化するために使用されるプログラム命令およびデータ、例えばデータ・ガバナンスおよびXAIプログラム175は、キャッシュ162を介するサーバ・コンピュータ150の個々のプロセッサ154のうちの1つまたは複数による実行またはアクセスあるいはその両方のために、永続的ストレージ170に記憶される。この実施形態では、持続的ストレージ170は、磁気ハード・ディスク・ドライブを含む。磁気ハード・ディスク・ドライブの代替として、または加えて、永続的ストレージ170は、ソリッドステート・ハード・ドライブ、半導体ストレージ・デバイス、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM)、フラッシュ・メモリ、またはプログラム命令もしくはデジタル情報を記憶することができる、あらゆる他のコンピュータ可読記憶媒体を含むことが可能である。 Program instructions and data used to implement embodiments of the present invention, such as data governance and Stored in persistent storage 170 for execution and/or access. In this embodiment, persistent storage 170 includes a magnetic hard disk drive. As an alternative to, or in addition to, a magnetic hard disk drive, persistent storage 170 may include a solid state hard drive, a semiconductor storage device, a read only memory (ROM), an erasable programmable read only memory (EPROM), a flash - May include memory or any other computer readable storage medium capable of storing program instructions or digital information.

永続的ストレージ170によって使用される媒体はまた、リムーバブルであってもよい。例えば、リムーバブルなハード・ドライブを、永続的ストレージ170に使用してもよい。他の例としては、光学および磁気ディスク、サム・ドライブ、ならびに、永続的ストレージ170の一部でもある別のコンピュータ可読記憶媒体への移動のためにドライブに挿入されるスマート・カードが挙げられる。 The media used by persistent storage 170 may also be removable. For example, a removable hard drive may be used for persistent storage 170. Other examples include optical and magnetic disks, thumb drives, and smart cards that are inserted into drives for transfer to another computer-readable storage medium that is also part of persistent storage 170.

通信ユニット152は、これらの例では、クライアント・コンピューティング・デバイス104および110のリソースを含む、他のデータ処理システムまたはデバイスとの通信用に設けられる。これらの例では、通信ユニット152は、1つまたは複数のネットワーク・インターフェース・カードを含む。通信ユニット152は、物理的通信リンク、無線通信リンクのいずれかまたはその両方の使用により、通信を提供してもよい。ソフトウェア配信プログラム、ならびに本発明の実装に使用される他のプログラムおよびデータは、通信ユニット152を通じてサーバ・コンピュータ150の永続的ストレージ170にダウンロードすることができる。 Communication unit 152 is provided for communication with other data processing systems or devices, including resources of client computing devices 104 and 110 in these examples. In these examples, communication unit 152 includes one or more network interface cards. Communication unit 152 may provide communication through the use of physical communication links, wireless communication links, or both. Software distribution programs, as well as other programs and data used to implement the invention, may be downloaded to persistent storage 170 of server computer 150 through communication unit 152.

I/Oインターフェース156により、サーバ・コンピュータ150に接続され得る他のデバイスとのデータの入力および出力が可能となる。例えば、I/Oインターフェース156は、キーボード、キーパッド、タッチ・スクリーン、マイクロフォン、デジタル・カメラ、または何らかの他の好適な入力デバイスあるいはその組合せなど、外部デバイス190への接続を提供する。外部デバイス190はまた、例えばサム・ドライブ、ポータブルの光学または磁気ディスク、およびメモリ・カードなどの、ポータブルのコンピュータ可読記憶媒体を含むことが可能である。本発明の実施形態を実用化するために使用されるソフトウェアおよびデータ、例えばサーバ・コンピュータ150上のデータ・ガバナンスおよびXAIプログラム175は、そのようなポータブルのコンピュータ可読記憶媒体に記憶することが可能であり、I/Oインターフェース156を介して永続的ストレージ170にロードすることが可能である。I/Oインターフェース156はまた、ディスプレイ180に接続する。 I/O interface 156 allows data input and output to and from other devices that may be connected to server computer 150. For example, I/O interface 156 provides a connection to external device 190, such as a keyboard, keypad, touch screen, microphone, digital camera, or any other suitable input device or combination thereof. External devices 190 may also include portable computer-readable storage media, such as, for example, thumb drives, portable optical or magnetic disks, and memory cards. Software and data used to implement embodiments of the invention, such as data governance and XAI programs 175 on server computer 150, can be stored on such portable computer-readable storage media. and can be loaded into persistent storage 170 via I/O interface 156. I/O interface 156 also connects to display 180.

ディスプレイ180は、データをユーザに表示するメカニズムを実現し、例えばコンピュータ・モニタであってもよい。ディスプレイ180はまた、タブレット・コンピュータのディスプレイなど、タッチ・スクリーンとして機能することもできる。 Display 180 provides a mechanism for displaying data to a user and may be, for example, a computer monitor. Display 180 can also function as a touch screen, such as a tablet computer display.

図2は、本開示の実用化に関連する例示のアクティビティを図示するフローチャート200である。プログラムの開始後、ブロック210においてXAIデータ・ガバナンス・プログラム175は、入力データを受信する。入力データは、ユーザおよびプロデューサなどのステークホルダから、APIを通じてプログラムに渡されてもよい。入力データは、データ・プロバイダによってデジタル署名され、関連するトランザクションまでのすべてのステークホルダについての公開鍵を含む、台帳エントリとして渡されてもよい。 FIG. 2 is a flowchart 200 illustrating example activities associated with implementing the present disclosure. After starting the program, the XAI data governance program 175 receives input data at block 210. Input data may be passed to the program through an API from stakeholders such as users and producers. The input data may be digitally signed by the data provider and passed as a ledger entry containing public keys for all stakeholders up to the relevant transaction.

ブロック220では、XAIデータ・ガバナンス・プログラム175の方法は、台帳エントリからの入力データを、訓練されたMLモデルを使用して処理する。MLモデルは、データの訓練コーパスを使用したモデルの訓練の間に導出されたデータ構造を含む。MLモデルは、モデル・バージョン・インジケータを含む。入力データを処理することにより、ユーザとプロデューサとの間で基礎となるトランザクションに関連付けられる1つまたは複数のpass-fail結果など、入力データに関連付けられた1つまたは複数の結果を生じる。結果は、最終結果およびMLモデルによる入力データの処理中に生成されたあらゆる中間結果のXAI説明を含む。XAI説明によって、人間は、モデルにより出力として与えられた結果を解釈および説明することができるようになる。実施形態では、XAI結果は、結果を判定する際に使用された入力データの相対的な重み付けを含む。 At block 220, the method of the XAI data governance program 175 processes input data from the ledger entries using the trained ML model. ML models include data structures derived during training of the model using a training corpus of data. ML models include model version indicators. Processing the input data results in one or more results associated with the input data, such as one or more pass-fail results associated with the underlying transaction between the user and the producer. Results include an XAI description of the final results and any intermediate results generated during processing of the input data by the ML model. XAI explanations allow humans to interpret and explain the results given as output by the model. In embodiments, the XAI results include relative weightings of the input data used in determining the results.

ブロック230では、XAIデータ・ガバナンス・プログラム175の方法は、台帳エントリを分散台帳に加える。台帳エントリは、処理イベントまでのステークホルダの識別情報、ならびにステークホルダが結果にアクセスするために、または結果の監査もしくは他の検証を要求するために必要な条件を説明するスマート・コントラクト条項を含む。追加的な台帳エントリは、入力データを含む元の台帳エントリ、ならびにMLモデル・バージョン・インジケータを含むエントリを含み、MLモデル・データ構造およびタグは、MLモデルの基礎となる訓練コーパスおよび訓練コーパス・データが存在する分散台帳ブロックチェーンのブロックを識別する。方法は、ブロックチェーンのための新規ブロックをさらに生成する。新規ブロックは、新規台帳エントリ、ならびにブロックチェーンの先行ブロックのハッシュを含む。プロデューサは、プロデューサのプライベート鍵を使用して導出したデジタル署名を使用して新規ブロックに署名する。方法は、ステークホルダによるブロックのコンセンサス検証の後、新規ブロックを追加する。ステークホルダは、プロデューサの公開鍵を使用して新規ブロックを検証し、新規ブロックのデジタル署名を検証する。 At block 230, the method of the XAI data governance program 175 adds the ledger entry to the distributed ledger. The ledger entry includes the identity of the stakeholder up to the processing event, as well as smart contract terms that describe the conditions necessary for the stakeholder to access the results or request auditing or other verification of the results. The additional ledger entries include the original ledger entry containing the input data, as well as the entry containing the ML model version indicator, and the ML model data structure and tags are based on the training corpus on which the ML model is based and the training corpus version indicator. Identify the block of the distributed ledger blockchain where the data resides. The method further generates new blocks for the blockchain. A new block contains a new ledger entry as well as a hash of the previous block in the blockchain. The producer signs the new block using a digital signature derived using the producer's private key. The method adds a new block after consensus validation of the block by stakeholders. The stakeholder verifies the new block using the producer's public key and verifies the digital signature of the new block.

方法は、入力データおよび関連結果をMLモデルの訓練コーパスに追加し、補正された訓練コーパスを使用してMLモデルを再訓練する。方法は、MLモデルの新規バージョンおよびMLモデル・データ構造の新規バージョンを確認し、追加的な訓練コーパス・データを全体の訓練コーパスの一部としてタグ付けする。 The method adds input data and associated results to a training corpus of an ML model and retrains the ML model using the corrected training corpus. The method identifies new versions of ML models and new versions of ML model data structures, and tags additional training corpus data as part of the overall training corpus.

ブロック240では、XAIデータ・ガバナンス・プログラム175の方法は、直接的なpass-failタイプの結果を含む処理の結果を、これらの結果のXAI説明に加え、提供する。方法は、元の台帳エントリ内で識別されるユーザ、プロデューサ、および他のステークホルダのあらゆる組合せに結果を提供することができる。 At block 240, the method of the XAI data governance program 175 provides the results of the processing, including direct pass-fail type results, in addition to the XAI descriptions of those results. The method may provide results to any combination of users, producers, and other stakeholders identified within the original ledger entry.

ブロック250では、XAIデータ・ガバナンス・プログラム175の方法は、先行結果または入力データに関連付けられた検証または監査の要求を受信する。要求は、入力データについて台帳エントリ・スマート・コントラクトで説明される検証を要求する要件を満たす。方法は、検証要求元の署名を検証し、検証または監査要求の完了に進む。 At block 250, the method of XAI data governance program 175 receives a request for validation or auditing associated with prior results or input data. The request satisfies the requirements for requiring validation as described in the ledger entry smart contract for input data. The method verifies the signature of the verification requestor and proceeds to complete the verification or audit request.

ブロック260では、XAIデータ・ガバナンス・プログラム175の方法は、入力データ、オリジナルの結果、XAI説明、MLモデル・バージョンおよび関連付けられたMLデータ構造、ならびにMLモデル・バージョンの訓練データセット場所タグを、関連台帳エントリまたは以前に追加されたブロックのエントリから検索する。ブロック270では、方法は、検索されたデータ構造に基づいてMLバージョンを使用して入力データを処理し、新規の中間および最終結果、ならびにこれら新規の結果についてのXAI説明を判定する。 At block 260, the method of the XAI data governance program 175 stores the input data, original results, XAI description, ML model version and associated ML data structures, and training dataset location tags for the ML model version. Search from related ledger entries or previously added block entries. At block 270, the method processes the input data using the ML version based on the retrieved data structures to determine new intermediate and final results and XAI descriptions for these new results.

ブロック280では、方法は、オリジナルの結果およびXAI説明、ならびに新規の結果およびXAI説明を含む検証の結果を、検証の要求元に、場合によってはトランザクションまでのすべての他のステークホルダに、提供する。オリジナルおよび新規の結果両方を提供することによって、検証要求元による、結果の2つのセットの比較が可能となる。オリジナルおよび新規の結果についてのXAI説明結果を提供することによって、結果の判定に使用される入力データの重み付けの監査が可能となる。 At block 280, the method provides the results of the validation, including the original results and XAI description and the new results and XAI description, to the requestor of the validation and possibly all other stakeholders up to the transaction. Providing both the original and new results allows comparison of the two sets of results by the verification requester. Providing XAI descriptive results for original and new results allows for auditing of the weighting of input data used to determine results.

図3は、本発明の実施形態によるデータ・フローの概略図300である。図面で示されるように、入力データは、ユーザ302からプロデューサ306へ、分散台帳状態機械320に向けて、デジタル署名された台帳エントリ325としてフローする。図1のXAIデータ・ガバナンス・プログラム175の方法は、台帳エントリ325をMLモデル330に渡す。MLモデル330は、台帳エントリ325入力データを処理して、入力データについての分類を含む結果(passまたはfailなど)を返し、同様にすべての中間および最終MLモデル結果についてのXAI説明を返す。出力結果、および出力に関連付けられたステークホルダ(ユーザ302、プロデューサ306など)同士のリンクは、結果のXAI説明とともに台帳エントリ327にドキュメント化される。スマート・コントラクト台帳エントリ329は、ステークホルダが結果および説明にアクセスする条件、ならびにステークホルダによる結果の検証または監査を要求するための条件を説明する。MLモデル330は、結果およびXAI説明を出力として、APIを通じて、ユーザ302およびプロデューサ306を含むトランザクション・ステークホルダに提供する。 FIG. 3 is a schematic diagram 300 of data flow according to an embodiment of the invention. As shown in the figure, input data flows from user 302 to producer 306 to distributed ledger state machine 320 as digitally signed ledger entries 325. The method of XAI data governance program 175 of FIG. 1 passes ledger entries 325 to ML model 330. The ML model 330 processes the ledger entry 325 input data and returns a result (such as pass or fail) that includes a classification for the input data, as well as XAI explanations for all intermediate and final ML model results. The output results and the links between the stakeholders (users 302, producers 306, etc.) associated with the outputs are documented in a ledger entry 327 along with an XAI description of the results. Smart contract ledger entries 329 describe the conditions for stakeholders to access results and explanations, as well as to request verification or auditing of results by stakeholders. ML model 330 provides results and XAI descriptions as output to transaction stakeholders, including users 302 and producers 306, through an API.

XAIデータ・ガバナンス・プログラム175の方法は、分散台帳ブロックチェーンのための新規ブロック340を作成し、プロデューサのデジタル署名を使用して新規ブロックを署名する。新規ブロックは、元の台帳エントリ、結果台帳エントリ、MLモデル・データ構造およびバージョン・ラベル、ならびにスマート・コントラクト台帳エントリを含む。新規ブロックは、ブロックチェーンに追加され、プロデューサの公開鍵を使用してブロックチェーン・ステークホルダのコンセンサスによって検証される。 The XAI data governance program 175 method creates a new block 340 for the distributed ledger blockchain and signs the new block using the producer's digital signature. The new block includes the original ledger entry, the resulting ledger entry, the ML model data structure and version label, and the smart contract ledger entry. New blocks are added to the blockchain and verified by blockchain stakeholder consensus using the producer's public key.

XAIデータ・ガバナンス・プログラム175の方法は、入力データおよび関連付けられた結果を訓練コーパスに付加し、付加された訓練コーパス・データセットを使用してデータ構造が改版された新規モデル・バージョンを、訓練/生成する。新規バージョン、改版されたMLモデル・データ構造、および追加の訓練セット・タグを示す台帳エントリが生成され、これらの台帳エントリを記憶するさらに別の新規ブロック350が生成される。モデル330は、先行結果の検証の必要に応じて、ブロック340および350において捕捉されたブロック台帳エントリ325、327、329を読み取る。 The XAI data governance program 175 method appends input data and associated results to a training corpus and uses the appended training corpus dataset to train a new model version with revised data structures. /generate. Ledger entries are generated indicating the new version, revised ML model data structure, and additional training set tags, and yet another new block 350 is generated to store these ledger entries. Model 330 reads block ledger entries 325, 327, 329 captured in blocks 340 and 350 as required for validation of prior results.

開示される実施形態の実装は、ローカルまたはネットワーク化された計算リソースを利用することができる。実施形態では、ローカル・リソースは、エッジ・クラウドまたはクラウド・リソースに接続し、そのような接続を通じて利用可能な追加的な計算リソースを活用する。 Implementations of the disclosed embodiments may utilize local or networked computational resources. In embodiments, local resources connect to edge clouds or cloud resources to take advantage of additional computational resources available through such connections.

本開示はクラウド・コンピューティングについての詳細な説明を含むが、本明細書で述べられる教示の実装形態はクラウド・コンピューティング環境に限定されないことを理解されたい。むしろ本発明の実施形態は、現在既知の、または後に開発されるあらゆる他のタイプのコンピューティング環境と併せて実装することができる。 Although this disclosure includes detailed discussion of cloud computing, it is to be understood that implementations of the teachings described herein are not limited to cloud computing environments. Rather, embodiments of the invention may be implemented in conjunction with any other type of computing environment now known or later developed.

クラウド・コンピューティングは、構成可能なコンピューティング・リソースの共有プール(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想機械、およびサービス)への便利でオン・デマンドのネットワーク・アクセスを可能とするためのサービス提供のモデルであり、最小限の管理努力で、またはサービスのプロバイダとの対話で迅速にプロビジョニングおよびリリースすることができる。このクラウド・モデルは、少なくとも5つの特徴、少なくとも3つのサービス・モデル、および少なくとも4つの展開モデルを含むことができる。 Cloud computing provides convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, network bandwidth, servers, processing, memory, storage, applications, virtual machines, and services). - A model of service delivery to enable access that can be rapidly provisioned and released with minimal administrative effort or interaction with the provider of the service. The cloud model can include at least five features, at least three service models, and at least four deployment models.

特徴は以下のとおりである: Features are as follows:

オン・デマンドのセルフサービス:クラウド消費者は、サービスのプロバイダとの人間対話を要求することなく必要に応じて自動的に、サーバ時間およびネットワーク・ストレージなどのコンピューティング機能を一方的にプロビジョニングすることができる。 On-demand self-service: Cloud consumers can unilaterally provision computing capabilities, such as server time and network storage, automatically and as needed without requiring human interaction with the service provider. Can be done.

幅広いネットワーク・アクセス:機能はネットワーク上で利用可能であり、異質なシン・クライアントまたはシック・クライアントのプラットフォーム(例えば、携帯電話、ラップトップ、およびPDA)による使用を促進する標準的なメカニズムを通じてアクセスされる。 Broad network access: Functionality is available over the network and accessed through standard mechanisms that facilitate use by disparate thin or thick client platforms (e.g., mobile phones, laptops, and PDAs). Ru.

リソースのプール:プロバイダのコンピューティング・リソースは、マルチテナントのモデルを使用して複数の消費者にサービス提供するためにプールされ、異なる物理的および仮想的なリソースが需要に応じて動的に割り当ておよび再割り当てされる。消費者が提供されるリソースの正確な場所についての制御または情報を一般的に持たない点で、場所の独立性の意味があるが、より高い抽象レベルにおいて場所(例えば、国、州、またはデータセンタ)を特定できることもある。 Pooling of resources: A provider's computing resources are pooled to serve multiple consumers using a multi-tenant model, with different physical and virtual resources dynamically allocated based on demand. and reallocated. There is a sense of location independence in that consumers generally have no control or information about the exact location of the resources provided, but at a higher level of abstraction (e.g., country, state, or data center) can sometimes be identified.

迅速な拡張性:機能は迅速かつ拡張可能にプロビジョニングすることができ、いくつかの場合において、自動的に、素早くスケール・アウトされ、迅速にリリースされて素早くスケール・インされる。消費者にとって、プロビジョニングのために利用可能な機能は、しばしば無制限に見え、いつでもいくらでも購入することができる。 Rapid scalability: Features can be provisioned quickly and scalably, and in some cases automatically, scaled out quickly, released quickly, and scaled in quickly. To consumers, the functionality available for provisioning often appears unlimited and can be purchased in any quantity at any time.

サービスの計測:クラウド・システムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、およびアクティブなユーザ・アカウント)に適当な何らかの抽象レベルにおいて計測機能を活用することによりリソースの使用を自動的に制御し、最適化する。リソースの使用は、監視、制御、および報告することができ、利用されるサービスのプロバイダおよび消費者の両方にとって透明性を与えている。 Service metering: Cloud systems automatically measure resource usage by leveraging metering capabilities at some level of abstraction appropriate to the type of service (e.g., storage, processing, bandwidth, and active user accounts). Control and optimize. Resource usage can be monitored, controlled, and reported, providing transparency for both providers and consumers of the services utilized.

サービス・モデルは以下のとおりである: The service model is as follows:

サービスとしてのソフトウェア(Software as a Service(SaaS)):消費者に提供される機能は、クラウド・インフラストラクチャで実行中のプロバイダのアプリケーションを使用することである。アプリケーションは、ウェブ・ブラウザなどのシン・クライアント・インターフェース(例えば、ウェブ・ベースの電子メール)を通じて様々なクライアント・デバイスからアクセス可能である。消費者は、ネットワーク、サーバ、オペレーティング・システム、ストレージ、またはさらには個々のアプリケーション機能を含む基礎となるクラウド・インフラストラクチャを管理または制御することはなく、例外として限定されたユーザ固有アプリケーションの構成設定が可能である。 Software as a Service (SaaS): The functionality offered to consumers is to use a provider's applications running on a cloud infrastructure. The application is accessible from a variety of client devices through a thin client interface such as a web browser (eg, web-based email). Consumers do not manage or control the underlying cloud infrastructure, including networks, servers, operating systems, storage, or even individual application functionality, with the exception of limited user-specific application configuration settings. is possible.

サービスとしてのプラットフォーム(Platform as a Service(PaaS)):消費者に提供される機能は、プロバイダによってサポートされるプログラミング言語およびツールを使用して作成された、消費者作成の、または既成のアプリケーションをクラウド・インフラストラクチャに展開することである。消費者は、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含む基礎となるクラウド・インフラストラクチャの管理または制御をしないが、展開されたアプリケーション、および場合によっては環境構成をホストするアプリケーションについての制御を有する。 Platform as a Service (PaaS): The functionality provided to consumers is provided through consumer-written or off-the-shelf applications created using programming languages and tools supported by the provider. Deploy to cloud infrastructure. Consumers do not manage or control the underlying cloud infrastructure, including networks, servers, operating systems, or storage, but they do have control over applications that host deployed applications and, in some cases, environment configurations. have

サービスとしてのインフラストラクチャ(Infrastructure as a Service(IaaS)):消費者に提供される機能は、任意のソフトウェアを消費者が展開および実行することができる処理、ストレージ、ネットワーク、および他の基本的なコンピューティング・リソースをプロビジョニングすることであり、これにはオペレーティング・システムおよびアプリケーションが含まれ得る。消費者は、基礎となるクラウド・インフラストラクチャの管理または制御をしないが、オペレーティング・システム、ストレージ、展開されたアプリケーションの制御、および場合によっては選択ネットワーキング・コンポーネント(例えば、ホスト・ファイヤウォール)の限定された制御を有する。 Infrastructure as a Service (IaaS): The functionality provided to consumers by providing processing, storage, networking, and other basic infrastructure that allows consumers to deploy and run arbitrary software. Provisioning computing resources, which may include operating systems and applications. Consumers do not manage or control the underlying cloud infrastructure, but do have limited control over operating systems, storage, deployed applications, and in some cases selected networking components (e.g., host firewalls). control.

展開モデルは以下のとおりである: The deployment model is as follows:

プライベート・クラウド:クラウド・インフラストラクチャは、ある組織のためだけに運用される。その組織またはサード・パーティによって管理され得、オンプレミスまたはオフプレミスで存在することができる。 Private cloud: Cloud infrastructure is operated exclusively for one organization. It may be managed by the organization or a third party and may exist on-premises or off-premises.

コミュニティ・クラウド:クラウド・インフラストラクチャは、いくつかの組織によって共有され、共有される事案(例えば、ミッション、セキュリティ要件、ポリシ、およびコンプライアンス懸案事項)を有する特定のコミュニティをサポートする。その組織またはサード・パーティによって管理され得、オンプレミスまたはオフプレミスで存在することができる。 Community Cloud: A cloud infrastructure is shared by several organizations and supports a specific community with shared issues (e.g., missions, security requirements, policies, and compliance concerns). It may be managed by the organization or a third party and may exist on-premises or off-premises.

パブリック・クラウド:クラウド・インフラストラクチャは、一般公衆または大規模な業界団体に対して利用可能とされ、クラウド・サービスを販売する組織によって所有される。 Public Cloud: Cloud infrastructure is made available to the general public or large industry groups and is owned by organizations that sell cloud services.

ハイブリッド・クラウド:クラウド・インフラストラクチャは、一意なエンティティのままである2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)を組み合わせたものであるが、データおよびアプリケーションのポータビリティを可能にする標準化された、または専有的な技術(例えば、クラウド間でロード・バランシングを行うためのクラウド・バースト)によって結合される。 Hybrid Cloud: A cloud infrastructure is a combination of two or more clouds (private, community, or public) that remain a unique entity, but have a standardized structure that allows data and application portability. , or coupled by proprietary techniques (e.g., cloud bursting for load balancing across clouds).

クラウド・コンピューティング環境は、ステートレス性、低い結合性、モジュール性、および意味論的な相互運用性に焦点をあてたサービス指向である。クラウド・コンピューティングの中心は、相互接続されたノードのネットワークを含むインフラストラクチャである。 Cloud computing environments are service-oriented with a focus on statelessness, low coupling, modularity, and semantic interoperability. At the heart of cloud computing is an infrastructure that includes a network of interconnected nodes.

次に図4を参照すると、例示的なクラウド・コンピューティング環境50が描かれている。示されるように、クラウド・コンピューティング環境50は、例えば、携帯情報端末(PDA)または携帯電話54A、デスクトップ・コンピュータ54B、ラップトップ・コンピュータ54C、または自動車コンピュータ・システム54Nあるいはその組合せなど、クラウドの消費者によって使用されるローカルのコンピューティング・デバイスと通信することができる1つまたは複数のクラウド・コンピューティング・ノード10を含む。ノード10は互いに通信することができる。これらは、本明細書において上述したようなプライベート、コミュニティ、パブリック、もしくはハイブリッドのクラウド、またはそれらの組合せなど、1つまたは複数のネットワークにおいて、物理的または仮想的にグループ化することができる(図示せず)。これにより、クラウド・コンピューティング環境50は、クラウドの消費者がローカルのコンピューティング・デバイスでリソースを維持する必要のない、インフラストラクチャ、プラットフォーム、またはソフトウェアあるいはその組合せをサービスとして提供することができる。図4に示されるコンピューティング・デバイス54A~Nのタイプは、単に例示的であることを意図されており、コンピューティング・ノード10およびクラウド・コンピューティング環境50は、あらゆるタイプのネットワーク上またはネットワーク・アドレス可能接続で(例えば、ウェブ・ブラウザを使用して)あるいはその両方で、あらゆるタイプのコンピュータ化されたデバイスと通信することができることが理解されよう。 Referring now to FIG. 4, an exemplary cloud computing environment 50 is depicted. As shown, cloud computing environment 50 includes a cloud computing environment such as, for example, a personal digital assistant (PDA) or cell phone 54A, a desktop computer 54B, a laptop computer 54C, and/or a vehicle computer system 54N. It includes one or more cloud computing nodes 10 that can communicate with local computing devices used by consumers. Nodes 10 can communicate with each other. These may be grouped physically or virtually in one or more networks, such as private, community, public, or hybrid clouds, or a combination thereof, as described herein above (Fig. (not shown). This allows cloud computing environment 50 to provide infrastructure, platforms, and/or software as a service that does not require cloud consumers to maintain resources on local computing devices. The types of computing devices 54A-N shown in FIG. It will be appreciated that any type of computerized device may be communicated with an addressable connection (e.g., using a web browser) or both.

次に図5を参照すると、クラウド・コンピューティング環境50(図4)によって提供される機能的な抽象化レイヤのセットが示されている。図5に示されるコンポーネント、レイヤ、および機能は、単に例示的であることを意図されており、本発明の実施形態はそれに限定されないことがまず理解されるべきである。描かれるように、以下のレイヤおよび対応する機能が提供される。 Referring now to FIG. 5, a set of functional abstraction layers provided by cloud computing environment 50 (FIG. 4) is illustrated. It should first be understood that the components, layers, and functionality illustrated in FIG. 5 are intended to be merely exemplary, and embodiments of the invention are not limited thereto. As depicted, the following layers and corresponding functionality are provided:

ハードウェアおよびソフトウェア・レイヤ60は、ハードウェアおよびソフトウェア・コンポーネントを含む。ハードウェア・コンポーネントの例として、以下が挙げられる:メインフレーム61、RISC(縮小命令セット・コンピュータ)アーキテクチャ・ベースのサーバ62、サーバ63、ブレード・サーバ64、ストレージ・デバイス65、ならびにネットワークおよびネットワーキング・コンポーネント66。いくつかの実施形態において、ソフトウェア・コンポーネントとしては、ネットワーク・アプリケーション・サーバ・ソフトウェア67、およびデータベース・ソフトウェア68が挙げられる。 Hardware and software layer 60 includes hardware and software components. Examples of hardware components include: mainframes 61, RISC (Reduced Instruction Set Computer) architecture-based servers 62, servers 63, blade servers 64, storage devices 65, and network and networking Component 66. In some embodiments, software components include network application server software 67 and database software 68.

仮想化レイヤ70は、仮想エンティティの以下の例が提供され得る抽象化レイヤを提供する:仮想サーバ71、仮想ストレージ72、仮想プライベート・ネットワークを含む仮想ネットワーク73、仮想アプリケーションおよびオペレーティング・システム74、ならびに仮想クライアント75。 Virtualization layer 70 provides an abstraction layer on which the following examples of virtual entities may be provided: virtual servers 71, virtual storage 72, virtual networks 73 including virtual private networks, virtual applications and operating systems 74, and Virtual client 75.

一例において、管理レイヤ80は以下で説明される機能を提供することができる。リソース・プロビジョニング81は、コンピューティング・リソースおよびクラウド・コンピューティング環境内でタスクを実施するために利用される他のリソースの動的な調達を提供する。計測および課金82は、クラウド・コンピューティング環境内でリソースが利用される際のコスト追跡、およびこれらのリソースの消費についての課金または請求書発行を提供する。一例において、これらのリソースはアプリケーション・ソフトウェア・ライセンスを含む場合がある。セキュリティは、クラウド消費者およびタスクについての識別情報の検証、ならびにデータおよび他のリソースについての保護を与える。ユーザ・ポータル83は、クラウド・コンピューティング環境へのアクセスを消費者およびシステム管理者に提供する。サービス水準管理84は、要求されるサービス水準が満たされるように、クラウド・コンピューティング・リソースの割り当ておよび管理を提供する。サービス水準合意(SLA)計画および遂行85は、SLAにしたがって将来的な要求が予期されるクラウド・コンピューティング・リソースについての事前申し合わせ、およびクラウド・コンピューティング・リソースの調達を提供する。 In one example, management layer 80 may provide the functionality described below. Resource provisioning 81 provides for dynamic procurement of computing resources and other resources utilized to perform tasks within a cloud computing environment. Metering and billing 82 provides cost tracking as resources are utilized within a cloud computing environment and charging or billing for the consumption of these resources. In one example, these resources may include application software licenses. Security provides verification of identity for cloud consumers and tasks, and protection for data and other resources. User portal 83 provides access to the cloud computing environment to consumers and system administrators. Service level management 84 provides allocation and management of cloud computing resources so that required service levels are met. Service level agreement (SLA) planning and execution 85 provides for advance agreement on anticipated future requirements for cloud computing resources and procurement of cloud computing resources according to the SLA.

ワークロード・レイヤ90は、クラウド・コンピューティング環境が利用され得る機能性の例を提供する。このレイヤからもたらされ得るワークロードおよび機能の例として以下が挙げられる:マッピングおよびナビゲーション91、ソフトウェア開発およびライフサイクル管理92、仮想授業教育配信93、データ分析処理94、トランザクション処理95、およびデータ・ガバナンスおよびXAIプログラム175。 Workload layer 90 provides an example of the functionality with which a cloud computing environment can be utilized. Examples of workloads and functions that can come from this layer include: mapping and navigation 91, software development and lifecycle management 92, virtual classroom instructional delivery 93, data analysis processing 94, transaction processing 95, and data processing. Governance and XAI Program 175.

本発明は、統合のあらゆる可能な技術的詳細レベルにおける、システム、方法、またはコンピュータ・プログラム製品あるいはその組合せであってもよい。本発明は、命令ストリームを処理するあらゆるシステムにおいて、単一または並列に、有益に実用化することができる。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体を含むことができる。 The invention may be a system, method, and/or computer program product at every possible level of technical detail of integration. The invention can be advantageously implemented in any system that processes instruction streams, either singly or in parallel. A computer program product may include a computer readable storage medium having computer readable program instructions for causing a processor to perform aspects of the invention.

コンピュータ可読記憶媒体は、命令実行デバイスによる使用のための命令を保持および記憶することができる有形のデバイスであり得る。コンピュータ可読記憶媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光学ストレージ・デバイス、電磁気ストレージ・デバイス、半導体ストレージ・デバイスまたは前述のあらゆる好適な組合せであってもよいが、それに限定はしない。コンピュータ可読記憶媒体のより具体的な例の非網羅的な列挙としては、以下が挙げられる:ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュ・メモリ)、静的ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み取り専用メモリ(CD-ROM)、デジタル・バーサタイル・ディスク(DVD)、メモリ・スティック、フロッピ・ディスク、命令が記録されたパンチカードまたは溝に刻まれた構造などの機械的にエンコードされたデバイス、および前述のあらゆる好適な組合せ。本明細書において使用される場合、コンピュータ可読記憶媒体またはコンピュータ可読記憶装置は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を介して伝搬する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、または電線を介して伝送される電気的信号など、一過性の信号そのものであると解釈されてはならない。 A computer-readable storage medium may be a tangible device that can retain and store instructions for use by an instruction execution device. The computer readable storage medium may be, for example, but not limited to, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device or any suitable combination of the foregoing. . A non-exhaustive list of more specific examples of computer-readable storage media include: portable computer diskettes, hard disks, random access memory (RAM), read-only memory (ROM), Erasable Programmable Read Only Memory (EPROM or Flash Memory), Static Random Access Memory (SRAM), Portable Compact Disk Read Only Memory (CD-ROM), Digital Versatile Disk (DVD), Memory Mechanically encoded devices such as sticks, floppy disks, punched cards or grooved structures with recorded instructions, and any suitable combinations of the foregoing. As used herein, computer-readable storage medium or computer-readable storage device refers to radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (e.g., fiber optic cables). It should not be construed as a transient signal itself, such as a pulse of light passing through a wire) or an electrical signal transmitted over a wire.

本明細書において説明されるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から、個別のコンピューティング/処理デバイスに、あるいは、例えばインターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワークもしくは無線ネットワークまたはその組合せなどのネットワークを介して、外部のコンピュータまたは外部のストレージ・デバイスに、ダウンロードすることができる。ネットワークは、銅の伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイヤウォール、スイッチ、ゲートウェイ・コンピュータまたはエッジ・サーバあるいはその組合せを含むことができる。それぞれのコンピューティング/処理デバイスのネットワーク・アダプタ・カードまたはネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、個別のコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するためにコンピュータ可読プログラム命令を転送する。 The computer-readable program instructions described herein may be transferred from a computer-readable storage medium to a separate computing/processing device or over a network, such as the Internet, a local area network, a wide area network, or a wireless network or combinations thereof. can be downloaded to an external computer or external storage device, such as through a network. The network may include copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers or edge servers, or combinations thereof. A network adapter card or network interface of each computing/processing device receives computer readable program instructions from the network and receives computer readable program instructions for storage on a computer readable storage medium within the respective computing/processing device. Transfer instructions.

本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、集積回路用の設定データ、あるいはスモールトーク(R)、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語などの手続き型プログラミング言語もしくは類似するプログラミング言語、を含む1つまたは複数のプログラミング言語のあらゆる組合せで記述された、ソース・コードまたはオブジェクト・コードのいずれかであってもよい。コンピュータ可読プログラム命令は、すべてユーザのコンピュータ上で、一部はユーザのコンピュータ上でスタンドアロンのソフトウェア・パッケージとして、一部はユーザのコンピュータ上で一部はリモートのコンピュータ上で、またはすべてリモートのコンピュータ上もしくはサーバ上で、実行することができる。後者のシナリオでは、リモートのコンピュータは、ローカル・エリア・ネットワーク(LAN)もしくはワイド・エリア・ネットワーク(WAN)を含むあらゆるタイプのネットワークを介してユーザのコンピュータに接続することができ、または接続は(例えば、インターネット・サービス・プロバイダを使用するインターネットを介して)外部のコンピュータに対してなされてもよい。一部の実施形態において、例えば、プログラマブル論理回路、フィールドプログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む電子回路は、本発明の態様を実施するために、コンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行して電子回路を個別化することができる。 Computer-readable program instructions for carrying out the operations of the present invention include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state configuration data, configuration data for integrated circuits, or written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk(R), C++, and procedural programming languages such as the "C" programming language or similar programming languages; It may be either source code or object code. The computer-readable program instructions may be executed entirely on a user's computer, partially on a user's computer as a stand-alone software package, partially on a user's computer and partially on a remote computer, or entirely on a remote computer. It can be run on the computer or on the server. In the latter scenario, the remote computer can connect to the user's computer over any type of network, including a local area network (LAN) or wide area network (WAN), or the connection can be It may be made to an external computer (eg, via the Internet using an Internet service provider). In some embodiments, electronic circuits, including, for example, programmable logic circuits, field programmable gate arrays (FPGAs), or programmable logic arrays (PLAs), are provided with computer readable program instructions to implement aspects of the invention. The state information can be used to execute computer readable program instructions to personalize electronic circuits.

本発明の態様は、本発明の実施形態による方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照しながら本明細書において説明される。フローチャート図またはブロック図あるいはその両方のそれぞれのブロック、およびフローチャート図またはブロック図あるいはその両方におけるブロックの組合せは、コンピュータ可読プログラム命令によって実装され得ることを理解されよう。 Aspects of the invention are described herein with reference to flowchart illustrations and/or block diagrams of methods, apparatus (systems), and computer program products according to embodiments of the invention. It will be understood that each block of the flowchart illustrations and/or block diagrams, and combinations of blocks in the flowchart illustrations and/or block diagrams, can be implemented by computer-readable program instructions.

これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラマブル・データ処理装置のプロセッサを介して実行する命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックに指定される機能/作用を実装する手段を作成すべく、汎用コンピュータ、特殊目的コンピュータ、または他のプログラマブル・データ処理装置のプロセッサに提供されて機械を作るものであってよい。これらのコンピュータ可読プログラム命令はまた、命令をまとめて記憶して有するコンピュータ可読記憶媒体が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックに指定される機能/動作の態様を実装する命令を含む製造物品を備えるべく、コンピュータ可読記憶媒体に記憶され、コンピュータ、プログラマブル・データ処理装置、または他のデバイスあるいはその組合せに特定のやり方で機能するように指示するものであってもよい。 These computer readable program instructions may be executed by a processor of a computer or other programmable data processing device to implement the functions/acts specified in one or more blocks of the flowchart diagrams and/or block diagrams. may be provided to a processor of a general purpose computer, special purpose computer, or other programmable data processing device to create a machine. These computer-readable program instructions also provide instructions for a computer-readable storage medium having instructions collectively stored thereon to implement aspects of the functions/operations specified in one or more blocks of the flowcharts and/or block diagrams. may be stored on a computer-readable storage medium to instruct a computer, programmable data processing device, or other device, or combination thereof, to function in a particular manner to provide an article of manufacture that includes an article of manufacture.

コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラマブル装置、または他のデバイスで実行する命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックに指定される機能/作用を実装するように、コンピュータ実装プロセスを作るべく、コンピュータ、他のプログラマブル・データ処理装置、または他のデバイス上にロードされ、コンピュータ、他のプログラマブル装置、または他のデバイス上で一連の動作ステップを実施させるものであってもよい。 Computer-readable program instructions also include instructions for execution by a computer, other programmable apparatus, or other device to implement the functions/acts specified in one or more blocks of the flowcharts and/or block diagrams. , which is loaded onto a computer, other programmable data processing apparatus, or other device to cause a sequence of operational steps to be performed on the computer, other programmable apparatus, or other device to create a computer-implemented process. It's okay.

図面中のフローチャートおよびブロック図は、本発明の様々な実施形態にしたがって、システム、方法、およびコンピュータ・プログラム製品の可能な実装形態の、アーキテクチャ、機能性、および動作を図示している。この点において、フローチャートまたはブロック図のそれぞれのブロックは、指定される論理機能を実装するための1つまたは複数の実行可能な命令を含む、命令のモジュール、セグメント、または部分を表現することができる。一部の代替的な実装形態では、ブロックにおいて示した機能は図面で示した順とは異なって発生してもよい。例えば、連続して示される2つのブロックは、実際には実質的に同時に実行されてもよく、またはブロックは関与する機能性によっては、時に逆の順で実行されてもよい。ブロック図またはフローチャート図あるいはその両方のそれぞれのブロック、およびブロック図またはフローチャート図あるいはその両方のブロックの組合せは、指定される機能もしくは作用を実施する、または特殊目的ハードウェアとコンピュータ命令との組合せを実行する、特殊目的ハードウェア・ベースのシステムによって実装され得ることにも留意されたい。 The flowcharts and block diagrams in the drawings illustrate the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products in accordance with various embodiments of the invention. In this regard, each block of the flowchart or block diagram may represent a module, segment, or portion of instructions, including one or more executable instructions for implementing the specified logical functions. . In some alternative implementations, the functions shown in the blocks may occur out of the order shown in the figures. For example, two blocks shown in succession may actually be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the functionality involved. Each block in the block diagrams and/or flowchart illustrations, and combinations of blocks in the block diagrams and/or flowchart illustrations, perform the functions or acts specified, or combine special purpose hardware and computer instructions. It should also be noted that the execution may be implemented by a special purpose hardware-based system.

本明細書における、「ある実施形態」、「実施形態」、「例示の実施形態」などの参照は、説明される実施形態が、特定の特徴、構造、または特性を含むが、必ずしもすべての実施形態が、その特定の特徴、構造、または特性を含まない場合があることを示す。その上、そのような言い回しは、必ずしも同一の実施形態を指すものではない。さらには、特定の特徴、構造、または特性が、ある実施形態に関連して説明される場合、明示的に記述されているかどうかにかかわらず、他の実施形態に関連してそのような特徴、構造、または特性に影響を及ぼすことは当業者の知識の範囲内であることが示唆される。 References herein to "an embodiment," "embodiment," "illustrative embodiment," etc. refer to the embodiment described as including a particular feature, structure, or characteristic, but not necessarily all implementations. Indicates that a form may not include that particular feature, structure, or characteristic. Moreover, such phrases are not necessarily referring to the same embodiment. Furthermore, when a particular feature, structure, or characteristic is described in the context of one embodiment, such feature, structure, or characteristic is also discussed in the context of other embodiments, whether or not explicitly described. It is suggested that influencing the structure or properties is within the knowledge of those skilled in the art.

本明細書で使用される用語法は、単に特定の実施形態を説明しており、本発明を限定することを意図されていない。本明細書で使用される場合、コンテキストが明確にそうではないと指示しない限り、単数形「1つの(a)」、「1つの(an)」および「その(the)」は複数形も含むように意図されている。用語「を含む(comprise)」または「を含む(comprising)」あるいはその両方は、本明細書で使用される場合、述べられた特徴、整数、ステップ、動作、要素、またはコンポーネントあるいはその組合せの存在を特定するが、1つまたは複数の他の特徴、整数、ステップ、動作、要素、コンポーネントまたはそのグループあるいはその組合せの、存在または追加を排除しないことが、さらに理解されよう。 The terminology used herein merely describes particular embodiments and is not intended to limit the invention. As used herein, the singular forms "a," "an," and "the" include the plural unless the context clearly dictates otherwise. It is intended as such. The terms "comprise" and/or "comprising" as used herein refer to the presence of a stated feature, integer, step, act, element, or component or combination thereof. It will be further understood that specifying does not exclude the presence or addition of one or more other features, integers, steps, acts, elements, components or groups or combinations thereof.

例示を目的として本発明の様々な実施形態の説明を提示してきたが、網羅的であること、または開示された実施形態に限定することは意図されていない。本発明の範囲から逸脱することなく、多くの修正形態および変形形態が当業者にとって明らかとなろう。本明細書において使用される用語法は、実施形態の原理、実践的な用途もしくは市場で見られる技術より優れた技術的な改善を最良に説明するため、または当業者の他の者が本明細書において開示される実施形態を理解できるように選ばれたものである。 Descriptions of various embodiments of the invention have been presented for purposes of illustration and are not intended to be exhaustive or limited to the disclosed embodiments. Many modifications and variations will be apparent to those skilled in the art without departing from the scope of the invention. The terminology used herein is used to best explain the principles of the embodiments, their practical application or technical improvements over technology found in the marketplace, or to explain the principles of the embodiments, practical applications, or technical improvements over technology found in the marketplace, or as otherwise known by others of ordinary skill in the art. have been chosen to provide an understanding of the embodiments disclosed in the book.

Claims (20)

再現可能な機械学習(ML)モデル結果を提供するためのコンピュータ実装方法であって、前記方法が、
1つまたは複数のコンピュータ・プロセッサによって、MLモデルのための入力データを受信することと、
前記1つまたは複数のコンピュータ・プロセッサによって、前記MLモデルを使用して前記入力データを処理し、初期結果を生じることと、
前記1つまたは複数のコンピュータ・プロセッサによって、第1のブロックを分散台帳に追加することであって、前記第1のブロックが、前記入力データ、前記初期結果、MLモデル・データ構造、および前記MLモデルのための訓練データへのリンクを含み、前記訓練データが先行分散台帳ブロックに存在する、前記追加することと、
前記1つまたは複数のコンピュータ・プロセッサによって、前記初期結果を含む出力を提供することと
を含む、コンピュータ実装方法。
A computer-implemented method for providing reproducible machine learning (ML) model results, the method comprising:
receiving input data for the ML model by one or more computer processors;
processing the input data using the ML model to produce an initial result by the one or more computer processors;
adding a first block to a distributed ledger by the one or more computer processors, the first block including the input data, the initial result, the ML model data structure, and the ML model data structure; said adding a link to training data for the model, said training data being present in a preceding distributed ledger block;
providing, by the one or more computer processors, an output that includes the initial result.
前記1つまたは複数のコンピュータ・プロセッサによって、前記入力データに関する結果検証要求を受信することと、
前記1つまたは複数のコンピュータ・プロセッサによって、前記入力データ、前記初期結果、および前記MLモデル・データ構造を前記第1のブロックから検索することと、
前記1つまたは複数のコンピュータ・プロセッサによって、前記MLモデル・データ構造を使用して前記入力データを処理し、検証結果を生じることと、
前記1つまたは複数のコンピュータ・プロセッサによって、前記初期結果および前記検証結果を出力として提供することと
をさらに含む、請求項1に記載のコンピュータ実装方法。
receiving, by the one or more computer processors, a result validation request regarding the input data;
retrieving the input data, the initial result, and the ML model data structure from the first block by the one or more computer processors;
processing the input data using the ML model data structure to produce a verification result by the one or more computer processors;
2. The computer-implemented method of claim 1, further comprising providing the initial result and the verification result as output by the one or more computer processors.
前記1つまたは複数のコンピュータ・プロセッサによって、MLモデル説明を出力として提供すること
をさらに含む、請求項2に記載のコンピュータ実装方法。
3. The computer-implemented method of claim 2, further comprising providing an ML model description as output by the one or more computer processors.
前記1つまたは複数のコンピュータ・プロセッサによって、MLモデル説明を出力として提供すること
をさらに含み、前記第1のブロックが、前記MLモデル説明をさらに含む、請求項1に記載のコンピュータ実装方法。
2. The computer-implemented method of claim 1, further comprising providing an ML model description as an output by the one or more computer processors, and wherein the first block further includes the ML model description.
前記第1のブロックが、MLモデル・バージョン・ラベルをさらに含む、請求項1に記載のコンピュータ実装方法。 The computer-implemented method of claim 1, wherein the first block further includes an ML model version label. 前記1つまたは複数のコンピュータ・プロセッサによって、前記入力データおよび結果を使用して前記MLモデルを更新し、新規MLモデル・バージョンを生じることと、
前記1つまたは複数のコンピュータ・プロセッサによって、第2のブロックを前記分散台帳に追加することであって、前記第2のブロックが、前記新規MLモデル・バージョンに関連付けられたラベル、前記入力データ、前記初期結果、新規MLモデル・データ構造、および先行バージョンMLモデルのための訓練データへのリンクを含む、前記追加することと
をさらに含む、請求項1に記載のコンピュータ実装方法。
updating, by the one or more computer processors, the ML model using the input data and results to result in a new ML model version;
adding, by the one or more computer processors, a second block to the distributed ledger, the second block including a label associated with the new ML model version, the input data; 2. The computer-implemented method of claim 1, further comprising said adding a link to training data for said initial result, new ML model data structure, and previous version ML model.
前記1つまたは複数のコンピュータ・プロセッサによって、前記第1のブロックと前記入力データに関連付けられたユーザとを分散台帳エントリを通じてリンクすることであって、前記分散台帳エントリによって前記ユーザが前記初期結果の検証を要求することができる、前記リンクすることをさらに含む、請求項1に記載のコンピュータ実装方法。 linking, by the one or more computer processors, the first block and a user associated with the input data through a distributed ledger entry, the distributed ledger entry allowing the user to obtain information about the initial result; 2. The computer-implemented method of claim 1, further comprising the linking, which can require verification. 再現可能な機械学習(ML)モデル結果を提供するためのコンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は、1つまたは複数のコンピュータ可読記憶装置と、前記1つまたは複数のコンピュータ可読記憶装置にまとめて記憶されたプログラム命令とを含み、前記記憶されたプログラム命令が、
MLモデルのための入力データを受信するためのプログラム命令と、
前記MLモデルを使用して前記入力データを処理し、初期結果を生じるためのプログラム命令と、
第1のブロックを分散台帳に追加するためのプログラム命令であって、前記第1のブロックが、前記入力データ、前記初期結果、MLモデル・データ構造、および前記MLモデルのための訓練データへのリンクを含み、前記訓練データが先行分散台帳ブロックに存在する、前記追加するためのプログラム命令と、
前記初期結果を含む出力を提供するためのプログラム命令と
を含む、コンピュータ・プログラム製品。
A computer program product for providing reproducible machine learning (ML) model results, the computer program product comprising one or more computer readable storage devices and one or more computer readable storage devices. program instructions collectively stored on the device, the stored program instructions comprising:
program instructions for receiving input data for the ML model;
program instructions for processing the input data using the ML model and producing an initial result;
Program instructions for adding a first block to a distributed ledger, the first block including input data, an initial result, an ML model data structure, and training data for the ML model. program instructions for said adding, the training data being present in a preceding distributed ledger block;
and program instructions for providing output including said initial result.
前記記憶されたプログラム命令が、
前記入力データに関する結果検証要求を受信するためのプログラム命令と、
前記入力データ、前記初期結果、および前記MLモデル・データ構造を前記第1のブロックから検索するためのプログラム命令と、
前記MLモデルを使用して前記入力データを処理し、検証結果を生じるためのプログラム命令と、
前記初期結果および前記検証結果を出力として提供するためのプログラム命令と
をさらに含む、請求項8に記載のコンピュータ・プログラム製品。
The stored program instructions are
program instructions for receiving a result verification request regarding the input data;
program instructions for retrieving the input data, the initial result, and the ML model data structure from the first block;
program instructions for processing the input data using the ML model and producing a verification result;
9. The computer program product of claim 8, further comprising program instructions for providing the initial results and the verification results as output.
前記記憶されたプログラム命令が、
MLモデル説明を出力として提供するためのプログラム命令
をさらに含む、請求項9に記載のコンピュータ・プログラム製品。
The stored program instructions are
10. The computer program product of claim 9, further comprising program instructions for providing an ML model description as output.
前記記憶されたプログラム命令が、
MLモデル説明を出力として提供するためのプログラム命令
をさらに含み、前記第1のブロックが、前記MLモデル説明をさらに含む、請求項8に記載のコンピュータ・プログラム製品。
The stored program instructions are
9. The computer program product of claim 8, further comprising program instructions for providing an ML model description as output, the first block further comprising the ML model description.
前記第1のブロックが、MLモデル・バージョン・ラベルをさらに含む、請求項8に記載のコンピュータ・プログラム製品。 9. The computer program product of claim 8, wherein the first block further includes an ML model version label. 前記記憶されたプログラム命令が、
前記入力データおよび結果を使用して前記MLモデルを更新し、新規MLモデル・バージョンを生じるためのプログラム命令と
第2のブロックを前記分散台帳に追加するためのプログラム命令であって、前記第2のブロックが、前記新規MLモデル・バージョン、前記入力データ、前記初期結果、新規MLモデル・データ構造、および先行バージョンMLモデルのための訓練データへのリンクを含む、前記追加するためのプログラム命令と
をさらに含む、請求項8に記載のコンピュータ・プログラム製品。
The stored program instructions are
program instructions for updating the ML model using the input data and results, resulting in a new ML model version; and program instructions for adding a second block to the distributed ledger, wherein the second the program instructions for adding the new ML model version, the input data, the initial results, the new ML model data structure, and a link to training data for the previous version ML model; 9. The computer program product of claim 8, further comprising:
前記記憶されたプログラム命令が、前記第1のブロックと前記入力データに関連付けられたユーザとを分散台帳エントリを通じてリンクするためのプログラム命令であって、前記分散台帳エントリによって前記ユーザが前記初期結果の検証を要求することができる、前記リンクするためのプログラム命令をさらに含む、請求項8に記載のコンピュータ・プログラム製品。 The stored program instructions are program instructions for linking the first block and a user associated with the input data through a distributed ledger entry, wherein the distributed ledger entry allows the user to obtain information about the initial result. 9. The computer program product of claim 8, further comprising program instructions for said linking that can require verification. 再現可能な機械学習(ML)モデル結果を提供するためのコンピュータ・システムであって、前記コンピュータ・システムが、
1つまたは複数のコンピュータ・プロセッサと、
1つまたは複数のコンピュータ可読記憶装置と、
前記1つまたは複数のコンピュータ・プロセッサによる実行のために、前記1つまたは複数のコンピュータ可読記憶装置に記憶されたプログラム命令であり、前記記憶されたプログラム命令が、
MLモデルのための入力データを受信するためのプログラム命令と、
前記MLモデルを使用して前記入力データを処理し、初期結果を生じるためのプログラム命令と、
第1のブロックを分散台帳に追加するためのプログラム命令であって、前記第1のブロックが、前記入力データ、前記初期結果、MLモデル・データ構造、および前記MLモデルのための訓練データへのリンクを含み、前記訓練データが先行分散台帳ブロックに存在する、前記追加するためのプログラム命令と、
前記初期結果を含む出力を提供するためのプログラム命令と
を含む、前記記憶されたプログラム命令と
を含む、コンピュータ・システム。
A computer system for providing reproducible machine learning (ML) model results, the computer system comprising:
one or more computer processors;
one or more computer readable storage devices;
program instructions stored in the one or more computer readable storage devices for execution by the one or more computer processors, the stored program instructions comprising:
program instructions for receiving input data for the ML model;
program instructions for processing the input data using the ML model and producing an initial result;
Program instructions for adding a first block to a distributed ledger, the first block including input data, an initial result, an ML model data structure, and training data for the ML model. program instructions for said adding, the training data being present in a preceding distributed ledger block;
and said stored program instructions for providing an output including said initial result.
前記記憶されたプログラム命令が、
前記入力データに関する結果検証要求を受信するためのプログラム命令と、
前記入力データ、前記初期結果、および前記MLモデル・データ構造を前記第1のブロックから検索するためのプログラム命令と、
前記MLモデルを使用して前記入力データを処理し、検証結果を生じるためのプログラム命令と、
前記初期結果および前記検証結果を出力として提供するためのプログラム命令と
をさらに含む、請求項15に記載のコンピュータ・システム。
The stored program instructions are
program instructions for receiving a result verification request regarding the input data;
program instructions for retrieving the input data, the initial result, and the ML model data structure from the first block;
program instructions for processing the input data using the ML model and producing a verification result;
16. The computer system of claim 15, further comprising program instructions for providing the initial results and the verification results as output.
前記記憶されたプログラム命令が、
MLモデル説明を出力として提供するためのプログラム命令
をさらに含む、請求項16に記載のコンピュータ・システム。
The stored program instructions are
17. The computer system of claim 16, further comprising program instructions for providing an ML model description as output.
前記記憶されたプログラム命令が、
MLモデル説明を出力として提供するためのプログラム命令
をさらに含み、前記第1のブロックが、前記MLモデル説明をさらに含む、請求項15に記載のコンピュータ・システム。
The stored program instructions are
16. The computer system of claim 15, further comprising program instructions for providing an ML model description as output, the first block further comprising the ML model description.
前記記憶されたプログラム命令が、
前記入力データおよび結果を使用して前記MLモデルを更新し、新規MLモデル・バージョンを生じるためのプログラム命令と
第2のブロックを前記分散台帳に追加するためのプログラム命令であって、前記第2のブロックが、前記新規MLモデル・バージョン、前記入力データ、前記初期結果、新規MLモデル・データ構造、および先行バージョンMLモデルのための訓練データへのリンクを含む、前記追加するためのプログラム命令と
をさらに含む、請求項15に記載のコンピュータ・システム。
The stored program instructions are
program instructions for updating the ML model using the input data and results, resulting in a new ML model version; and program instructions for adding a second block to the distributed ledger, wherein the second the program instructions for adding the new ML model version, the input data, the initial results, the new ML model data structure, and a link to training data for the previous version ML model; 16. The computer system of claim 15, further comprising:
前記記憶されたプログラム命令が、前記第1のブロックと前記入力データに関連付けられたユーザとを分散台帳エントリを通じてリンクするためのプログラム命令であって、前記分散台帳エントリによって前記ユーザが前記初期結果の検証を要求することができる、前記リンクするためのプログラム命令をさらに含む、請求項15に記載のコンピュータ・システム。 The stored program instructions are program instructions for linking the first block and a user associated with the input data through a distributed ledger entry, wherein the distributed ledger entry allows the user to obtain information about the initial result. 16. The computer system of claim 15, further comprising program instructions for said linking that can require verification.
JP2023536415A 2020-12-18 2021-11-16 Delivering explainable machine learning model results using a distributed ledger Pending JP2023553676A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/126,091 2020-12-18
US17/126,091 US20220198304A1 (en) 2020-12-18 2020-12-18 Providing explainable machine learning model results using distributed ledgers
PCT/CN2021/130936 WO2022127474A1 (en) 2020-12-18 2021-11-16 Providing explainable machine learning model results using distributed ledgers

Publications (1)

Publication Number Publication Date
JP2023553676A true JP2023553676A (en) 2023-12-25

Family

ID=82023582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023536415A Pending JP2023553676A (en) 2020-12-18 2021-11-16 Delivering explainable machine learning model results using a distributed ledger

Country Status (5)

Country Link
US (1) US20220198304A1 (en)
JP (1) JP2023553676A (en)
CN (1) CN116601644A (en)
GB (1) GB2617945A (en)
WO (1) WO2022127474A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220215931A1 (en) * 2021-01-06 2022-07-07 Optum Technology, Inc. Generating multi-dimensional recommendation data objects based on decentralized crowd sourcing
US11831421B2 (en) * 2021-12-02 2023-11-28 Microsoft Technology Licensing, Llc Deploying a function in a hybrid cloud

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10497105B2 (en) * 2017-11-01 2019-12-03 Google Llc Digital image auto exposure adjustment
CN109615015A (en) * 2018-12-18 2019-04-12 北京工业大学 A kind of data preprocessing method based on block chain intelligence contract and machine learning
CN109670583A (en) * 2018-12-27 2019-04-23 浙江省公众信息产业有限公司 Data analysing method, system and the medium of decentralization
CN110991622B (en) * 2019-08-22 2021-06-04 腾讯科技(深圳)有限公司 Machine learning model processing method based on block chain network and node
US11922280B2 (en) * 2019-12-10 2024-03-05 Arthur AI, Inc. Machine learning monitoring systems and methods
US11868911B1 (en) * 2020-03-05 2024-01-09 American Express Travel Related Services Company, Inc. Distributed ledger based machine-learning model management

Also Published As

Publication number Publication date
WO2022127474A1 (en) 2022-06-23
CN116601644A (en) 2023-08-15
GB2617945A (en) 2023-10-25
US20220198304A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
US20210073289A1 (en) Event-based entity scoring in distributed systems
US10812254B2 (en) Identity confidence score based on blockchain based attributes
EP4010814A1 (en) Graph-manipulation based domain-specific execution environment
CN115769241A (en) Privacy preserving architecture for licensed blockchains
US20220139246A1 (en) Generating and rating user assessments
WO2022127474A1 (en) Providing explainable machine learning model results using distributed ledgers
US20210273992A1 (en) Automated storage selection with blockchain and nlp
US11178022B2 (en) Evidence mining for compliance management
CN114371857A (en) Digital twin enabled asset performance and upgrade management
US11386090B2 (en) Defining attribute feature vectors for matching data entities
CN117396891A (en) Data distribution and security in a multi-tiered storage infrastructure
US11151308B2 (en) Electronic document processing system
US11334333B1 (en) Generation of adaptive configuration files to satisfy compliance
WO2022034475A1 (en) Using meta-learning to optimize automatic selection of machine learning pipelines
US11797869B2 (en) Artificial intelligence facilitation of report generation, population and information prompting
KR20230132878A (en) Reduce transaction cancellations in execute-order-verify blockchain models
US11558395B2 (en) Restricting access to cognitive insights
US11481212B2 (en) Automatic identification of reference data
US11782823B2 (en) Automatically capturing weather data during engineering tests
GB2604000A (en) Blockchain selective world state database
JP2023520634A (en) Maintaining contextual integrity
US20210034591A1 (en) Defining indexing fields for matching data entities
US20230027115A1 (en) Event-based record matching
US20220076079A1 (en) Distributed machine learning scoring
US11743327B2 (en) Topological ordering of blockchain associated proposals

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240411