JP2024500182A - 説明可能なトランスデューサ・トランスフォーマ - Google Patents

説明可能なトランスデューサ・トランスフォーマ Download PDF

Info

Publication number
JP2024500182A
JP2024500182A JP2023561916A JP2023561916A JP2024500182A JP 2024500182 A JP2024500182 A JP 2024500182A JP 2023561916 A JP2023561916 A JP 2023561916A JP 2023561916 A JP2023561916 A JP 2023561916A JP 2024500182 A JP2024500182 A JP 2024500182A
Authority
JP
Japan
Prior art keywords
xtt
explainable
input
data
optionally
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023561916A
Other languages
English (en)
Inventor
アンジェロ ダリ
マシュー グレッチ
マウロ ピローネ
Original Assignee
ウムナイ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウムナイ リミテッド filed Critical ウムナイ リミテッド
Publication of JP2024500182A publication Critical patent/JP2024500182A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/042Backward inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)
  • Complex Calculations (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Measuring Fluid Pressure (AREA)

Abstract

説明可能なトランスデューサ・トランスフォーマ(XTT)は、説明可能なトランスフォーマと共に有限状態トランスデューサとすることができる。XTTの変形は、説明可能なトランスフォーマ-エンコーダおよび説明可能なトランスフォーマ-デコーダを含むことができる。例示的な説明可能なトランスデューサは、訓練済み説明可能なニューラルネットワーク(XNN)アーキテクチャまたは論理的に等価なアーキテクチャにおける部分置換として使用され得る。説明可能なトランスフォーマは、トランスフォーマのエンコーダおよびデコーダレイヤの両方のサブレイヤにおいて、トランスフォーマのブラックボックスモデルコンポーネントをホワイトボックスモデル等価物と置換することができる。XTTは、回答、説明、およびその正当化理由の解釈を生成するために、説明を生成し、そのような説明をフィルタリングする説明および解釈生成システム(EIGS)を利用することができる。

Description

例示的な実施形態は機械学習システムの分野に関する。
トランスデューサは、機械学習システムが、データを入力言語から第2の出力言語に翻訳、マッピング、および変換することを可能にする基本モデルの1つである。有限状態トランスデューサ(FST:finite state transduser)は、2つ以上のテープに対して働く有限状態オートマトンであり、単一テープに対して働く平易な有限状態オートマタ(FSA:finite state automata)より一般的である。FSTは、ストリングのセット間の関係を規定し、したがって、2つの別個の入力および出力セットにおいて生じるストリング間の基本トランスレータまたはトランスフォーマとして扱われ得る。
有限状態トランスデューサ(FST)は、図1に示すように、6タプル
Figure 2024500182000002
として規定され得、ここで、Κは状態の有限セットを指し、Σは入力シンボルのアルファベットを指し、
Figure 2024500182000003
は出力シンボルのアルファベットを指し、sは、s∈Κであるような開始状態を指し、γは、
Figure 2024500182000004
であるような出力関数を指し、Δは遷移関数を指す。有限状態トランスデューサは、1つのテープを別のテープに翻訳することができる有限状態オートマトンである。形式的方法で、入力テープおよび出力テープは切り換えられ得、したがって、有限状態トランスデューサは2方向である。図1に示す例示的なFSTにおいて、終端状態120をもたらす4つの遷移経路100、105、110、および115が存在する。さらなる有限状態シンタックスは、FST内で強力な照合(matching)および変換ルールを表現するために付加され得る(Karttunen、2000)。
有限状態トランスデューサ(FST)は、入力言語を別の言語に翻訳するための基本コンポーネントとすることができる。トランスフォーマ(Vaswani等、2017)は、自然言語処理(NLP:Natural Language Processing)および画像分類等の、種々の分野における現況技術の結果を提供するアテンションベースアーキテクチャを有するFSTの自然進化とすることができる。トランスフォーマは、クエリ、キー、および値を同時に計算すること等の、そのコンポーネントの並列化のせいで、LSTMアーキテクチャおよびCNNアーキテクチャ等の他のアーキテクチャと比べて、著しく少ない訓練するための時間を必要とする。
トランスフォーマアーキテクチャは、エンコーダコンポーネントおよびデコーダコンポーネントに分割され得る。
エンコーダコンポーネントへの入力は、入力トークンの入力埋め込みおよび位置エンコーディングの合計を含むことができる。入力トークンが、順次挿入され、したがって、入力トークンの順序を保持する再帰型ニューラルネットワーク等のシーケンシャルアーキテクチャと違って、トランスフォーマ(Vaswani等、2017)において、単語の順序の概念が存在しないため、位置エンコーディングが必要とされる。エンコーダレイヤのアーキテクチャは、トランスフォーマ(Vaswani等、2017)アーキテクチャに示すように、2つのサブレイヤを含むことができる。第1のサブレイヤは、図2に示すように、マルチヘッドアテンションコンポーネント215と、それに続く加算および正規化コンポーネント217を含むことができる。第2のサブレイヤは、フィードフォワードニューラルネットワークコンポーネント230と、それに続く加算および正規化コンポーネント232を含むことができる。マルチヘッドアテンションコンポーネントは、スケーリングされたドット積アテンション(Vaswani等、2017)の複数のインスタンスを含むことができ、各インスタンスは、モデルの一般化を改善するためにそれ自身の重みを有する。各インスタンス{z0、...、zn}の出力行列は、重み行列W0によって連結され乗算され、出力行列をもたらす。
デコーダレイヤのアーキテクチャは、トランスフォーマ(Vaswani等、2017)アーキテクチャに示すように、3つのサブレイヤを含むことができる。第1のサブレイヤは、マスク付きマルチヘッドアテンションコンポーネント250と、それに続く加算および正規化コンポーネント252からなる。第2のサブレイヤは、マルチヘッドアテンション(エンコーダ-デコーダ)コンポーネント240と、それに続く加算および正規化コンポーネント242からなる。第3のサブレイヤは、図2に示すように、フィードフォワードネットワークコンポーネント270と、それに続く加算および正規化コンポーネント272からなる。エンコーダ-デコーダアテンションコンポーネントは、マルチヘッドアテンションコンポーネントと同様である。しかしながら、クエリベクトルQは、デコーダレイヤの直前のサブレイヤからのものであり、キーベクトルΚおよび値ベクトルVは、最終エンコーダレイヤの出力から取り出される。マスク付きマルチヘッドアテンションコンポーネントは、セルフアテンションレイヤが、入力トークンのより早期の位置に対応することを許可されるだけであるような修正を有するマルチヘッドアテンションコンポーネントである。デコーダレイヤの出力は、予測されるトークンを示す出力ボキャブラリの確率290を生成するために、線形レイヤ280と、それに続くSoftMax計算に接続され得る。デコーダコンポーネントへの入力は、出力トークン260のトークン埋め込みおよび位置エンコーディング295を含むことができる。
トランスフォーマ(Vaswani等、2017)アーキテクチャのコアコンポーネントはアテンションコンポーネントである。トランスフォーマは、3つのタイプのアテンションメカニズム:エンコーダセルフアテンション、デコーダセルフアテンション、およびエンコーダ-デコーダセルフアテンションを有することができる。エンコーダセルフアテンションの入力は、トランスフォーマのソース入力トークンまたは直前のエンコーダレイヤの出力である。エンコーダセルフアテンションコンポーネントは、マスキングを持たず、各トークンは、他の入力トークンとのグローバル依存性を有する。デコーダセルフアテンションコンポーネントは、入力トークンとしてトランスフォーマの出力トークンをまたは直前のデコーダレイヤの出力を使用する。デコーダセルフアテンションにおいて、入力トークンは、直前の入力トークンに依存する。エンコーダ-デコーダアテンションコンポーネントにおいて、クエリはデコーダレイヤの直前のコンポーネントから取り出され、キーおよび値はエンコーダの出力から取り出される。
セルフアテンション用の入力inpq、inpw、およびinpkは、エンコーダ-デコーダアテンションの他に、トランスフォーマにおいて同一である。トランスフォーマにおいて提示されるセルフアテンションは、式1に示すように示され得る。
Figure 2024500182000005
ここで、Qはクエリのセットからなる行列を指し、Kはキーのセットからなる行列を指し、Vは値のセットからなる行列を指し、dkは、キーおよびクエリの次元を指す。
Tsai等(2019)における研究は、カーネルのレンズから、トランスフォーマにおけるアテンションメカニズムの新しい定式化を提示する。Tsai等(2019)は、カーネル定式化において、マスクメカニズムとしてフィルタリング関数Mを使用する。フィルタリング関数Mは、トランスフォーマのデコーダモジュールにおいてセルフアテンションのマスキングのために必要とされ得る。Tsai等(2019)は、カスタマイズ性を導入することによるアテンションメカニズムのよりよい理解、および、カーネル特徴量空間、カーネルの構築、位置埋め込み、価値関数(value function)、およびフィルタリング関数の組み込み等のアテンションコンポーネントのよりよい理解を可能にする。
トランスフォーマからの2方向エンコーダ表現(BERT:Bi-directional Encoder Representations from Transformer)(Devlin等、2018)は、自己教師ありアプローチにおいて入力トークンの2方向コンテキスト表現を構築するように設計された、トランスフォーマ(Vaswani等、2017)のエンコーダコンポーネントに基づくアーキテクチャである。
BERT(Devlin等、2018)は、マスク付き入力トークンの元のトークンを予測するため、ランダム入力トークンをランダムにマスクし、事前訓練目的を設定するためにマスク付き言語モデリングを使用する。BERTは、典型的に入力トークンの15%をランダムにマスクする。ランダムにマスクされた入力トークンは、[MASK]トークンによって置換される80%可能性、別のランダムトークンによって置換される10%可能性、不変のままである10%可能性を有する。BERT(Devlin等、2018)は、第2の入力センテンスが第1の入力センテンスの次のセンテンスであるか否かを予測するために、事前訓練目的として次センテンス予測(NSP:next sentence prediction)を使用することもできる。これは、質問応答予測(Question-Answering prediction)等の複数の下流タスクについて有用である。NSP事前訓練目的は、入力の第2のセンテンスが第1の入力センテンスに続く実際のセンテンスであるという50%可能性、および、入力の第2のセンテンスが訓練用データセットからのランダムなセンテンスであるという50%可能性を有することができる。
BERTは、入力トークンについて単語ピース埋め込み(WordPiece embedding)(Wu等、2016)を使用する。入力トークンの単語ピース埋め込みは、セグメント埋め込みおよび位置埋め込みと合計(sum)されて、BERT入力を作成する。BERTは、選択されたタスクの微調整済みモデルを構築するために、教師あり分類等のアプローチを使用して、下流のタスクに対して同様に微調整され得る。
コンテキスト化オブジェクト埋め込み(COBE:Contextualized Object Embedding)等の埋め込みは、非テキスト情報を示すこともでき、非テキスト情報は、オブジェクトおよびその関連するナレーションのコンテキスト化単語埋め込みを予測するためにビジュアル検出器を使用するナレーション付き教育ビデオから抽出される(BertasiusおよびTorresani、2020)。
ELMo(Peters等、2018)は、言語的コンテキストおよび構文および意味特性を考慮する単語表現を構築する。生成される単語表現は、2方向言語モデルの内部状態から取り出される。
生成的事前訓練済みトランスフォーマ(GPT:Generative pre-trained Transformer)(Radford等、2018)は、ラベルなしテキストの大きいコーパス上でモデルを学習するように設計され、ラベル付きデータを用いる分類タスクに適応するために微調整用のモデルを使用する、トランスフォーマ(Vaswani等、2017)の変形(Liu等、2018)のデコーダコンポーネントに基づくアーキテクチャである。GPT事前訓練目的は、方程式2に示すように、尤度を最大にすることである。
ΣilogP(ui|ui-k、...、ui-1:Θ) (2)
ここで、Pは、それぞれのパラメータΘを有するニューラルネットワークアーキテクチャを使用してモデル化される条件付き確率であり、uは、U={u1、...、un}であるようなラベルなしコーパスU内のトークンであり、kは、GPTアーキテクチャの入力コンテキストウィンドウである。
訓練済みGPTアーキテクチャは、分類ラベルを予測し、方程式3に示す目的を最大にするために、線形レイヤを追加することによってスーパービジョンタスクについて微調整される。
Σ(x,y)logP(y|x1、...、xm) (3)
ここで、Pは条件付き確率であり、yは分類ラベルであり、{x1、...、xm}は入力トークンである。
Hoover等(2019)は、EXBERT、BERTアテンションメカニズムを理解するために使用される対話型ツールを提示する。EXBERTは、学習されたコンテキスト表現に関する洞察を提供することによって、潜在的帰納バイアス(potential inductive bias)を示すことができる。入力シーケンスinputs(ここで、inputs=[トークン1、トークン2、...、トークンn])のアテンションは、n×n行列として規定され得る。EXBERTは、上位50の照合を取り出すためにコサイン類似度を使用してコーパス内で特定のトークンを検索する機能、および、検索されたコーパスにおけるPOSおよびNER等の照合されたメタデータの要約の表示と共に、任意のエンコーダレイヤ、アテンションヘッド、または集約アテンション値において、入力シーケンスのアテンション関係をn×n行列として示す。
木トランスフォーマ(Wang等、2019)は、木ベース階層構造に追従するために、アテンションヘッドに対する制約を有するエンコーダベーストランスフォーマアーキテクチャである。制約は、コーパスから木構造を学習するために構成アテンションモジュールを使用して実施される。木トランスフォーマレイヤは、マルチヘッドアテンションサブレイヤ、構成アテンションモジュール、およびフィードフォワードサブレイヤからなる。構成事前物(Constituent priors)は、構成アテンションモジュールによって計算される。マルチヘッドアテンションのアテンションは、構成事前物によって誘導される。構成アテンションモジュールは、シーケンスu={u1、u2、...、un}を生成することによって構成事前物を生成する。u内の要素は、それぞれの入力トークン(例えば、w1)およびその近傍のトークン(例えば、w2)が同じ構成ブロックに属するという確率を示す。ブレイクポイントは、小さい確率値によって示され、新しい構成ブロックの構築をトリガーする。シーケンスuは、近傍アテンションおよび階層的制約を使用して構築される。木トランスフォーマ法は、グレイボックス法として分類され得、したがって、活性化経路のトレースは、可能でないことになる。本発明者等の提案する方法は、グローバルおよびローカルな説明を生成するためにトランスフォーマベースアーキテクチャ内にホワイトボックスコンポーネントを導入する。
EQトランスフォーマ(Mousavi等、2020)は、階層的アテンティブモデル(hierarchical attentive model)に基づいて、地震検出のためにエンコーダおよび3つのデコーダを使用する。エンコーダへの入力は、時間的依存性のコンテキスト表現を生成するために震動信号(seismic shignal)を含む。デコーダは、この学習された情報を使用して、その情報を、各時点について、地震信号、P相、およびS相の存在に関連付けられる確率ベクトルにマッピングする。
トランスフォーマアーキテクチャは、画像合成(Weissenborn等、2020)、複数オブジェクト追跡(Zhang等、2020)、ミュージック生成(Huang等、2018)、3Dオブジェクト検出(Yang等、2019)、ポイントクラウド処理(Guo等、2020)、時系列予報(Lim等、2020)、ビジョン言語モデリング(Li等、2019)、およびエンド-ツー-エンドオブジェクト検出(Zhu等、2020)のために使用され得る。
トランスフォーマアーキテクチャはブラックボックス機械学習モデルである。トランスフォーマ(Vaswani等、2017)、BERT(Devlin等、2018)、およびGPT(Radford等、2018)におけるブラックボックスフィードフォワードニューラルネットワークコンポーネントは、生成される予測に対して説明を提供することができない。事前訓練中にトランスフォーマの内部で学習されたアテンションは、ブラックボックスのままであり、階層構造の人間直感を捕捉することができない。EXBERTは、学習されたアテンションの或る程度の事後分析を提供する、しかしながら、トランスフォーマベースアーキテクチャは、依然としてブラックボックスモデルのままである。本発明者等の提案する方法は、グローバルおよびローカルな説明を生成するためにトランスフォーマベースアーキテクチャ内にホワイトボックスコンポーネントを導入する。
少なくとも1つの例示的な実施形態によれば、説明可能なトランスデューサおよび説明可能なトランスフォーマのための方法、システム、および装置が示され説明され得る。
トランスデューサは、機械学習システムが、入力言語からのデータを第2の出力言語に翻訳、マッピング、および変換することを可能にすることができる。トランスデューサは、有限状態トランスデューサ(FST:Finite State Transducer)としてしばしば実施される。
例示的なトランスフォーマは、デコーダおよびエンコーダコンポーネントの組み合わせに基づくアテンションベースアーキテクチャとすることができ、種々の機械学習アプリケーションにおける現況技術の結果を提供することができる。トランスフォーマは、アテンションベースアーキテクチャを有するFSTの洗練された進化として考えられ得る。
例示的な実施形態は、例示的な説明可能なトランスデューサ・トランスフォーマ(XTT:Explainable Transducer Transformer)を生成するためにFSTを説明可能なトランスフォーマと組み合わせることができる。説明可能なトランスフォーマ-エンコーダおよび説明可能なトランスフォーマ-デコーダ等のXTT変形が企図され得る。
例示的な説明可能なトランスデューサは、訓練済みの説明可能なニューラルネットワーク(XNN:Explainable Neural Network)アーキテクチャまたは論理的に等価なアーキテクチャにおける部分置換として使用され得る。
例示的な説明可能なトランスフォーマは、トランスフォーマのエンコーダおよびデコーダレイヤの両方のサブレイヤにおいて、トランスフォーマのブラックボックスモデルコンポーネントをホワイトボックスモデル等価物と置換する。
XTTは、回答、説明、およびその正当化理由の解釈を生成するために、説明を生成し、説明をフィルタリングする説明および解釈生成システム(EIGS:Explanation and Interpretation Generation System)を利用することができる。
第1の態様において、本開示は、説明可能な機械学習システムを提供し、説明可能な機械学習システムは、機械学習システムが、入力言語からのデータを第2の出力言語に翻訳、マッピング、および変換することを可能にするように構成される有限状態トランスデューサ、FSTを備え、有限状態トランスデューサは、変換のために使用される1つまたは複数の入力特徴量を含む入力言語からの上記データを受信するまたは上記1つまたは複数の入力特徴量を変換するように適合され、有限状態トランスデューサは、上記1つまたは複数の入力特徴量に基づいて翻訳、マッピング、および/または変換されたデータを第2の出力言語として提供するようにさらに構成され、および/または、入力言語からの上記データに関連して形成されたデコーダおよびエンコーダコンポーネントの組み合わせに基づくアテンションベースアーキテクチャを有する説明可能なトランスフォーマを備え、有限状態トランスデューサおよび説明可能なトランスフォーマは、入力言語からの上記データを翻訳、マッピング、および/または変換するように構成される説明可能なトランスデューサ・トランスフォーマ、XTTを生成するために組み合わされるように構成される。
第2の態様において、本開示は、説明可能なトランスデューサ・トランスフォーマを提供するためのシステムを提供し、説明可能なトランスデューサ・トランスフォーマは、入力を受信し、1つまたは複数の入力特徴量を識別するように構成される入力レイヤと、条件付きネットワークであって、1つまたは複数のパーティションであって、1つまたは複数のパーティションのそれぞれはルールを含む、1つまたは複数のパーティションに基づいて入力特徴量をモデル化するように構成される条件付きレイヤ、1つまたは複数のルールを1つまたは複数の集約パーティションになるよう集約するように構成される集約レイヤ、および、条件付きレイヤからの1つまたは複数のパーティションを有する、集約レイヤからの集約パーティションを選択的にプールするように構成されるスイッチ出力レイヤを備える、条件付きネットワークと、予測ネットワークであって、1つまたは複数の変換を入力特徴量に適用するように構成される1つまたは複数の変換ニューロンを備える特徴量生成および変換ネットワーク、1つまたは複数の特徴量および1つまたは複数のパーティションの少なくとも一方に関連する1つまたは複数の係数を識別するために特徴量生成および変換ネットワークによって変換された特徴量を組み合わせるように構成されるフィットレイヤ、値出力レイヤであって、1つまたは複数の係数を解析するように構成され、1つまたは複数の特徴量あるいは1つまたは複数のパーティションの少なくとも一方に関連する値を出力するように構成される、値出力レイヤを備える、予測ネットワークと、エンコーダレイヤおよびデコーダレイヤであって、エンコーダレイヤおよびデコーダレイヤの少なくとも一方は、入力から形成される説明可能なアーキテクチャを備える、エンコーダレイヤおよびデコーダレイヤと、機械プログラムまたは人間の少なくとも一方によって解釈可能かつ説明可能である出力を生成するように構成される出力レイヤであって、パーティション全体を通る1つまたは複数の実行経路は外部プロセスによって識別可能である、出力レイヤとを備える。
第3の態様において、本開示は、第1および/または第2の態様において説明したシステムを配備するためのコンピュータ実施方法を提供する。
本明細書で説明する方法は、有形記憶媒体上で、機械可読形態で、例えば、コンピュータプログラムであって、プログラムがコンピュータ上で実行されると、本明細書で説明する方法のうちの任意の方法の全てのステップを実施するように適合されるコンピュータプログラムコード手段を備え、コンピュータ可読媒体上で具現化され得る、コンピュータプログラムの形態で、ソフトウェアによって実施され得る。有形の(または非一時的な)記憶媒体の例は、ディスク、サムドライブ、メモリカード等を含み、伝搬信号を含まない。ソフトウェアは、方法ステップが任意の適した順序でまたは同時に実行され得るように並列プロセッサまたはシリアルプロセッサ上での実行に適するとすることができる。
好ましい特徴は、当業者に明らかになるように、必要に応じて組み合わされ得、本発明の態様のうちの任意の態様と組み合わされ得る。
本発明の実施形態の利点は、本発明の例示的な実施形態の以下の詳細な説明から明らかになり、その説明は、同様の数字が同様の要素を示す添付図面と併せて考えられるべきである。
有限状態トランスデューサ(従来技術)の例示的な実施形態の図である。 Vaswani等(2017)から採用されたトランスフォーマ(従来技術)の例示的な実施形態の図である。 例示的な説明可能なニューラルネットワーク(XNN)アーキテクチャの図である。 例示的なXNNアーキテクチャの図である。 例示的な解釈可能なニューラルネットワーク(INN:Interpretable Neural Network)アーキテクチャの図である。 パーティション情報を有するエンコーダおよびデコーダコンポーネントにおいて説明可能なアーキテクチャを使用する説明可能なトランスフォーマアーキテクチャの例示的な実施形態の図である。 パラレルな説明可能なエンコーダコンポーネントおよびパラレルな説明可能なデコーダコンポーネントを有する説明可能なトランスフォーマアーキテクチャの例示的な実施形態の図である。 (a.)トランスフォーマエンコーダ(従来技術)の例示的な実施形態および(b.)説明可能なトランスフォーマエンコーダ(XTT-エンコーダ)の例示的な実施形態の図である。 (a.)トランスフォーマデコーダ(従来技術)の例示的な実施形態および(b.)説明可能なトランスフォーマデコーダ(XTT-デコーダ)の例示的な実施形態の図である。 (a.)下流分類タスクを有するXTT-エンコーダの例示的な実施形態および(b.)下流分類タスクを有するXTT-デコーダの例示的な実施形態の図である。 分散型XTT訓練システムの例示的な実施形態の図である。 説明可能な有限状態トランスデューサの例示的な実施形態の図である。 例示的なXNN内にルールベース知識を埋め込むためのシステムの例示的な実施形態の図である。 例示的な説明および解釈プロセスを示す例示的な概略フローチャートである。 例示的な帰納法を示す例示的な概略フローチャートである。 CNN-XTTアーキテクチャの例示的な実施形態の図である。 インバースインデキシングメカニズムを実施するCNN-XTTの例示的な実施形態の図である。 MLベースシステム内の安全および保証のための例示的な挙動モデルの図である。 因果モデルを有する例示的なXTTの図である。 マルチタスククロスオーバー学習構造を有する例示的な説明可能なシステムの図である。 (a.)一方向クロスオーバーリンクおよび(b.)2方向クロスオーバーリンクを有する例示的なマルチタスククロスオーバー学習構造の図である。 識別-アセス-推奨-解決(IAR:Identify-Assess-Recommend-Resolve)フレームワーク内でXTTを使用する文書処理のための例示的な説明構造モデル(ESM:Explanation Structure Model)の図である。 例示的なXTTシステムを使用する、文書データからの例示的な自動化ドラフト因果モデル作成の図である。
本発明の態様は、以下の説明および本発明の特定の実施形態を対象とする関連する図面において開示される。代替の実施形態は、本発明の趣旨または範囲から逸脱することなく考案され得る。さらに、本発明の例示的な実施形態のよく知られている要素は、本発明の関連する詳細を曖昧にしないために、詳細に説明されないであろう、または、省略されるであろう。さらに、説明の理解を容易にするために、本明細書で使用される幾つかの用語の説明議論が続く。
本明細書で使用されるように、単語「例示的な(exemplary)」は、「例、事例、または例証として役立つ(serving as an example、instanse or illustration)」を意味する。本明細書で説明する実施形態は、制限的ではなく、むしろ単に例示的である。説明される実施形態が、他の実施形態より好ましいまたは有利であると必ずしも解釈されないことが理解されるべきである。さらに、用語「本発明の実施形態(embodiments of the invention)」、「実施形態(embodiments)」、または「発明(invention)」は、本発明の全ての実施形態が、論じた特徴、利点、または動作モードを含むことを要求しない。
さらに、本明細書で説明する実施形態の多くは、例えば、コンピューティングデバイスの要素によって実施されるアクションのシーケンスの観点で説明される。本明細書で説明するアクションの種々のシーケンスが、特定の回路(例えば、特定用途向け集積回路(ASIC:application specific integrated circuit))によって、および/または、少なくとも1つのプロセッサによって実行されるプログラム命令によって実施され得ることが当業者によって認識されるべきである。さらに、本明細書で説明するアクションのシーケンスは、任意の形態のコンピュータ可読記憶媒体内で完全に具現化され得、それにより、アクションのシーケンスの実行は、少なくとも1つのプロセッサが本明細書で説明する機能を実施することを可能にする。さらに、本明細書で説明するアクションのシーケンスは、ハードウェアおよびソフトウェアの組み合わせで具現化され得る。そのため、本発明の種々の態様は、多数の異なる形態で具現化され得、それらの全ては、特許請求される主題の範囲内にあることが企図されている。さらに、本明細書で説明する実施形態のそれぞれについて、対応する形態のそのような任意の実施形態は、例えば、説明するアクションを実施「するように構成されるコンピュータ(a computer configured to)」として本明細書で説明され得る。
用語、解釈可能なおよび説明可能な、は、異なる意味を有することができる。解釈可能性は、解釈者の観点で規定される必要がある場合がある特性とすることができる。解釈者は、(i.)それ自身の知識および信念、(ii.)目標-アクション計画、(iii.)コンテキスト、および(iv.)世界環境の組み合わせを使用して、システム出力またはアーチファクトを解釈するエージェントとすることができる。例示的な解釈者は知識豊富な人間とすることができる。
知識豊富な人間解釈者に対する代替物は、適した自動化システム、例えば、制限された範囲のアプリケーションについて、出力またはアーチファクトを解釈することができるとすることができる、狭いドメイン内のエキスパートシステムとすることができる。例えば、医療エキスパートシステム、または、エンド-ツー-エンド機械学習システム等の何らかの論理等価物は、医療アプリケーションドメインの特定のセットにおいて医療結果の有効な解釈を出力することができるとすることができる。
非人間解釈者であって、人間解釈者の役割を部分的にまたは完全に置換するおよび/または解釈能力をより広い範囲のアプリケーションドメインに拡張することができる、非人間解釈者が将来作成され得ることが企図され得る。
2つの別個のタイプの解釈可能性:(i.)任意の形態の自動化または機械的モデルが、そのサブコンポーネント、構造、および挙動と共に、どれほど解釈可能であるかを測定するモデル解釈可能性および(ii.)任意の形態の自動化または機械的モデルからの出力がどれほど解釈可能であるかを測定する出力解釈可能性が存在するとすることができる。
そのため、解釈可能性は、単純な2値特性ではなく、完全に解釈可能から解釈不能に及ぶ摺動スケール上で評価され得る。モデル解釈可能性は、出力を生成する基礎の実施形態、実施態様、および/またはプロセスの解釈可能性とすることができ、一方、出力解釈可能性は、出力自身またはどんなアーチファクトが検査されていようともそのアーチファクトの解釈可能性とすることができる。
機械学習システムまたは適した代替の実施形態は、多数のモデルコンポーネントを含むことができる。モデルコンポーネントは、それらの内部挙動および機能が、解釈者によって、考えられる入力のサブセットについて、完全に理解され正しく予測され得る場合、モデル解釈可能とすることができる。一実施形態において、モデルコンポーネントの挙動および機能は、状態遷移チャート、プロセスフローチャートまたはプロセス記述、挙動モデル、あるいは何らかの他の適した方法等の種々の方法で実施され示され得る。モデルコンポーネントは、それらの出力が、解釈者によって、考えられる入力のサブセットについて、理解され正しく予測され得る場合、出力解釈可能とすることができる。
例示的な機械学習システムまたは適した代替の実施形態は、(i.)完全にモデル解釈可能である(すなわち、そのコンポーネントの全てがモデル解釈可能である)場合、グローバルに解釈可能である、または、(ii.)部分的にモデル解釈可能である(すなわち、そのコンポーネントの一部のみがモデル解釈可能である)場合、モジュラー解釈可能であるとすることができる。さらに、機械学習システムまたは適した代替の実施形態は、全てのその出力が出力解釈可能である場合、ローカルに解釈可能とすることができる。
ブラックボックス特性とホワイトボックス特性とのハイブリッド混合であるグレイボックスは、出力に関してはホワイトボックスの特性を有することができるが、その内部挙動または機能に関してはブラックボックスの特性を有することができる。
ホワイトボックスは、ローカルとグローバルの両方の説明可能性を達成することができる完全にモデル解釈可能でかつ出力解釈可能なシステムとすることができる。そのため、完全にホワイトボックスのシステムは、内部機能と出力の両方の観点で、完全に説明可能でかつ完全に解釈可能とすることができる。
ブラックボックスは、出力解釈可能であるが、モデル解釈可能でないとすることができ、制限されたローカル説明可能性を達成することができ、ブラックボックスを、内部機能の観点で説明可能性能力がほとんどないかまたは全くなくかつ理解が最小である状態で、少なくとも説明可能にする。深層学習ニューラルネットワークは、出力解釈可能であるがモデル解釈不能システムとすることができる。
グレイボックスは、部分的にモデル解釈可能でかつ出力解釈可能なシステムとすることができ、内部機能の観点で部分的に説明可能でかつ出力の観点で解釈可能とすることができる。そのため、例示的なグレイボックスは、ほぼ説明可能でかつ解釈可能(ホワイトボックス)からわずかに説明可能でかつ解釈可能(ブラックボックス)のスケール上でホワイトボックスとブラックボックスとの間にあるとすることができる。グレイボックスシステムは、或るレベルのモジュラー解釈可能性を有することができる。なぜなら、それらのコンポーネントの一部がモデル解釈可能とすることができるからである。
説明可能なトランスフォーマXTTモデルにおいて利用される説明可能なアーキテクチャは、説明可能な人工知能(XAI:eXplainable artificial intelligence)モデル、解釈可能なニューラルネット(INN)、説明可能なニューラルネット(XNN)、説明可能なスパイキングネット(XSN:eXplainable Spiking Net)、および説明可能なメモリネット(XMN:eXplainable Memory Net)モデルを含むが、それに限定されない。さらなる例示的な実施形態は、説明可能な強化学習(XRL:eXplainable Reinforcement Learning)のホワイトボックス性質を利用することによって、バイアスをグローバルとローカルの両方で検出するための方法を提示することができる。
幾つかの例は、これらのうちの1つまたは複数(例えば、XAIまたはXNNのみ)を特に参照することができるが、本明細書で説明する実施形態のいずれの実施形態も、XAI、XNN、XTT、XSN、またはXMNに交換可能に適用され得ることが企図され得る。別の例示的な実施形態は、ブラックボックスモデルとホワイトボックスモデルとの間のハイブリッドモデルとすることができる、解釈可能なニューラルネット(INN)および関連するグレイボックスモデルにおけるバイアス検出に関連することができる。例示的な実施形態は、グレイボックスモデルのホワイトボックス部分に完全に適用することができ、グレイボックスモデルのブラックボックス部分の少なくとも或る部分に適用することができる。本明細書で説明する実施形態のいずれの実施形態も、INNに同様に交換可能に適用され得ることが企図され得る。
説明可能なニューラルネット(XNN)は、本質的に解釈可能かつ説明可能である新しいタイプの人工ニューラルネットワーク(ANN:Artificial Neural Network)である。XNNの背後の主要な概念は、内部ネットワーク構造が完全に解釈可能であることである。解釈可能性は、アーキテクチャ自身内に構築されるが、標準的なニューラルネットワークのように機能する。これは、ニューラルネットワークの結果を解釈するためにさらなる技法または処理を適用する必要性をなくす。XNNは、シミュレーション、反復、摂動(perturbation)等についての必要性なしで、単一フィードフォワードステップにおいて回答とその説明の両方を計算する。XNNは、ソフトウェアにおいてだけでなくハードウェアにおいても効率的に容易に実施可能であるように同様に設計され、速度および空間のかなりの改善をもたらす。
XNNは、複数のローカルモデルを1つのグローバルモデルになるように結合することができる。ローカルモデルは、全体検索空間内の小さいエリアを分析する。グローバルモデルは、全体的視点によってモデルをおよそ理解する。XNNは、両方を実施することができる-複数のパーティションは、各パーティションを説明するローカルゾーンおよび複数の線形モデルを示し、結合されると、それらは、グローバルモデルを構成する。XNNは、説明可能性を保持しながら、ニューラルネットワーク自身内に変換を埋め込むことによって線形データと非線形データの両方をサポートする。XNN内の各レイヤ、ニューロン、および接続は、ブラックボックスである標準的なANNと違って、正確でよく知られており理解可能な機能を有する。そのため、XNNは、第1の今まで知られている完全にホワイトボックスのANNであり、理解可能かつ解釈可能である新しいカテゴリのニューラルネットワークをもたらす。
ここで例示的な図13を参照すると、図13は、XNNに埋め込まれたルールベース知識または論理的に等価な知識を示す概略フローチャートとすることができる。第1に、パーティション条件2902は、多数のルールおよびエンコード済み知識を参照することができる位置特定方法を使用して選択され得る。パーティションは、オーバーラップしないかまたはオーバーラップするとすることができる。オーバーラップしないパーティションの場合、XNNは、フィードフォワードモードにおいて単一経路を採用することができる。オーバーラップするパーティションの場合、XNNは、フィードフォワードモードにおいて複数の経路を採用することができ、各経路について確率またはランク付けスコアを計算することができる。代替の実施形態において、オーバーラップするパーティションは、活性化済みパーティションからの結果を結合する集約関数(aggregation function)を利用することもできる。パーティション条件2902は、示されるモデルの特定のエリアにXNNを集中させるものと解釈され得る。パーティション位置特定方法は、典型的には、テンプレート2904によって与えられる形態で実施され得、テンプレート2904において、種々の特徴量2906は、連言標準形(CNF:conjunctive normal form)または選言標準形(DNF:disjunctive normal form)等の論理等価物を使用して実数2908と反復的に比較される。代替の実施形態において、タイプ1またはタイプ2ファジーロジックシステム、モーダルロジック、量子ロジック、確率的ロジック、あるいは、論理のまたは同様のステートメントの表現のための他の適したタイプの論理システム等の他の非ブール論理システムが利用され得る。
位置特定方法の値、条件、および基礎の方程式は、XAIモデル帰納法または論理的に等価な方法等の外部プロセスを使用して、選択され識別され得る。代替の実施形態において、位置特定の値、条件、および基礎の方程式は、後方伝播等の勾配降下法(gradient descent method)を使用するエンド-ツー-エンドアプローチを使用して部分的にまたは完全に帰納され得る。選択された値は、相対的試験または提供される合成データにモデルをフィットするときに特定のレベルの正確度が得られるまで、および/または、初期ブラックボックス予測器モデルに反復的に質問することによって、反復的に試験され変動される。XNNは、条件付きネットワークの一部とすることができる位置特定または集中化モジュール内に4つの例示的なコンポーネント、すなわち、入力レイヤ2910、条件付きレイヤ2912、値レイヤ2914、および出力レイヤ2916を有することができる。
入力レイヤ2910は、XNNによって処理される必要がある種々の特徴量を受信するために構築され得る。入力レイヤ2910は、各活性化がニューロンの群を興奮させる条件付きレイヤ2912を通して処理済み特徴量を給送する。条件付きレイヤは、出力に沿って通過する前に、条件が合うことを必要とする。さらに、入力は、値レイヤ2914によってさらに分析され得る。出力Xの値(整数または実数等の計算の場合)またはクラス(分類アプリケーション等の場合)Xは、値レイヤ2914によって計算される方程式X.eによって与えられる。X.e関数結果は、出力2916を生成するために使用され得る。条件付きレイヤおよび値レイヤが、任意の順序でまたは同時に起こる場合があることが企図され得る。
ここで例示的な図3を参照すると、図3は、例示的な高レベルXNNアーキテクチャの概略的ダイヤグラムを示すことができる。入力レイヤ402は、条件付きネットワーク410と予測ネットワーク420の両方におそらくは同時に入力され得る。条件付きネットワーク410は、条件付きレイヤ412、集約レイヤ414、およびスイッチ出力レイヤ(条件付き値を出力する)416を含むことができる。予測ネットワーク420は、特徴量生成および変換422、フィットレイヤ424、および予測出力レイヤ(値出力)426を含むことができる。レイヤは、選択およびランク付けレイヤ428によって分析され得、選択およびランク付けレイヤ428は、値出力によってスイッチ出力を逓倍することができ、ランク付けされたかまたはスコア付けされた出力430を生成する。説明および回答は、条件付きネットワークおよび予測ネットワークによってXNNによって同時に計算され得る。選択およびランク付けレイヤ428は、回答および説明が、出力430に送信される前に、正しく照合され、ランク付けされ、適切にスコア付けされることを保証することができる。
条件付きネットワーク410および予測ネットワーク420の処理は、任意の順序であることが企図される。XNNの特定のアプリケーションに応じて、コンポーネント412、414、および416のような条件付きネットワーク410のコンポーネントの一部が、オプションであるかまたは平凡な実施態様と置換され得ることが企図され得る。XNNの特定のアプリケーションに応じて、コンポーネント422、424、および426等の予測ネットワーク420のコンポーネントの一部が、オプションであるかまたは平凡な実施態様と置換され得ることがさらに企図され得る。
幾つかの状況において、選択およびランク付けレイヤ418ならびに出力430が、1つの統合コンポーネントになるように結合され得ることがさらに企図され得る。最適化のために、XNNは、条件付きネットワーク410および予測ネットワーク420が共に、全てのそれらのコンポーネントと共に1つのネットワークにマージされた状態で、同様に実施され得る。このマージされた条件付きネットワークおよび予測ネットワークは同様に、結合された、選択およびランク付けレイヤ428および出力430とマージされ得る。この最適化は、フィードフォワード処理についてより速いとすることができる論理的に等価なXNNをやはりもたらすであろう。
そのため、XNNは、入力レイヤ402ならびに条件付きネットワーク410および予測ネットワーク420の結合が存在するように実施され得、条件付きネットワーク410および予測ネットワーク420の結合は、条件付きレイヤ412、集約レイヤ414、スイッチ出力レイヤ416、特徴量生成および変換レイヤ422、フィットレイヤ424、予測レイヤ426、および出力430につながるランク付けレイヤ428を含む。この結合は、ソフトウェアとハードウェア実施態様の両方を含む、XNNの全ての実施形態および実施態様に適用することができる。XNNの変換能力は、この点に関して、柔軟性および極端なマージングがXNNの論理挙動に影響を及ぼすことなく実施されることをXNNのホワイトボックス性質が可能にするため、ユニークでありかつ他のニューラルネットワーク実施態様において比類がないが、これは、実用的な実施態様の種々の属性、例えば、サイズ/空間使用、性能、リソース使用、訓練可能性、および全体スループットに影響を及ぼす。
ここで図4を参照すると、図4は、スイッチ出力レイヤからの結果と値出力レイヤとを結合する例示的なXNNアーキテクチャを示すことができる。図4に示す例は、以下の例示的なルールセットに論理的に等価である:
Figure 2024500182000006
ルールセットは、出力レイヤ520内の活性化関数に続いて見出され得る。図4の例示的なアーキテクチャは、入力400で始まることができる。この入力400は、図3に示すアイテム402等の適切な入力レイヤ内で処理され得る。入力は、その後、条件付きネットワーク410および予測ネットワーク420への入力として使用され得る。図4に示すように、予測ネットワークは、特徴量生成および変換レイヤ422、フィットレイヤ424、および値出力レイヤ426を含むことができる。値出力レイヤ426は、入力の異なる特徴量に重み付けする方程式を提供することができる。さらに、入力400は、図3に示すように、条件付きネットワーク410への入力として使用され得る。再び、条件付きレイヤ412および集約レイヤ414は、スイッチ出力レイヤ416に示される連言ルール(conjunctive rule)または他の論理的等価物またはパーティションを生成することができる。
値出力レイヤ426およびスイッチ出力レイヤ416の出力は、図3に示す出力レイヤ430等の適切な出力レイヤ内で結合され得る。出力レイヤ430が形成されると、シグモイドまたは他の活性化関数520は、アプリケーションに応じて、結果518に適用され得る。ランク付けレイヤ516が、アプリケーションに応じて、出力結合の前におよび/またはその後に、結果に同様に適用され得ることがさらに企図される。
XNNは、ANNおよび深層学習等の関連方法のパワーを依然として利用しながら、解釈可能なモデルを構築する直感的な方法を提示することができる。モデルが、後方伝播または同様の方法を通して訓練されると、結果として得られるニューラルネットワークは、予測に役立つために使用され得、XNNの内部構造は、ルールを構築するために使用され得る。
解釈可能なニューラルネットワーク(INN)は、既存の深層学習技法を使用して説明を自動的に生成することができるアーキテクチャを提供する。INNは、ニューラルネットワークのために使用される既存のソフトウェアインフラストラクチャおよびハードウェアを利用することができ、また、後方伝播訓練技法に完全に整合するままであることもできる。
アーキテクチャは、入力を幾つかの隠れた特徴量に変換する特徴量トランスフォーマおよび隠れた特徴量を特徴量重みに変換する多数のレレバンス推定器(relevance estimator)を含むことができる。特徴量重みは、その後、変換された入力と結合されて、入力され変換された各特徴量の寄与度(attribution)を抽出する。結果として得られる特徴量寄与度は、その後、結果のために集約される。特徴量寄与度は、異なるレベルで抽出され得る。最も単純な形態では、寄与度は、元の入力と直接リンクされ得る。CNN等の他の場合には、特徴量寄与度は、カーネルおよびフィルタにおいて典型的に見出される高レベル特徴量について同様に計算され得る。さらに、INNは、モデルを種々のパーティションで分割することができ、したがって、ローカルのまたは区分化した説明可能性の混合を可能にすることによって、より高いレベルの柔軟性および解釈可能性を可能にする。幾つかの場合、INNは、同様にグローバル説明可能性を提供することが可能である。
ここで図5を参照すると、図5は、解釈可能なニューラルネットワークのための例示的なアーキテクチャを示すことができる。例示的な実施形態は、標準的なニューラルネットワークに対するアーキテクチャ制約をモデルデータに適用することができる。例示的な実施形態は、幾つかの入力ベクトルX601で始まることができる。入力は、特徴量生成および変換ネットワーク602ならびにkレレバンス推定器604に接続することができる。変換された特徴量は、抽象または高レベル特徴量とすることができ、それらの特徴量は、CNN等のディープニューラルネットワーク、多項式展開等の非線形数学的関数、フーリエ変換、連続データバケット化(bucketization)、因果作用素、または、離散的または連続的とすることができる何らかの他の形態の生成特徴量を使用して計算された可能性がある。特徴量および変換ネットワークが、変換であって、多項式展開、回転、次元および無次元尺度法、フーリエ変換、ウォルシュ関数、状態空間および位相空間変換、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ/フレシェ/ハウスドルフ/チコノフ空間のトポロジカル変換、相違分析、およびデータの正規化/標準化を含むが、それに限定されない、変換のパイプラインとすることができることがさらに企図される。レレバンス推定器604は、変換された各特徴量について、少なくともローカル方法で、係数を計算することができる。
数学的用語では、変換ネットワークは、関数T(X)として示され得る。同様に、θj(X)は、j番目のパーティションのレレバンス関数を示す。X→T(X)が、z変換済み次元を有するベクトルを返す場合、X→θj(X)は、z係数またはレレバンス重みを有するベクトルを同様に返す。|T(X)|=|θj(X)|=zが仮定される。
INNは、種々のオプションおよび構成を通して複雑さのモデリングを可能にするのに十分に柔軟性があるとすることができる。関数X→T(X)およびX→θi(X)は、複雑な抽象特徴量をモデル化することを可能にするディープニューラルネットワークとすることができる。ネットワークは、ホワイトボックス推定器を有するためにXNNとすることもできる。T(X)およびθj(X)の結合が、INNアーキテクチャを用いて実施することが可能である説明可能なモデルの種々の実施形態を示すことができることが留意され得る。
ニューラルネットワークは、条件付きネットワーク606を含むことができる。条件付きネットワーク606は、1つまたは複数のパーティションを活性化するために、IF条件の形態でルールを評価することができる。Ci(X)の出力は、2値とすることができる。パーティションが、静的または動的とすることができ、外部パーティショニングプロセスを通して、接続されたニューラルネットワークを通して、または内部プロセスを通して発見され得ることが留意され得る。INNが、Xの全ての値についてCi(X)が常に1である、1つのパーティションのみを用いて機能することもできることも留意され得る。これは、ゼロパーティションを有することと等価である。この場合、適したパーティションを見出すためにパーティショニング法を適用する必要性は存在しない。
特徴量寄与度608は、関連するパーティションによって活性化される変換された各特徴量の寄与度を計算することができる。レレバンス寄与度は、計算された係数の結果を、変換された特徴量で乗算することができる。数学的用語では、特徴量寄与度608は、j番目のパーティションについてθj(X)T(X)を計算することができる。レイヤ608の出力は、説明生成の基礎として役立つことができる。このレイヤからの値は、特徴量寄与度グラフ、ヒートマップ、テキスト形式説明、または他の形態の説明を生成するために使用され得る。
集約レイヤ610において、ニューラルネットワークは、各パーティションについての結果(活性化されたパーティションについての予測結果)を集約する。数学的用語で、例示的な集約関数は、Aj(θj(X)T(X))によって規定され得る。例示的な実施形態において、集約関数は、特徴量寄与度の単純な合計とすることができる。これは、線形関数と等価になり、結果Rj=θj(X)1T(X)+…+θj(X)ZT(X)になるように、ローカル方法で少なくとも機能する。
モデルが、オーバーラップするパーティションを有することができることが企図され得る。この場合、ランク付け関数は、オーバーラップするパーティションを分解するために適用され得る。Rがランク関数を規定し、Pjがj番目のパーティションの出力を規定すると、それは、一般化モデルを、
f(x)=R((P1、P2、...、Pj、...、Pk))に導く。
最後に、スイッチレイヤ620は、活性化されたパーティションを選択する。2つ以上のパーティションが活性化される場合、何らかのランク付け関数625が適用される必要がある場合がある。結果は、結果レイヤ630を通して生成される。
実用的な実施形態において、INNモデルは、変換関数T(x)内に、推定器θj(x)内に、集約関数A内に、ランク付け関数R内に、または何らかの他のコンポーネント内に幾つかの最適化を有することができる。INNは、必要とされる簡単さまたは複雑さのレベルに応じて、パーティションがカスタマイズされることを可能にすることによって、より高いレベルの柔軟性を提供することができる。
ここで図14の例示的な実施形態を参照すると、図14は、例示的な説明生成パイプラインを提示することができる。パイプラインは、現在検査されているデータサンプル、シナリオ、または他の質問を示す入力クエリ902で始まることができ、入力クエリ902は、その後、3つのコンポーネント:説明可能なまたは解釈可能なシステム/モデル904、説明器908、および解釈器912を通して処理され得る。3つの主要なコンポーネントのそれぞれは、パイプライン内の次のコンポーネントへの入力とすることができる異なる出力を生成することができる。入力クエリ902が、特定のデータサンプルまたはシナリオのみに限定されず、全体モデル(グローバルモデル説明)、または、解釈可能なモデルの特定のコンポーネントを扱うモジュラー説明に関連することができることが企図され得る。
説明可能なまたは解釈可能なシステム/モデル904は、回答9061であって、その回答のオプションのモデル説明9062を伴う、回答9061、および任意に、回答の正当化理由9063および/またはそのモデル説明からなる説明可能なまたは解釈可能な出力906を生成することができる。回答の正当化理由9063および/またはそのモデル説明は、モデル説明の説明(すなわち、メタ説明)であり、回答および/またはモデル説明を出力するときに説明可能なまたは解釈可能なシステム/モデル904によって採用される仮定、プロセス、および意思決定に関するさらなる情報を与える。説明器908は、説明スカフォールド(Explanation Scaffolding)9101およびオプションの候補説明9102からなる説明器出力910を生成することができる。例示的な実施形態において、候補説明は、説明スカフォールド(Interpretation Scaffolding)9101の処理の結果として生成され、教師なしまたは教師あり学習および最適化を含む何らかの形態の反復プロセスにおいて説明スカフォールドのコンテンツの評価のプロセスにおいて使用され得る。フィルタ911は、例えば、説明器908が現在ステップについて出力を生成した後で、しかし解釈器912が開始する前に、説明スカフォールド9101および解釈スカフォールド9111を主に変換しフィルタリングするオプションのコンポーネントである。
解釈器912は、解釈スカフォールド9111を使用して、説明9141を、その説明のオプションの解釈9142と共に生成することができる。
説明および/または解釈を含む説明プロセスの最終結果914は、人間ユーザ、別のアプリケーション、あるいは、より大きい実施形態または何らかの他の自動化システムの一部を形成する別のシステムコンポーネントに提供され得る。
図14が1つの例示的なパイプラインとすることができ、パイプラインが、1つまたは複数のコンポーネントを省略または結合する、および/または、それらを異なる順序およびシーケンスで実行することができる種々の代替の方法で実施され得ることに留意されたい。例えば、例示的で実用的な実施態様実施形態において、説明器908および解釈器912が共に、それらのそれぞれの出力908および914と共に省略され得ることが企図され得る。
別の例示的な実施形態において、コンポーネント908および912は、出力908および914の結合を生成する単一コンポーネントとして結合され得る。
別の想定される実施形態において、解釈器914の簡略化された実施態様は、候補説明9102を単に採用し、それを説明9141として出力する。
グローバル(すなわち、モデルレベル)説明またはクエリが少ないアプリケーション(query-less application)実施形態の場合、入力クエリ902さえも、図14の例示的なパイプラインに対する論理的等価物を失うことなく、省略され得ることがさらに企図され得る。
図14の或る結合の出力は、実用的な実施形態において共に結合または省略され得ることが企図され得る。例えば、正当化理由9063が、幾つかのアプリケーションにおいてオプションと見なされ得、一方、解釈9142が、自動化システムの代わりに、人間解釈者またはエキスパートが作成するために残され得ることが想定され得る。解釈可能な機械学習システムは、完全に理解され、その機能および内部挙動(モデル解釈可能性)、解釈者によって解釈され理解される回答(出力解釈可能性)および説明を有することができる。回答を伴う最終的な説明は、それらのコア構造上でさらなる事後処理を必要としない場合があるが、統語論的および意味論的情報を付加し、説明をコンテキスト化し個人化するさらなる処理サイクルは、図14に示すように受容され、説明9141は、最終ステージに達する前に、変換および強化の異なるステージを通過する。
説明可能な強化学習(XRL:explainable reinforcement learning)は、説明および説明モデルの概念をアクションおよびXRLシステムが配備される環境に導入することによって説明可能な強化学習システムを導入する。アクションは、現在の状態にポリシーを適用することによって計算された、環境に提供された入力を指すことができる。これは、離散的または連続的とすることができる。考えられる全てのアクションのセットはアクション空間と呼ばれる。
RL/XRLエージェントは、アクション選択およびランク付け、すなわち、状態s’をもたらす現在状態sについての何らかのアクションaを処理することができる。報酬はrによって示される。RLエージェントは、アクション選択プロセスにおいて使用される環境のシミュレーションを有することができる。モデルは、モデル自身の構造に応じてさらなる接続ポイントを有することができる。
第1のXRL修正は、モデル/環境モデルの一部として説明xを導入する、すなわち、世界モデルは、状態s’および報酬rに関する部分的または完全な説明を返すことができ、それは、xeと規定される。第2のXRL修正は、アクション空間内にあり、関連付け説明、すなわち、アクションおよびアクションの説明をそれぞれ示すa、xaを導入する。ポリシーは、過去の経験からアクションへのマッピングを指すことができる。XRL内のポリシーПは、Пxになり、Пxは、ここで、
Пx≒s→a、xa
Пx≒s、xs→a、xa
であるような説明可能なマッピングである。
挙動FSMの用語で、各(状態、アクション)対は、状態を選択した後にアクションを行う前に、アクション中に、そしてアクションが行われた後に一定接続ポイントを有することができる。RLおよびXRLについて、別の接続ポイントは、ポリシーπ下でのアクションの選択前に、その最中に、そしてその後にある。これは、アクション空間および/または状態空間が離散的または連続的であるときに適用可能である。XRL学習プロセスの一部としての説明は、よりよい安全および制御メカニズムをもたらすことができる。なぜなら、それらのメカニズムが、調整、モニタリング、および自動/手動介入を必要とすることができるシステムの内部作業のよりよい理解を可能にすることができるからである。XRLエージェントは、FSMの代わりにFSTを使用して同様にモデル化され得る。
例示的な説明可能なトランスデューサ(XFST)は、訓練済みXNNアーキテクチャを部分的に置換することができる。説明可能なトランスデューサ・トランスフォーマ(XTT)実施形態は、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを使用することによって、トランスフォーマ(Vaswani等、2017)のブラックボックスモデルコンポーネントをホワイトボックスコンポーネントと置換することができる。そのため、XFSTは、ホワイトボックス機械学習アーキテクチャを示す。例示的な実施形態は、説明可能なトランスフォーマと共に有限状態トランスデューサの説明可能なバージョンを提供することができ、2つの主要な説明可能なトランスフォーマ変形、すなわち、説明可能なトランスフォーマ-エンコーダおよび説明可能なトランスフォーマ-デコーダを含むこともできる。
例示的な実施形態は、トランスフォーマのエンコーダレイヤのサブレイヤに説明可能なモデルを導入することによって、説明可能なトランスフォーマ-エンコーダを提供することができる。
例示的な実施形態は、トランスフォーマのデコーダレイヤのサブレイヤに説明可能なモデルを導入することによって、説明可能なトランスフォーマ-デコーダを提供することもできる。
説明可能なトランスフォーマアーキテクチャは、解釈者に対する解釈可能性を生成するため、説明を生成し、そのような説明をフィルタリングするために説明フレームワークを利用することができる。
説明可能なトランスフォーマアーキテクチャにおいて、入力は、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャの帰納のために、選択されたコンポーネントに従って変動する。例示的な実施形態において、説明可能なモデルコンポーネントが帰納によって選択されると、トランスフォーマについての実際の入力は、固定され、必要である場合、パッディングが、より短い長さの入力について使用され得る。
説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャは、説明可能なトランスデューサ・トランスフォーマ(XTT)において、図6に示すように、2つの説明可能なアーキテクチャ700および710を作成するために、エンコーダレイヤのフィードフォワードネットワークコンポーネント230およびデコーダレイヤのフィードフォワードネットワークコンポーネント270を帰納することができる。
帰納されたホワイトボックスモデル700は、加算および正規化コンポーネント217の出力からブラックボックスフィードフォワードコンポーネント230の出力まで説明および説明可能な経路トレースを構築する。帰納されたホワイトボックスモデル710は、加算および正規化コンポーネント242の出力からブラックボックスフィードフォワードネットワークコンポーネント270の出力まで説明および説明可能な経路トレースを構築することができる。
それら自身、ワイドニューラルネットワーク(WNN:Wide Neural Network)のクラスである、XNN等のワイドラーニングモデルをサポートする説明可能なモデルを利用するXTTは、特に、深層学習の一般化能力を、ワイドラーニングのより正確でかつ普遍的な学習能力に付加する、トランスフォーマアーキテクチャの埋め込み性質と組み合わされると、ユニークな実用的特性を示すことができる。適したパーティションを識別するために使用され得る階層的パーティショニング技法または他の論理的に等価な方法の本発明者等の使用は、XTTの説明可能性または解釈可能性に悪影響を及ぼすことなく、XTTにかなりの表現および処理パワーを付加する。XTT説明モデルパーティションは、初期XTTを作成する外部プロセスによってXTTの一部として最初に作成され得る。代替的に、XTTパーティションは、適したパーティショニング情報を提供するリンクされたタクソノミーまたはオントロジーから、同様に事前訓練されるかまたは適切に初期化され得る。作成されると、XTT説明可能なモデルは、所望される場合にパーティションをフィットさせるかまたはさらに改良するために、勾配降下法を使用することができる。XTTパーティションは、変更することができない静的値として設定された、それらの値を有することによってロックされ得る、または、標準的な後方伝播および関連技法を使用して各後方訓練パスについて動的に可動とすることができる。階層的パーティションは、異なる抽象化レベルでデータをモデル化することができる。そのような抽象化は、説明を生成するときに必要とされ得る。例示的な実施形態において、ランク付け関数は、XTTがそのオーバーラップするまたはオーバーラップしないパーティションをどのように選択するか、マージするか、または分割するかを決定するために使用され得る。XTTパーティションの階層的性質が、異なるレベルの意味論的および記号論的詳細でシンボルおよび概念を示すために使用され得ることがさらに企図され得る。
XTTは、その説明可能なパーティション構造および値が、多数目的最適化(MOO:multiple objective optimisation)、遺伝的アルゴリズム(GA:genetic algorithm)、およびモンテカルロシミュレーション法(MCSM:Monte Carlo Simulation Method)等の技法を使用して、または因果的ロジックおよびシミュレーション技法によって変更されることを可能にすることができる。XTTパーティションは、単に平坦パーティション(flat partition)ではなく階層的パーティションとすることができる。平坦パーティションは、単一レベルだけが存在する考えられる階層的パーティションのサブセットと見なされ得る。階層の利用は、良好な説明の予想される性質をより適切にモデル化するより表現力豊かな説明が生成されることを可能にする。
説明可能なトランスフォーマは、3タプルデータセット<I、O、E>上で訓練され得、ここで、Iは入力を指すことができ、Oは出力を指すことができ、Eは入力Iと出力Oとの間の説明を指すことができる。図6に示すように、入力は、説明可能なトランスフォーマを説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを用いて訓練するために、トークン埋め込み200、入力トークン210の位置情報、および任意に、パーティショニング情報1500、1501または外部の説明可能なモデルからの同様の説明が生成したデータの組み合わせを含むことができる。
説明可能なトランスフォーマは、エンコーダレイヤおよびデコーダレイヤ内の説明可能なアーキテクチャを使用することなく、かつ、パーティショニング情報1500、1501または外部の説明可能なモデルからの同様の説明が生成したデータを、エンコーダの入力埋め込みに、そして任意に、デコーダ内の出力埋め込みに付加することなく、訓練され得る。
説明可能なトランスフォーマは、図7に示すように、エンコーダレイヤおよびデコーダレイヤに並列のさらなる2つのレイヤを有することができる。2つのさらなるレイヤは、図7に示すように、入力空間から説明可能なアーキテクチャを構築することに集中され得る。
説明可能なトランスフォーマは、2つの入力:マルチ-ヘッド-アテンションコンポーネント215の出力または加算および正規化コンポーネント217の出力および入力トークン1507のパーティショニングまたは説明可能な情報をとる、並列の説明可能なエンコーダレイヤ1630を含むことができる。
説明可能なトランスフォーマは、並列の説明可能なエンコーダレイヤ1630の出力1600をとる並列の説明可能なデコーダレイヤ709を含むことができる。並列の説明可能なエンコーダレイヤは、説明可能なアーキテクチャコンポーネント701および加算および正規化コンポーネント702を含むことができる。並列の説明可能なデコーダレイヤ709は、説明可能なアーキテクチャコンポーネント703および加算および正規化コンポーネント704を含むことができる。例示的な実施形態において、並列の説明可能なエンコーダレイヤの出力は、図7に示すようにXTTのデコーダレイヤ内のマルチ-ヘッドアテンションレイヤへの入力1631として使用される。別の例示的な実施形態において、並列の説明可能なエンコーダレイヤの出力1631は、XTTのデコーダ内のマルチ-ヘッドアテンションレイヤ240のための入力として使用されるのに先立って、エンコーダレイヤの出力1632とマージされる。別の例示的な実施形態において、並列の説明可能なエンコーダレイヤの出力1631は、並列の説明可能なデコーダへの入力として使用されるだけである。図7に示すように、XTTは、予測出力290および関連説明1620を出力する。説明1620は、デコーダコンポーネントへのフィードバックループ1610として利用され得る。
説明およびパーティション情報は、履歴的説明およびパーティション情報を使用するXTT-デコーダアーキテクチャを使用して予測され得る。例示的な実施形態において、説明可能なモデルは、3タプルベクトル<i、o、e>によって示され、ここで、iは入力を指し、oは出力を指し、eは生成された説明を指す。生成された説明e(ここで、e={e1、e2、...、en})は、履歴的説明について現在の説明eiおよびコンテキストウィンドウkを考慮して次の説明e(i+1)を予測するためモデルを事前訓練するためにXTT-デコーダへの入力として使用される。XTT-デコーダは、その後、下流タスクの値を分類または予測するために説明の別個のセットに対して微調整され得る。
説明可能なモデル内の同じコンポーネントについて、1つまたは複数の説明eの差または変化は、記録され、説明の次の差または変化を予測するためにXTTへの入力として任意に使用され得る。例示的な実施形態において、XTT-デコーダは、説明における次の変化を予測するために使用される。XTT-デコーダは、履歴的説明勾配について現在の説明giおよびコンテキストウィンドウkを考慮して次の勾配g(i+1)を予測するために説明勾配のセットeg(ここで、eg={g1、g2、...、gm})に対して事前訓練される。XTT-デコーダは、その後、下流タスクの値を分類または予測するために説明勾配の別個のセットに対して微調整され得る。XTTにおいて事前訓練することは、訓練中に類似度と対比の両方の要素を考慮するために、入力および出力データの埋め込み表現を利用することもできる。例示的な実施形態において、例えば、画像およびテキストキャプションのマルチモーダル埋め込みは、同様に関連する画像およびテキストを同時に最小にするために利用され得るが、関連しない画像とテキストとの間の対比が最大にされることを保証する。XTT内の疎な埋め込みは、特に、疎な説明可能なモデルと併せてさらなる性能改善を与えることもできる。
説明、説明の勾配、または説明可能なアーキテクチャxのパーティショニング情報は、図7に示すように、XTTの並列の説明可能なエンコーダレイヤへの入力1507として使用され得る。例示的な実施形態において、並列の説明可能なエンコーダレイヤ1630の入力1507は、XTTアーキテクチャを訓練するために後で使用されることになる同じデータセットに対して訓練された説明可能なモデルの説明を処理する。さらなる例示的な実施形態において、並列の説明可能なエンコーダレイヤへの入力1507は、XTTを訓練するために使用されることになるデータセットと同様のデータセットに対して生成された説明を指す。
説明可能なトランスフォーマ-エンコーダの入力は、トランスフォーマ(Vaswani等、2017)のエンコーダレイヤの入力と同一とすることができる。説明可能なトランスフォーマ-エンコーダは、図8(b)に示すように、説明可能なアーキテクチャx 2000(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを使用してブラックボックスフィードフォワードニューラルネットワーク1900を帰納することができる。
別の例示的な実施形態において、XTTは、位置埋め込み1902と結合されたトークン埋め込み1901からなる入力または直前のエンコーダレイヤの出力を有する全体エンコーダレイヤに対して訓練されたその説明可能なモデルを有することができる。直和(Direct-Sum)、ルックアップテーブル、およびプロダクトカーネルタイプ(Product kernel type)の位置エンコーディング法を含むが、それに限定されない種々の異なる位置エンコーディング法がXTTに関して使用され得ることがさらに企図される。
例示的な実施形態において、説明可能なトランスフォーマ-デコーダの入力および出力は、デコーダベーストランスフォーマ(Liu等、2018)と同一とすることができる。説明可能なトランスフォーマ-デコーダの説明可能なアーキテクチャ2400の入力は、図9(b)に示すように、加算&正規化コンポーネント2340の出力を含むことができる。説明可能なトランスフォーマ-デコーダの出力は、図9(b)に示すように、ブラックボックスフィードフォワードニューラルネットワークコンポーネント2320の出力または加算および正規化コンポーネント2330の出力とすることができる。
例示的な実施形態において、XTT内の1つまたは複数のコンポーネントは、説明可能なフィードフォワードネットワーク自身の他に、説明可能なモデルによって置換され得る。さらなる例示的な実施形態において、説明可能なオート-エンコーダ-デコーダ(XAED:explainable Auto-Encoder-Decoder)は、トランスフォーマ-エンコーダおよび/またはトランスフォーマ-デコーダの一部または全てを置換するために利用され得る。
代替の実施形態において、説明可能なトランスフォーマ-デコーダにおける説明可能なモデルは、位置埋め込み2310と結合されたトークン埋め込み2360からなる入力または直前のエンコーダレイヤの出力を有する全体デコーダレイヤを帰納することができる。
説明可能なアーキテクチャXTT、XTT-エンコーダ、およびXTT-デコーダの出力は、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャから生成された説明および解釈可能性を含むことができる。
XTT、XTT-エンコーダ、およびXTT-デコーダにおける説明可能なアーキテクチャは、ブラックボックスコンポーネントを持たない訓練用データセットを入力として使用することができる。その場合、新しい説明可能なモデルが訓練される。
XTTは、訓練用データセットの特徴量変換を含むことができる。XTT変換関数は、多項式展開、回転変換、次元および無次元尺度法、フーリエ変換、ウォルシュ関数、状態空間および位相空間変換、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ/フレシェ/ハウスドルフ/チコノフ空間のトポロジカル変換、相違分析、およびデータの正規化/標準化を含むが、それに限定されない変換のパイプラインとすることができる。変換関数パイプラインは、時間的に順序付けられたデータシーケンスを含む1つまたは複数の変数の値に従って順序付けされるデータのシーケンスを分析する変換をさらに含むことができる。変換関数パイプラインは、勾配降下法および他の説明可能なアーキテクチャによって得られた変換をさらに含むことができる。
説明可能なモデルデータ合成能力が、提案される説明可能なトランスフォーマアーキテクチャXTT、XTT-エンコーダ、およびXTT-デコーダ内の説明可能なアーキテクチャに対する訓練として提示される訓練用データセットサンプルを、因果的GANベース生成、遺伝的エンジニアリング、モンテカルロシミュレーション、ペトリネット、強化学習技法、ホワイトボックスモデルおよびそのグローバルモデルを使用するシミュレーション、および利用可能であるとすることができる他の方法等の種々の技法を使用して、生成するために使用されうることも企図される。
人間知識インジェクション(HKI:human knowledge injection)またはシステム知識インジェクションは、XTT、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャに対する別のタイプの入力である。XTT、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャ内の説明可能なアーキテクチャの係数は、人間ユーザとAIシステムとの間のよい効率的な協働をもたらすため特定のルールを施行するために修正され得る。
人間知識インジェクション(HKI)が、合成データの範囲をなおさらに修正し拡張するために使用され得ることがさらに企図される。合成およびHKI法は、XTTが、データ分布シフト問題を克服することを助け、XTTを、分布外(OOD:Out of Distribution)データを含む、その入力および訓練空間におけるより広い範囲の考えられる入力に対してよりよく一般化させることができる。
XTT内の説明可能なモデルは、ゼロショット学習または少数ショット学習解決策の実用的な実施を可能にする。少数ショット学習は、疎なデータ可用性条件に直面するときに、より迅速に適応するために階層的パーティションおよびローカルモデルを利用することができる。ゼロショット学習は、HKIによる、ルールの組み込み、したがって、説明可能なモデル内のパーティション構造の修正によって実用的な方法で達成され得る。HKIのそのような使用は、データを全く訓練することなく、XTTが、適切なルールまたはルールのセットから直接ブートストラップされることを可能にすることができる。帰納的、演繹的、および仮説的ロジックの使用がXTTの適応性を高めるために利用され得ることがさらに企図される。因果的ロジックの使用が、アンダーフィッティングおよび/またはオーバーフィッティング問題を阻止するのを助けることができる妥当性およびモデルベースチェッキングの要素が存在することを保証しながら、XTTの適応性を高めるために利用され得ることがさらに企図される。
説明可能性は、XTTならびにその変形XTT-エンコーダおよびXTT-デコーダにおける説明可能なモデルコンポーネントのパーティション情報の抽出、および、訓練用データセットの特徴量の特徴量寄与度の構築を通して達成され得る。
ローカルモデルの係数cは、特徴量入力空間に対する特徴量寄与度として使用され得る。パーティション情報および特徴量寄与度は、XTT、XTT-トランスデューサ、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャ内の説明可能なアーキテクチャコンポーネントの出力である。
特徴量寄与度cは、入力空間に対するそして各入力特徴量の重要度を示す係数とすることができる。したがって、特徴量寄与度は、入力空間を説明可能な入力空間に変換することによる説明可能性の一部である。
XTT、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャが他の機械学習システムに接続されると、入力空間は、何らかの形態の抽象特徴量または概念を示すことができる。例えば、XTT、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャへの入力は、CNNネットワークからの出力とすることができる。説明可能性がトランスフォーマアーキテクチャのエンコーダおよびデコーダ部分内に構築された例示的な実施形態において、出力は、入力空間特徴量に対する特徴量寄与度および潜在的空間に対する特徴量寄与度である。XTTは、説明不能な潜在的空間の完全な除去を、入力特徴量自身が説明可能である程度まで可能にする。別のオプションとして、XTT、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャは、フーリエ変換、整数変換、実数変換、複素数変換、クォータニオン変換、オクトニオン変換、ウォルシュ関数、状態空間変換、位相空間変換、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、相違分析、正規化、標準化、多次元ベジェ曲線、再帰関係、および因果作用素の少なくとも1つを、その出力に適用するように適合され得る。
別の例示的な実施形態において、XTT、XTT-エンコーダ、および/またはXTT-デコーダアーキテクチャは、予測される出力に対して適した活性化関数および/または適した変換を適用することを要求され得る。典型的な活性化関数は、シグモイドまたはSoftMax関数あるいは適した等価物を含むことができる。典型的な変換は、(i.)階層的木またはネットワーク、(ii.)因果ダイヤグラム、(iii.)有向および無向グラフ、ハイパーグラフ、または単体的複体(simplicial complex)、(iv.)マルチメディア構造、あるいは(v.)ハイパーリンクされたグラフのセット等の何らかの形態の構造、あるいは適した構造を使用する、予測出力の変換を含むことができる。
代替の例示的な実施形態において、パーティションは、図15に示す例示的なモデル帰納法等の帰納プロセスを用いて外部で構築され得る。そのような例示的な実施形態において、出力は、XNNアーキテクチャまたはINNアーキテクチャの特徴量寄与度を伴うそのようなシステムのパーティション情報であることになる。
例示的なXAIモデル帰納法において、モデリングシステムは、データをブラックボックスシステムに入力することができ、各入力に対応する出力を記録することができる。別の実施形態において、モデリングシステムは、入力データセットの全てまたは一部についてラベルまたは応答を返す、単純なマッピング関数のような平凡な予測器モデルを使用することができ、それは、訓練用データに対して帰納法を直接実行することと同等である。別の実施形態において、モデリングシステムは、訓練用データから直接、予測器モデルを作成するために、適した自動予測器構築法を使用することができる。帰納法への入力としてのブラックボックスまたは予測器モデルの付加は、元の入力データセットからの誤差および/またはノイズを低減または排除するのに役立つことができる。
データポイントは、合成的に生成されるデータと任意に結合された、訓練用データの全てまたは一部から最初に得られ得る。合成的に生成されるデータは、シミュレーションシステム、世界モデル等のような外部プロセスによって生成され得る。入力データは、空集合とすることもでき、その場合、帰納法は、入力予測器モデルから得られる摂動データを使用して働くことになる。オプションのデータ品質保証関数は、帰納法を実行するのに先立って、入力データポイントのサブセットおよび/または入力データに同様に全体として適用され得る。帰納法は、ブラックボックスとすることができる入力予測器モデルにその後注入される摂動サンプルデータポイントを動的に作成することによってグローバルモデルを構築し、出力結果は、その後、書き留められ、訓練用および/または合成データからの全ての他の利用可能なデータポイントと結合される。摂動データが、元の訓練用データを使用することなくそれ自身に対して利用され得ることが企図され得る。摂動法の例示的な実施形態は、ランダムノイズ付加法、回転摂動、投影摂動、k匿名化(k-anonymization)、敵対的生成ネットワーク(GAN:Generative Adversarial Network)、または任意の他の適した摂動法の組み合わせを利用することができる。結果として得られる結合したデータポイントは、帰納法のパーティショニング関数への入力を形成することができる。予測器モデルからのデータポイントは、連続的、離散的、またはカテゴリカル値とすることができる。分類結果を出力する予測器モデルは、(i.)適切なクラスラベルを割り当てる何らかの適切な変換関数を介して、離散化出力に、または、(ii.)直接にまたは何らかの適切な変換関数を介して使用され得る確率的出力に対して、そのような分類適用器を有することができる。
次の例示的なステップは、「パーティション(partition)」の階層を識別することができる。各パーティションは、帰納法にとって入手可能な結合データから取り出されたデータポイントのセットまたはクラスタをカバーすることができる。各パーティションは、ゼロ、1つまたは複数のルールを規定することができ、子パーティションであって、それらのそれぞれの関連するルールを有する、子パーティションを任意に含むことができる。抽出されたパーティションは、オーバーラップするパーティションおよびオーバーラップしないパーティションを組み込むことができる。オーバーラップするパーティションの場合、何らかの優先度関数が、どのパーティションを活性化すべきかを決定するために使用され得る。代替の実施形態において、2つ以上のパーティションが活性化される場合、何らかの集約関数が、複数の活性化されたパーティションからの結果を結合または分割するために使用され得る。各パーティションが、線形モデルにフィットするのに十分なデータを有し、線形モデルがうまく働くことができないほどに複雑過ぎない限り、種々の方法が、ルールまたはルールに関するデータポイントのクラスタを見出すために実施され得る。多項式展開、回転、次元および無次元尺度法、状態空間および位相空間変換、整数/実数/複素数/クォータニオン/オクトニオン変換、フーリエ変換、ウォルシュ関数、連続データバケット化、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ/フレシェ/ハウスドルフ/チコノフ空間のトポロジカル変換、相違分析、およびデータの正規化/標準化を含むが、それに限定されない非線形変換、ならびに、条件付き特徴量は、モデル性能を高めるために、線形フィットに先立って個々のパーティションに適用され得る。
パーティションは、何らかのルールおよび/または距離類似度関数に任意に従ってデータポイントをグループ化するクラスタとすることができる。各パーティションは、概念またはデータの弁別的カテゴリを示すことができる。正確に1つのルールによって示されるパーティションは、予測または分類の値を出力する線形モデルを有する。モデルが線形にモデル化され得るため、線形モデルの係数は、それらの重要度によって特徴量をスコア付けするために使用され得る。基礎の特徴量は、線形フィットと非線形フィットの組み合わせを示すことができる。なぜなら、帰納法が、線形および非線形データおよび/または線形および非線形予測器モデルを共に扱うからである。
例示的な実施形態は、数学用語で示され得る。図15の例示的な実施形態を参照すると、図15は、例示的なモデル帰納法を示すことができる。例示的な実施形態において、Xは、入力データセット1502を示すことができ、Predict(x)は、n個の出力1504を有する予測器モデル関数を示すことができる。Xはm次元を有する行列とすることができる。各次元(m)は、Xの入力特徴量を示すことができ、各出力はクラスの数(n)を示すことができる。入力データセットは、訓練用データと合成生成データの結合とすることができる。さらに、例示的な実施形態において、サンプルは、Perturbate(X)等の関数を使用して摂動され得り1506、Perturbate(X)は、何らかの入力された訓練用または試験データXであって、入力データのサブセット、入力データの何らかの近傍、入力/出力/説明データの何らかの適した埋め込みとすることができる、Xを考慮して、サンプル摂動データを生成する任意の摂動関数とすることができる、または、さらに普通に空集合とすることができ、その場合、摂動関数は、何らかの形態のランダムまたは非ランダムパターンを使用して予測器モデルに質問する必要がある。Xpは、摂動入力データセットおよび元の入力データセットの結合を示すことができ、Yは、Xp=X∪Perturbate(X)およびY=Predict(Xp)であるような予測器モデル関数1508からの出力を示すことができる。
パーティションの階層は、Partition(Xp、Y)=Pになるような外部関数パーティション1510を通してPによって示され得、ここで、P={P1、...、Pi、...、Pk}であり、kは、各パーティションが正確に1つのルールによって規定される場合のルールの数に等しい。パーティショニング関数は、k-means、ベイズ、接続性ベース、重心ベース、分布ベース、グリッドベース、密度ベース、ファジーロジックベース、エントロピーベース、相互情報(MI:mutual information)ベース方法、または任意の他の論理的に適した方法等のクラスタリングアルゴリズムとすることができる。パーティション関数は、多数のオーバーラップするまたはオーバーラップしないパーティションをもたらすことになるアンサンブル法を含むこともできる。オーバーラップするパーティションの場合、集約関数が、複数のパーティションからの結果を結合または分割するために使用され得る。パーティション関数は、代替的に、関連付けベースアルゴリズム、因果ベースパーティショニング、または他の論理的に適したパーティショニング実施態様を含むことができる。
i(x)は、i番目のパーティションにおける各ルールを示すことができる。各ルール(Ri(x))は、Ri(x)=C1∧C2∧...∧Cj∧...∧Cqになるような複数の条件を含むことができ、ここで、qはルール内の条件の数を示すことができ、Cjは、i番目のルール(すなわち、i番目パーティション)の入力行列xに関してj番目の条件とすることができる。摂動入力行列Xpは、パーティションがオーバーラップしないときに{XL1、XL2、...、XLi、...、XLk}の和集合=Xpであるように、XLが、{x|x∈Xp∧Ri(x)=真}によって規定されるローカルにフィルタリングされた行列を示すように、k(ここで、kはルールの数に等しい)行列に分割され得る。パーティションが互いにオーバーラップするとき、{XL1、XL2、...、XLi、...、XLk}の和集合≠Xpである。パーティションが互いにオーバーラップするとき、ランク付け関数は、最も関連するルールを選択するために適用される、または、何らかの形態の確率重み付け結合方法において使用される必要がある。代替の実施形態において、2つ以上のパーティションが活性化される場合、何らかの集約関数が、複数のパーティションからの結果を結合するために使用される。
次の例示的なステップは、Riによって規定される各パーティションにローカルモデルをフィットさせることを含むことができる。XLは、XpとRi(x)の両方において見出される入力を示すことができる。換言すれば、XLは、i番目のルールに適用する入力または特徴量データとすることができる。ローカルサンプルはフィルタリングされ得る1512。XLは、その後、摂動され得り1514、XLPは、XLとPerturbate(XL)のローカルに摂動されたデータセットの結合を示すことができる。そのため、YL=Predict(XLP)であり、摂動されたデータをローカルに予測する1516。最後に、XTは、XT=Transform(XLP)になるようなXLPの変換を見出す1518ことによって計算され得る。変換関数は、多項式展開、回転、次元および無次元尺度法、フーリエ変換、整数/実数/複素数/クォータニオン/オクトニオン変換、ウォルシュ関数、状態空間および位相空間変換、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、相違分析、およびデータの正規化/標準化を含むが、それに限定されない変換のパイプラインとすることができる。変換関数パイプラインは、時間的に順序付けられたデータシーケンスを含む、1つまたは複数の変数の値に従って順序付けされるデータのシーケンスを分析する変換をさらに含むことができる。XTは、zが変換関数によって特徴量の総数を示すように新しい特徴量を生成することができる。
1~nの範囲内の各j(すなわち、出力の番号)について、システムは、線形方法でローカルモデルを計算する1520ことができる。YLは、YLjがj番目の出力ベクトルを示すような、n個のベクトル(各出力について1つのベクトル)を含む行列である。線形モデルは、Yij=Fit(XT、YLj)によって規定され得、ここで、Fitは、線形回帰、ロジスティック回帰、カーネル法等のような線形モデルをフィットさせる関数である。線形モデルは、Yij=β0+β11+…+βii+…+βzzになるように係数のセット{β0..βz}を規定する1522。線形モデルまたは線形モデルの結合は、ルールを有するXAIモデルを提供する1524ことができる。代替の実施形態において、ローカルモデルのフィットは、並列プログラミングまたは勾配降下技法または適した等価物を使用して、1つのアトミックフィット関数において達成され得る。xiが、多項式(x2等)、インターセクション(xy等)、条件付き特徴量(x>10およびy<2等)、フーリエ変換等のような被変換特徴量である可能性があることに留意されたい。βiが、関連する被変換特徴量についてモデルに対する正または負の寄与に対応して正または負である可能性があることに留意されたい。正または負の寄与は、興奮性および抑制性影響と同様に一般に呼ばれ得る。圧縮または正則化技法は、ローカルモデルのフィットを簡略化するために同様に適用され得、それは、結果として得られる説明を間接的に同様に簡略化する。最後に、ルールは、Yijの種々の結合から構築され得る。
Rule1(x)={Y11、Y1,2、...、Yi,n}if R1(x)
Rule2(x)={Y21、Y2,2、...、Y2,n}if R2(x)
Rulei(x)={Yi1、Yi,2、...、Yi,n}if Ri(x)
Rulek(x)={Yk1、Yk,2、...、Yk,n}if Rk(x)
p個のパーティションを有する図4に示す例示的なXNNアーキテクチャは、n個のローカルモデル525、値出力レイヤvaluelayer={r1、r2、...、rn}426、スイッチ出力レイヤswitchlayer={s1、s2、...、sn}416、および、valuelayer426とswitchlayer416を結合する連言レイヤconjunctivelayer={v1、v2、...、vn}516を含むことができる。Sigmoid等の活性化関数520は、例示的なXNNアーキテクチャの最終出力を生成するために出力値に対して使用され得る。疎なXNN/INNがパーティション構造の複数の部分をエネルギー効率的な方法で実施するために利用され得ることが企図される。
説明可能なモデル階層的パーティションは、1つまたは複数の反復的最適化ステップ1523を課される場合もあり、反復的最適化ステップ1523は、何らかの適した集約、分割、または最適化法を使用して、階層的パーティションをマージし分割することを任意に含むことができる。適した最適化法は、パーティションの全体数を最小する最適ゲージ固定を与えながら、予測器の計算データ空間内で全ての経路接続トポロジカル空間(all paths conected topological spase)を見出そうとすることができる。
XTTトランスデューサは、XNNアーキテクチャの複数のコンポーネントを置換するために、6タプル
Figure 2024500182000007
として規定され得、ここで、Κは状態の有限セット(説明モデル状態を含む)を指し、Σは入力シンボル(説明シンボルを含む)のアルファベットを指し、
Figure 2024500182000008
は出力シンボル(説明シンボルを含む)のアルファベットを指し、sは、s∈Κであるような開始状態を指し、γは、
Figure 2024500182000009
であるような出力関数を指し、Δは遷移関数(説明に関連付けられる正当化理由の主要なコンポーネントを形成する説明関連遷移を含む)を指す。例示的な実施形態において、入力Σは、Σ={valuelayer、switchlayer}になるようなvaluelayer426およびswitchlayer416にセットされ得る。出力
Figure 2024500182000010
は、
Figure 2024500182000011
になるような連言レイヤconjunctivelayerにセットされ得る。説明可能な有限状態トランスデューサXTTtの遷移関係Δは、valuelayerおよびswitchlayer値をconjunctivelayer値に翻訳する。出力語彙が、連言レイヤ516の代わりに、活性化関数520の出力にセットされ得ることがさらに企図され得る。
XTTは、訓練済み条件付きネットワークレイヤ410上に構築され得る。例示的な実施形態において、入力Σは、XNNアーキテクチャのパーティション境界412にセットされる。出力
Figure 2024500182000012
は、スイッチ出力レイヤ416にセットされる。遷移関係Δは、スイッチ出力レイヤ416に関連して条件付きレイヤ412と集約レイヤ414との間の遷移を含む。
例示的な実施形態において、XSFTスタイルXTTは、ローカルモデルのインデックスおよびそれぞれの予測値を受容し、XNNアーキテクチャ内で利用されるローカルモデルのそれぞれのパーティション情報を予測値と共に出力する。テープは、図12に示すように、開始状態s2700に挿入される。テープは、各観測について、値レイヤ要素のインデックスとそれに続くそれぞれの予測を含む。図12に示すように、例示的なXTTは2つのパーティションを含む。任意のパーティションのそれぞれのインデックスの照合は、そのようなパーティションの状態に入り、そのようなパーティションのパーティショニング情報を返し、パーティショニング情報は値レイヤのインデックスを置換する。
別の例示的な実施形態において、説明可能な有限状態トランスデューサは、ローカルモデルのインデックスならびに関連予測値および/またはクエリ入力値を受容し、何らかの適切な出力エンコーディングにおいて共に多重化された予測値および説明を出力する。
XTTは、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを用いて、ブラックボックスフィードフォワードニューラルネットワーク230、270および後続の加算および正規化コンポーネント232、272等の複数の接続コンポーネントを帰納することができる。
XTTは、ホワイトボックスモデルを作成するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを用いて、デコーダレイヤの、エンコーダ-デコーダマルチヘッドアテンションコンポーネント240、加算および正規化コンポーネント242、フィードフォワードニューラルネットワークコンポーネント270、および/または加算および正規化コンポーネント272を帰納することができる。そのような説明可能なモデルは、元のコンポーネントとそれらの説明可能なモデル置換物との間のバイシミュレーション等価性(bisimulation equivalence)を維持するために意図的に疎であるおよび/または圧縮され得る。
トランスフォーマアーキテクチャを帰納するXTTアーキテクチャは、図6に示すように、インラインXTTアーキテクチャと呼ばれ得る。トランスフォーマアーキテクチャを帰納し、さらなる並列の説明可能なエンコーダレイヤおよび並列のデコーダレイヤを使用するXTTアーキテクチャは、図7に示すように、並列のXTTアーキテクチャと呼ばれ得る。
説明可能なトランスフォーマは、3タプルデータベース<I、O、E>に対して訓練され得、ここで、Iは入力を指すことができ、Oは出力を指すことができ、Eは入力Iと出力Oとの間の説明を指すことができる。図6に示すように、入力は、図6に示すように、XTTを説明可能なモデルを用いて訓練するために、トークン埋め込み200、トークン位置情報210、および任意にパーティショニング情報1500、1501または外部の説明可能なモデルからの同様の説明生成データの組み合わせを含むことができる。グレイボックスXTT実施態様が、Vaswani等(2017)に示すように、代わりにブラックボックスフィードフォワードコンポーネントを使用することによって達成され得ることがさらに企図される。
トランスフォーマは、マスク付き言語モデリング(Devlin等、2018)等の自己教師あり学習技法を使用することによって、図8(a)に示すようにエンコーダ部(part)に対してのみ訓練され得る。説明可能なトランスフォーマ-エンコーダは、図8(b)に示すように、説明可能なアーキテクチャx2000(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャによって、エンコーダレイヤのブラックボックスフィードフォワードニューラルネットワークコンポーネント1900を帰納することができる。XTT-エンコーダのアーキテクチャは、入力埋め込み1901、位置エンコーディング1902、マルチヘッドアテンションコンポーネント1920、加算および正規化コンポーネント1930、説明可能なアーキテクチャ2000、および加算および正規化コンポーネント1910からなることができる。
説明可能なトランスフォーマ-エンコーダは、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを用いてフィードフォワードニューラルネットワークコンポーネント1900および加算&正規化レイヤ1910を帰納することができる。
説明可能なトランスフォーマ-エンコーダは、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを用いて、マルチヘッドアテンション1920、加算および正規化コンポーネント1930、フィードフォワードニューラルネットワークコンポーネント1900、および/または加算および正規化コンポーネント1910を帰納することができる。
トランスフォーマは、図9(a)(Radford等、2018)に示すように、トランスフォーマアーキテクチャのデコーダ部に対してのみ訓練され得る。XTTは、図9(b)に示すように、説明可能なアーキテクチャx2400(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャによって、デコーダレイヤのフィードフォワードニューラルネットワークコンポーネント2320を帰納することができる。
説明可能なトランスフォーマ-デコーダは、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを用いて、フィードフォワードニューラルネットワークコンポーネント2320と加算および正規化コンポーネント2330の結合等の複数のコンポーネントを帰納することができる。
説明可能なトランスフォーマ-デコーダは、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを有するマルチヘッドアテンション2350、加算および正規化コンポーネント2340、フィードフォワードニューラルネットワークコンポーネント2320、および/または加算および正規化コンポーネント2330を帰納することができる。
説明可能なトランスフォーマベースアーキテクチャXTT、XTT-エンコーダ、およびXTT-デコーダは、複数レベルの説明であって、パーティショニング情報、モデルの内部係数、および入力空間の特徴量寄与度を含むことができる、複数レベルの説明を生成することができ、そのような説明は、解釈者に対する出力とすることができる。説明は、入力次元の重要度を示すことができるテキストフォーマットまたは数値フォーマットの形態、または、入力および適切な相互作用に適用される何らかの形態の適切な変換とすることができ、そのような変換は、マルチメディア画像、ビデオ、3Dデータ、多次元データ、および他の適したフォーマットを含む種々の出力フォーマットで説明を出力することができる。説明は、例えば、入力次元の所与のセットにおいてバイアスを決定するために、バイアス制御スワップを利用することによって、介入および/または反事実的プロセスを適用する結果を含むこともできる。XTTによって直接検出された任意のそのようなバイアイスは、そのようなバイアス試験のためのデータセットを使用する必要でさえないとすることができる。そのような結果が、識別-アセス-推奨-解決(IAR)フレームワーク内で、適した識別、アセスメント、推奨、ランク付け、および解決関数の適用によって一般化され得ることがさらに企図される。
XTTは、木、グラフ、ハイパーグラフ、および単体的複体の形態の階層的に構造化されたデータを含む、構造化データと非構造化データの両方を処理することができる。木トランスフォーマ(Wang等、2019)に関する関連する従来の研究は、入力トークンの木ベース構造を導入するために構成アテンションコンポーネントを使用して、アテンションヘッドを制約する。本発明者等が提案する方法と違って、木トランスフォーマは、ブラックボックスフィードフォワードニューラルネットワークコンポーネントを利用し、したがって、グレイボックス法として分類され得る。活性化経路トレースは、XTTの場合と違って、木トランスフォーマを使用して実施することが可能でないことになる。本発明者等が提案する方法は、グローバルおよびローカル説明を生成するためにトランスフォーマベースアーキテクチャにホワイトボックスコンポーネントを導入する。XTT説明可能なモデル内の階層的に構造化されたパーティションシステムは、構成事前物を使用して木トランスフォーマにおいて部分的に達成されるだけである複雑な構造化データの処理に当然適する。XTTアテンションモデルは、そのような事前物の階層の等価物を、異なるレベルの詳細およびスケールで表現することが可能であり、それは、木トランスフォーマおよび関連する変形を用いて達成することが不可能である。これは、ルールベースモデル(XAIモデル)において利用可能である線形または非線形方程式、または、XNN、INN、XSN、XMN等の論理的に等価な方法および他の適切に等価な実施方法によって可能とすることができる。線形または非線形方程式において、特徴量のリストは、その所与のモデルまたはルールのセットについて特徴量重要度を示すことができるそれらの対応する係数と共に抽出され得る。説明可能なモデルの係数行列Cは、F(X)によって規定されるモデルにおいてルール/パーティションについて最も重要な特徴量を抽出するために直接分析され得る。
代替の実施形態において、Cp,iがp番目のパーティション/ルールのi番目の係数を識別するよう、I={θ0、...、θi、...、θk-1}(ここで、
Figure 2024500182000013
)になるよう、ベクトルIが、全てのj個のルールから各特徴量の集約された重要度を示すように、係数の行列は集約され得る。最後に、Is={F0、...、Fs、...、Fk-1}がIの全ての要素を有するソートされたベクトルを示すとする。ここで、sは、Fs-1≧Fs≧Fs+1になるようなソートインデックスを示す。マップベクトルMは、ソートされた係数インデックスsを変換された特徴量インデックスkにリンクするために同様に使用され得る。ルールベースXAIモデルのホワイトボックス性質を通して、ユーザは、その後、F0およびM0が最も高いバイアスを有する特徴量を含む場合があるソートされた特徴量重要度ベクトルFsのコンテンツを検査することによって、考えられる任意のバイアスを検査することができるとすることができる。
正規化は、結果として得られる特徴量重要度に同様に適用され得る。例示的な実施形態において、FおよびMベクトルは、バイアスおよびそれらのソースの適切なレポートおよび分析を作成するために使用され得、教師あり、教師なし、または半教師あり手段によるバイアス低減、軽減、または排除のための方策を定式化するための入力とすることもできる。
例示的な実施形態において、XTTは、多数の入力および出力モジュールを含むことができる。1つまたは複数のモジュールは、入力レイヤによって受信される前にまたは入力レイヤから出力された後に入力を正規化するように構成される正規化モジュール、入力レイヤによって受信される前にまたは入力レイヤから出力された後に上記入力をスケーリングするように構成されるスケーリングモジュール、および、入力レイヤによって受信される前にまたは入力レイヤから出力された後に上記入力を標準化するように構成される標準化モジュールを含むことができる。
代替の例示的な実施形態において、FおよびMベクトルは、特徴量発見およびモデル発見法への入力として使用され得、特徴量発見およびモデル発見法は、その方策を完全なものにするときにおよび/またはAIモデルに対する構造的変化を特徴量発見およびモデル発見法に提案させ任意に実行させるさらなる入力パラメータとしてこの情報を利用する。
例えば、典型的な実施形態において、バイアス情報は、バイアスを示すXNN/XSN/XMNの特定の部分にまたはバイアスを引き起こしている場合があるXAIモデル内のルールにまたはバイアスを示すXTTのアテンションモデルにまたは何らかのポリシー下でバイアスを引き起こしている場合があるXRLエージェントによって採用されるアクションにGAまたはMCSMシステムを集中させるために使用され得る。
ローカルバイアス検出は、特定のサンプルに適用され得る。回答は、その説明係数と共に、局所化されたバイアス検出のためのバイアスとして役立つことができる。例示的なモデルを参照すると、特定の入力サンプルは、2つの入力、この場合、xおよびyを有することができる。特徴量重要度ベクトルIは、特徴量{x、y、xy、x2、y2}に対応してI={β1、β2+β10、β3+β5、β7、β8}になるようにグローバルな方法で特徴量重要度を示すことができる。ベクトルIは、最も顕著な特徴量がベクトルの始めに配置されるように降順でソートされ得る。特定の入力ベクトル{x、y}を考慮すると、1つまたは複数のルールが関数f(x、y)を通してトリガーすることができることが留意され得る。
この例示的な実施形態において、x≦10とする。これは、関数Sigmoid(β0+β1x+β2y+β3xy)をトリガーすることができ、関数Sigmoidは、E={β1x、β2y、β3xy}である説明候補としてバイアスにサーブする以下の局所化された特徴量重要度ベクトルをもたらす。異なる特徴量がグローバルおよびローカルレベルで異なる重要度を有することができることが留意され得る;例えば、この特定の実施形態において、グローバルに、特徴量xが最も重要であるとすることができる、しかしながら、関数を局所的に評価した後に、yが最も重要であることが留意され得る。
XTTは、規定されたモデルの性能を上げるために、適した分散型の説明可能なアーキテクチャ(DEA:Distributed Explainable Architecture)と併せて使用され得る。分散型の説明可能なアーキテクチャDEAは、m={x1、x2、...、xn}かつxi∈{XAI、XNN、INN、XTT、XRL、XSN、XMN}であるような複数の説明可能なアーキテクチャDEAmあるいは論理的に等価なまたは同様のアーキテクチャを含むことができ、そのようなアーキテクチャは、並列に処理される。説明可能な分散型フレームワーク内の説明可能なアーキテクチャ2610の数はDEAnとして規定される。
図11は、分散型訓練システムの高レベルアーキテクチャを示し、DEAmはXTTアーキテクチャを示し、DEAnは、さらに、説明可能なアーキテクチャの同質または異質混合とすることができるn個のモデルを含む。DEAは、説明可能なアーキテクチャDEAmを訓練するために、データセットをデータの複数のサブセット2600に分割する。All-Reduce、Horovod、および他の適した分散型学習技法のような一括操作技法(collective operation techniques)を含むが、それに限定されない適切な分散型訓練技法がDEA内の同質および異質の説明可能なモデルミックスに適用され得ることがさらに企図される。
分散型フレームワークDEAにおいて訓練されるモデルは、並列モデルからの平均(または重み付き平均)を計算することによって訓練フェーズ中に集約される2620。集約モデルは、個々のモデルの結果からではなく、モデルの重みに直接基づいて形成され得る。分散型説明可能なアーキテクチャDEAは、訓練用データが単一機械のCPU/GPUメモリにフィットすることができない大きいデータセットについて有用とすることができる。
DEAは、アーキテクチャのモデルが、x(ここで、x∈{XAI、XNN、INN、XTT、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャのミックスであるようなハイブリッドモデルを含むことができる。例示的な実施形態は、複数の異なるモデルを実施することができる。例えば、1つのデータ部はXNNを実施することができ、一方、同じシステムの別のデータ部はXTTを実施することができる。モデルは、その後、集約モデルを作成するために結合され得る。集約モデルは、x(ここで、x∈{XAI、XNN、INN、XTT、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャに等しいとすることができる、または、複数の異なるモデルを実施するハイブリッドモデルとすることができる。
DEAは、複数の独立したモデルを組み込むことができ、1つのモデルは、訓練されると、主に訓練のために最適化される完全な分散型アーキテクチャに依存する必要性なしで、独立に働くことができる。
XTTアーキテクチャは、XTTの説明可能なアーキテクチャによって生成される出力から説明スカフォールドを構築し、解釈者に結果を示すためにそれを使用して、モデルがそのような予測にどのように到達したかを理解するのを手伝う。解釈者は、エンドユーザまたはXTTアーキテクチャ内のコンポーネントとすることができる。
説明可能なトランスフォーマアーキテクチャXTTの基礎のコンポーネントは、それらの状態またはモデルの内部部分を更新するためにモデル解釈を必要とすることができる。
3つのタイプのモデル解釈:(i.)基本的解釈または回答、(ii.)説明解釈または説明、および(iii.)メタ説明解釈または正当化理由が存在する。
基本的解釈または回答は、サブコンポーネントによって理解され得る予測出力oを指すことができる。
説明解釈または説明は、2タプルベクトル<o、w>によって示され、サブコンポーネントによって理解され得る、そのような予測値についてのモデル説明wと結合された予測出力oを指すことができる。モデル説明は、所与の観測について入力特徴量の特徴量重要度を説明するために利用され得る、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャの係数θを含むことができる。
メタ説明解釈または正当化理由は、3タプルベクトル<o、w、j>によって示され得、予測出力o、モデル説明w、およびモデル説明の正当化理由jを含むことができる。モデル正当化理由jは、モデル説明を生成するために考慮された、説明システムによって採用された仮定、プロセス、および意思決定に関するさらなる情報を提供する。
モデル説明およびメタ説明解釈は、XTTアーキテクチャ内のコンポーネントを更新するために解釈者によって利用され得る。
例示的な実施形態において、XTTは、説明および解釈生成システム(EIGS)内で利用されて、入力クエリの処理のために適したモデルを提供し、上記入力クエリに関する適切な回答、説明、およびオプションの正当化理由を生成することができる。典型的なEIGS説明および解釈パイプラインは図14に示される。XTTが、提示出力を変換すること、ユーザ固有出力個人化、コンテキスト固有出力変換、目標固有出力変換、計画固有出力変換、およびアクション固有出力変換を含むが、それに限定されない、EIGS内の説明スカフォールドの適切な部分を変換するために利用され得ることがさらに企図され得る。XTTが、統計的、因果的、タクソノミカル、オントロジカル、ドメイン、および意味論的情報の結合に基づいてEIGS出力を変換するために利用され得ることがさらに企図される。
例示的な実施形態において、XTTは、説明および解釈生成システム(EIGS)内で利用されて、Filterが、説明スカフォールドの適切なフィルタリングを生成するための適したモデルを提供することができる。XTTが、解釈フレーミング、プロトコルコンテキスト、解釈ルール、解釈手順、解釈シナリオ、および競合解決情報の組み合わせを利用して、EIGS内の説明スカフォールドの適切な部分をフィルタリングするために利用され得ることがさらに企図され得る。XTTアテンションモデルは、EIGS内のフィルタ内および/またはフィルタ間合意プロセスを実施するために使用され得る。
例示的な実施形態において、XTTは、説明および解釈生成システム(EIGS)内で利用されて、解釈者が、適切な解釈を生成し、解釈スカフォールドの要素を生成するための適したモデルを提供することができる。XTTは、解釈出力を変換すること、解釈シナリオ固有出力変換、コンテキスト固有変換、および解釈要約固有出力変換を含むが、それに限定されない、EIGS内の解釈スカフォールドの適切な部分を変換するために利用され得る。XTTは、フレーミング、プロトコル、解釈ルール、解釈手順、解釈テンプレート、解釈要約、シナリオモデル、ドメイン、対話型コンテキスト、および競合解決情報の組み合わせに基づいてEIGS解釈出力を変換するために利用され得る。XTTアテンションモデルは、EIGS内で解釈者内および/または解釈者間合意プロセスを実施するために使用され得る。XTTは、適切な選択モデルおよび選択プロセスに基づいてEIGS解釈出力を変換するために利用され得る。
XTTは、畳み込みニューラルネットワーク(CNN:convolutional neural network)(Dosovitskiy等、2020;Chen等、2020)を必要とすることなく画像に対して訓練され得る。トランスフォーマは、言語トークンを予測する代わりに、入力画像のピクセルを自己回帰的に予測するために、画像の2D入力構造を組み込むことなく画像データに対して訓練され得る。iGPT(Chen等、2020)は、低解像度バージョンのImageNetデータセットを使用して、トランスフォーマアーキテクチャにおいて画像表現を学習するためにGPT-2アーキテクチャを訓練した。ビジョントランスフォーマ(Vision Transformer)(Dosovitskiy等、2020)は、トランスフォーマアーキテクチャを訓練するために、入力画像を複数のパッチに分割し、それらを平坦化し、それらを入力トークンとして使用する。ビジョントランスフォーマ(Vision Transformer)(Dosovitskiy等、2020)およびiGPT(Chen等、2020)は、ブラックボックストランスフォーマとして見られ得る。なぜなら、多層パーセプトロン(MLP:multilayer perceptron)等のそのコンポーネントが説明可能または解釈可能でないからである。XTTは、トランスフォーマアーキテクチャ内にホワイトボックス説明可能なコンポーネントを導入し、それらのコンポーネントは、解釈可能な内部係数、および、ビジョントランスフォーマ(Dosovitskiy等、2020)またはiGPT(Chen等、2020)の説明と合致され得る説明の生成を可能にする。セルフアテンションメカニズムの変形が、トランスフォーマにおいて使用され得る。
EQトランスフォーマ(EQTransformer)(Mousavi等、2020)は、予測される地震信号、P相出力、およびS相出力が説明可能または解釈可能でないためブラックボックスモデルである。XTTは、トランスフォーマアーキテクチャ内にホワイトボックス説明可能なコンポーネントを導入し、解釈可能な内部係数、および、各入力特徴量の重要度を示す、入力空間に対する特徴量寄与度等の説明の生成を可能にする。そのため、地震検出システムの例示的なXTTベース実施態様は、EQトランスフォーマと違ってホワイトボックス説明可能なシステムをもたらすことになる。XTTは、XNN等のXTT内に埋め込まれた説明可能なモデルのみに頼る、EQトランスフォーマの場合と同様に複数のエンコーダ-デコーダに頼る必要なしで、階層的に構造化された説明のさらなる一般化を同様に可能にする。
セルフアテンションメカニズムまたは同様のメカニズムは、説明可能なセルフアテンションメカニズムを作成するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャによって帰納され得る。セルフアテンションメカニズムおよびブラックボックスセルフアテンションメカニズムまたは同様のメカニズムの入力トークンは、説明可能なアーキテクチャxを帰納するために入力として必要とされ得る。説明可能なセルフアテンションメカニズムは、パーティショニング情報、モデルの内部係数、および入力空間の特徴量寄与度を含むことができる複数レベルの説明を生成することができ、そのような説明は、解釈者に対する出力とすることができる。
XTTは、マスキング、穴埋め問題(cloze deletion)、パターン利用訓練(PET:Pattern-Exploiting-Training)、ゲーム理論アプローチ、および他の適した技法等の自己教師あり技法を使用して訓練され得る。型付け式マスクシンボルは、異なるシンボル、概念、またはオブジェクトのクラス/群を示すことができ、入力データにわたって分配されエンコードされ得る。型付け式(typed)マスクと入力シンボル/特徴量の残りの部分との相互作用は、XTTによって使用される一般化された訓練用データを示す。型付け式マスクは、考えられるタスクおよびモダリティのサブセットの並べ替えから選択され得る。そのため、タイプされないマスクは、考えられる全てのタスクおよびモダリティを1つのマスクシンボルになるように結合する型付け式マスクの等価物である。
XTTは、単一ベクトルνにマージするために、全てのエンコーダまたはデコーダレイヤから過去に学習した表現または履歴状態を利用することができる。ベクトルνは、XTTの初期レイヤがより高いレベルの表現にアクセスできるように、XTT内の任意のレイヤに対するフィードバックとして使用され得る。フィードバックトランスフォーマ(Feedback Transformer)(Fan等、2020)等の過去の研究は、より高いレベルの表現に対応するために、セルフアテンションの修正に限定される。XTTは、ホワイトボックスモデルの性質によってより高いレベルの表現に対応するためにホワイトボックスモデルの任意の内部係数を利用することができる。因果的にありそうもない推論を作成することまたは統計的に有効であるが、因果的にありそうもないとすることができる予測経路を作成することを回避するために、そのようなXTTが過去に学習した表現に因果的制約を課すこともできることがさらに企図される。XTTは、説明可能であるが同時に因果的かつ環境的なありそうなフィードバックメモリを達成するため、過去に学習した表現にさらなる環境的にありそうな制約を課すために、挙動モデルならびにそれらの条件、イベント、トリガー、およびアクション状態表現を利用することもできる。フィードバックメモリをXTTに付加することは、XTTをチューリング完全(Turing Complete)にする。なぜなら、XTTが、条件付き処理を示し、チューリング機械をシミュレートすることができ、自動化コード生成、改良、および最適化等の新しいアプリケーション領域を開くからである。
例示的な実施形態において、XTTシステムは、適した形式言語で書かれた既存の形式コンピュータプログラムを分析し構文解析し、ロードされると、XTTアテンションモデルを使用してそれをさらに改良するために使用され得る。人間ユーザは、自然言語コンテンツを生成するために使用される次のシーケンストークンに対して、同様のメカニズムを使用することによってユーザが記入する必要があるエリアを示すことができるとすることができる。形式言語の場合、説明可能なモデル内の階層的パーティション構造は、形式言語プログラムの構造またはアーチファクトを直接モデル化するために使用され得る。形式仕様言語が、形式言語プログラムを使用して解決される必要がある問題を指定するために使用され得、したがって、措定された問題について候補コード解決策をXTTシステムが自動的に生成することを可能にすることがさらに企図される。別のオプションにおいて、XTTシステムは、予め規定されたスタイリスティックスタンダードに従ってコードを変換し、矛盾または誤りを強調し、コードのよりよい代替物ならびにリファクタリング(re-factoring)およびリライト(re-write)を提案し、難読化された(obfuscate)コードを難読化解除し、そして、α変換、β簡約、およびη簡約等の機能的プログラミング言語概念を、生成されたコードに適用するために同様に使用され得る。別のオプションにおいて、XTTシステムは、証明済みステートメントおよび/または不完全ステートメントのスクラッチからまたはそれらの既存の集合体によって、数学的表現、ステートメント、および証拠を自動的に分析、生成、およびオートコンプリートするために、Metamath、F*、HOL、Mizar、および他のもののような適した数学的形式言語システムと共に自動定理証明システム(Automated Theorem Proving system)と併せて使用され得る。別のオプションにおいて、XTTシステムは、創薬(drug discover)、医療アプリケーション、および薬物アプリケーションに関わる規制されかつ信頼できるアプリケーションのために必要である、XTTによって適用される入力-出力変換の間の基礎の仮定の説明を提供しながら、DNA、遺伝子発現、タンパク質フォールディング(protein folding)、および他の関連する生物化学的アプリケーションにおける規制的変化を説明するため、タンパク質または他の適した分子形状と併せてDNAコードを分析するために使用され得る。
例示的実施形態において、エンド-ツー-エンド深層学習アーキテクチャは、画像およびビデオ圧縮のために使用されるXTTからなる。ビデオフレームは、XTTを訓練するための入力トークンとしてその後使用されるパッチに分割される。そのようなコンテキスト化されたトークンは、最適性能のために必要とされる弁別的特徴量(distinctive features)をダウンサンプリングすることによって生成される。XTTの説明可能なアーキテクチャによって生成される説明は、バックマッププロセス中に損失なし説明経路を形成することができる。経路は、特定の分類ラベルについてフィルタリングされコンテキスト化されたトークンの重要度を示すことができる。(Goyal等、2020)において提示されるような冗長性最適化および適応的トークン排除技法は、XTT性能をさらに加速するために利用され得る。
XTTは、エンド-ツー-エンド自動スピーチ認識(ASR:automatic speech recognition)アーキテクチャにおいて使用され得る。例示的な実施形態において、XTTは、スピーチオーディオ波形を対応するテキストに翻訳するために使用される。事前訓練済みXTTコンテキスチュアル表現は、出力を予測するために線形レイヤおよびSoftMax操作に接続される。予測された出力は、その後、ビームサーチデコーダ等のデコーダに接続されて、その出力を対応するテキストに変換する。
例示的な実施形態において、XTTは、スピーチを処理するためにエンド-ツー-エンド深層学習アーキテクチャにおいて使用される。XAED-エンコーダは、スピーチを潜在的離散的表現に変換するために使用される。XTTは、直前の出力に基づいて次の出力を予測するために、XAED-エンコーダの出力に接続される。XAED-デコーダは、予測された出力をスピーチに変換するためにXTTに接続される。例示的な実施形態の性能を測定するために、音素誤り率(PER:phoneme error rate)メトリックが、生成されたオーディオをテキストに変換するために事前訓練済みASRモデルを用いて使用される。
例示的な実施形態において、XTTは、複数オブジェクト追跡のために使用される。XTTは、出力としてバウンディングボックスを生成するために、エンコーダおよび2つのデコーダd1およびd2からなる。XTT-エンコーダのキーおよび値ならびにクエリq1は、d1への入力として渡される。d1は、現在のビデオフレーム内のオブジェクトを予測することができる。XTT-エンコーダのキーおよび値ならびにクエリq2は、d2への入力として渡される。d2は、直前のフレーム内で検出されたオブジェクトを用いて現在のビデオフレーム内のオブジェクトを予測することができる。d1およびd2の性能は、積集合対和集合(intersection over union)等のメトリックを使用して測定され得る。
XTTは、デジタル表面モデル(DSM:digital surface model)または深度マップ(DM:depth map)生成のため、衛星の、空中の、または他のタイプの鳥観図(BEV:bird-eye-view)画像を照合するために使用され得る。例示的な実施形態において、XTT-エンコーダは、予測値が分類の代わりに視差回帰(disparity regression)を使用して計算される、図10(a)に示すアーキテクチャと同様の例示的なアーキテクチャを利用して、衛星画像対間の視差を測定するために使用される。XTT-エンコーダの入力トークンは、画像対を、
Figure 2024500182000014
として規定される平坦化された画像パッチに分割することによって生成され得る。[SEP]シンボルは、第1の画像と第2の画像との間の分離器として使用され得る。視差は、線形レイヤあるいは説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャをXTT-エンコーダの最終レイヤにアタッチすることによって予測され得る。入力画像が、CNN、CNN-XNN、CNN-XTT、および/またはXAEDの組み合わせを使用して、XTT-エンコーダに先立ってエンコードされることがさらに企図される。XTT-エンコーダのホワイトボックス説明可能なコンポーネントは、解釈可能な内部係数、ならびに、各入力特徴量の絶対的重要度および相対的寄与を示す、入力画像の入力空間に対する特徴量寄与度等の説明の生成を可能にする。XTTが、XTT-エンコーダの直接的拡張によって、単眼、複眼、およびマルチビュー入力データのイメージャリを処理するために利用され得ることがさらに企図される。
例示的な実施形態において、XTTは、オーディオがビデオ内に存在するか否かを予測するオーディオ-ビジュアル分類タスクのために使用される。オーディオは、スライディングウィンドウアプローチを使用してフレームに分割された抽出済みスペクトログラムを使用して示される。ビジュアルフレームは、オーディオ表現において使用されるスライディングウィンドウアプローチによってサンプリングされたフレームを使用して、ビジュアルフレーム埋め込みとしてCNN-XNNアーキテクチャの平坦化レイヤを使用して示される。XTT-エンコーダについての入力は、オーディオ埋め込みからなることができ、デコーダへの入力は、ビジュアル埋め込みからなることができる。入力の順序は、ビジュアル埋め込みがXTT-エンコーダへの入力になり、オーディオ埋め込みがデコーダへの入力になるように反転され得る。XTTは、入力オーディオイベントクラスがビデオ埋め込み内に存在するか否かを予測するためにシグモイド層に接続される。さらなる例示的な実施形態において、CNN-XTTアーキテクチャは、CNN-XNNアーキテクチャの代わりに使用される。さらなる例示的な実施形態において、CNNアーキテクチャの最終フィードフォワードレイヤは、CNN-XNNアーキテクチャの平坦化レイヤの代わりに使用される。さらなる例示的な実施形態において、CNN-XTTアーキテクチャは、オーディオ-ビジュアル入力内のオブジェクトを含む、オーディオを除く他の入力モダリティを検出するために利用される。
XTTは、合成的に生成された多次元データの生成および検出のために使用され得る。例示的な実施形態において、XTT実施態様は、真正画像からディープフェイク画像を検出し分類するために、または、機械学習システムを混乱させるためにデータに付加された敵対的攻撃情報の存在を検出するために使用され得る。説明可能な敵対的生成ネットワーク(XGAN:Explainable Generative Adversarial Network)および/または説明可能な敵対的生成模倣学習(XGAIL:Explainable Generative Adversarial Imitation Learning)モデル等の適した説明可能なモデルが、XTTの生成および検出能力を拡張するために使用され得ることが企図される。別の例示的な実施形態において、XTTは、実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され(lit)、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするために、カメラ処理システム内に実施され得る。そのような合成画像ブレンドシステムが、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、または同様のメタバースシステム内に実施され得ることがさらに企図される。さらなる例示的な実施形態において、XTTベースシステムは、合成画像とリアルライフイメージャリまたはメタバースイメージャリとのリアルタイムブレンディングを実施するために、AR/VR/メタバースアプリケーションのために利用されるポータブルハードウェア眼科デバイス内に実施され得る。そのようなXTTベースシステムが、手術または医療画像の分析において使用するための医療ハードウェア内で、機器検査プロセスおよび製造検査プロセスにおいて使用するためのエンジニアリングアプリケーション内で、そして、電気機械インタフェース、電気化学生体インタフェース、または、生体ニューロン-人工AIシステムインタフェース等の適切な生体-電気人間機械インタフェース内等、人間可読および解釈可能フォーマットでデータを送信する医療インプラント内で実施され得ることがさらに企図される。さらなる例示的な実施形態において、XTTベースシステムは、生体ニューロンからの入力信号を受信し、適切にエンコードされたフォーマットで生体ニューロンに信号を出力する、2つ以上の生体ニューロンを架橋する医療埋め込み式デバイスの一部として実施され得る。そのようなアプリケーションが、例えば、対まひ患者(paraplegic patient)において、損傷した生体神経システム接続を架橋するための現実的解決策を提供する、または、高度人口装具デバイスにおいて、カメラおよび他のセンサ等の人工デバイスの埋め込みおよび接続を補助することができることが企図される。XTTシステムの一部として実施されるXGAILシステムのシミュレータおよびデータサンプル合成が、異なるモダリティの関連するシーケンス順序付けおよび環境世界コンテキストに従って適切に同期される(例えば、時間的同期)マルチモーダル混合出力をXTTシステムが生成することを可能にすることになることがさらに企図される。そのような例示的なXTTシステム実施態様が、例えば、特定の芸術的スタイルを模すために、生成されたデータサンプルを適切に修正するために使用され得る種々の学習済みスタイルを使用して、新規なデータサンプル、イメージャリ、デジタルおよびアナログ混合メディアペインティング、および3Dスカルプチャを作成するために同様に使用され得ることがさらに企図される。そのような生成されたデータサンプルが、何らかのセキュア追跡可能デジタルコード、分散型台帳エントリ、または非代替性トークン(NFT:non-fungible token)をタグ付けされ得ることがさらに企図される。
例示的な実施形態において、XTT実施態様は、形式的ミュージックノーテーション(formal music notation)および合成、サウンドサンプル混合、テキスト-ツー-スピーチ生成、および一般的オーディオサンプル生成の組み合わせを使用してミュージックを生成するために使用され得る。マルチモーダルXTT実施態様が、例えば、ミュージック用の付録ビデオを作成するビデオ生成、人間に似た動作を有する現実的な合成生成アバターを有するダンスビデオを作成するポーズ推定およびディープフェイク生成モデル、および同様なアプリケーションを使用して、異なるモダリティにおいてさらなる出力を生成するために使用され得ることがさらに企図される。マルチモーダルXTT実施態様が、例えば、仮想環境内で現実的に動き振る舞うアバターを作成するため、スピーチ、ポーズ推定、テキスト、およびジェスチャ識別を関連付けるために、異なるモダリティにおいて入力を分析するために使用され得ることがさらに企図される。
XTTは、下流タスクの性能をさらに改善するために、事前訓練後に、さらなるステップとして事前微調整され得る。
XTT-エンコーダは、ビデオフレームに関するアノテーションを予測するためにエンド-ツー-エンド深層学習アーキテクチャにおいて使用され得る。例示的な実施形態において、深層学習は、CNN-XNNコンポーネントおよびXTTコンポーネントからなる。入力データセットのビデオフレームは、オブジェクト埋め込みを予測するために、CNN-XNNアーキテクチャへの入力として使用される。ビデオフレームの対応する文字化されたテキストinputt(ここで、inputt={t1、t2、...、tn})は、コンテキスト化単語埋め込みを予測するためにXTT-エンコーダへの入力として使用される。説明可能なエンド-ツー-エンド深層学習モデルは、トークンtj(ここで、tjは、ビデオフレームの文字化されたテキストにおいて識別可能な単語を指すことができる)についてコンテキスチュアル単語表現の埋め込みをCNN-XNNアーキテクチャに学習させることができるため、CNN-XNNアーキテクチャは予測ラベルの意味論的コンテキストを学習することができる。さらなる例示的な実施形態において、CNN-XTTアーキテクチャはCNN-XNNアーキテクチャの代わりに使用される。
XTT-エンコーダは、エンド-ツー-エンド深層学習アーキテクチャにおいて、対話状態追跡(DST:dialogue state tracking)タスクについて、対話の状態を追跡し、オントロジーにおいて予め規定される代わりに未知スロットを学習するために使用され得る。例示的な実施形態において、XTT-エンコーダへの入力は、[CLS]トークン、システム対話トークン埋め込みds(ここで、ds={s1、s2、...、sn})、ユーザ対話トークン埋め込みdu(ここで、du={u1、u2、...、um})、および入力空間においてduからdsを分離する[SEP]トークンを含むことができる。コンテキスト化トークン表現[CLS]は、その後、対話のコンテキストクラスを分類するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャに接続される。入力トークンの残りの部分のコンテキスト化トークン表現は、開始出力について最大予測確率を有するトークンを選択し、終了出力について最大予測確率を有するトークンを選択することによって、スロット値の開始および終了位置を予測するために説明可能なアーキテクチャxに接続され得る。XTT-エンコーダの説明可能なアーキテクチャは、ブラックボックスモデルから帰納され得るまたはデータセットから直接学習され得る。
例示的な実施形態において、XTT-エンコーダは、所与の入力シーケンス内でエンティティを識別するために使用される。XTT-エンコーダによって処理される入力シーケンス{s1、s2、...、sn}は、コンテキスト化表現{y1、y2、...、yn}を生成する。コンテキスト化表現{y1、y2、...、yn}は、2つの出力:エンティティの開始位置およびエンティティの終了位置を予測するために説明可能なモデルに接続され得る。開始位置について最も高い確率予測を有するコンテキスト化トークン表現は、エンティティ表現の開始位置のために選択され得る。終了位置について最も高い確率予測を有するコンテキスト化トークン表現は、エンティティ表現の終了位置のために選択され得る。
さらなる例示的な実施形態において、XTT-エンコーダは、入力質問について回答の開始位置および終了位置を識別するために使用される。XTT-エンコーダへの入力は、[CLS]トークン、質問inputq(ここで、inputq={q1、q2、...、qn})のトークン埋め込み、回答inputa(ここで、inputa={a1、a2、...、am})のトークン埋め込み、および入力空間においてinputaからinputqを分離する[SEP]トークンを含むことができる。コンテキスト化トークン表現[CLS]は、その後、回答がトークン埋め込みinputa内に存在するか否かを分類するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャに接続される。inputaのコンテキスト化表現は、2つの出力:回答の開始位置および回答の終了位置を予測するために説明可能なモデルに接続され得る。開始位置について最も高い確率予測を有するコンテキスト化トークン表現は、回答の開始位置のために選択され得る。終了位置について最も高い確率予測を有するコンテキスト化トークン表現は、回答の終了位置のために選択され得る。
例示的な実施形態において、XTT-エンコーダは、知識ベースにおいて、テキスト内のエンティティのメンションを対応するエンティティにリンクするために使用される。XTT-エンコーダへの入力は、入力空間の開始における[CLS]トークンと、それに続く、コンテキストinputc(ここで、inputc={t1、t2、...、tn})のトークン埋め込み、メンションinputm(ここで、inputm={t1、t2、...、tm})のトークン埋め込み、エンティティinpute(ここで、inpute={t1、t2、...、tk})のトークン埋め込み、および入力空間においてinputeからinputmおよびinputcを分離する[SEP]トークンを含むことができる。[CLS]のコンテキスト化トークン表現は、その後、エンティティinputmのメンションがエンティティinputeにリンクされるか否かを予測するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャに接続される。XTT-エンコーダは、XTTであって、そのエンティティリンキングタスクにおいて意味論的に意識のある、XTTを学習するために、エンティティと同様であるメンションを負の予測として割り当てることができる。
XTT-エンコーダは、直前の出力に基づいて出力を予測するために、XTT-デコーダと結合され得る。例示的な実施形態において、XTT-エンコーダは、ビデオフレーム内で次の観測アクションを予測するために、XTT-デコーダと結合される。XTT-エンコーダは、l=XTT-Encoder(V)になるように各フレームについて特徴量表現lを生成するために、Dosovitskiy等(2020)の研究と同様のメカニズムにおいて、ビデオフレームV(ここで、V={ν1、ν2、...、νn})をオーバーラップしない平坦化画像パッチとして処理する。XTT-エンコーダプロセスが、説明可能なビデオコーディングおよびビデオモデリングシステムの実用的な実施態様において使用され得ることがさらに企図される。XTT-デコーダは、図10(b)に示すのと同様の方法で、直前のビデオフレームに基づいてビデオフレーム内に存在するアクションを予測するために、時間的位置埋め込みと組み合わされた特徴量表現lを処理する。
例示的な実施形態において、XTT-エンコーダアーキテクチャは、医療イメージング観測結果を分類するために訓練されたエンコーダベーストランスフォーマを帰納するために使用され得る。入力トークン{t1、t2、...、tn}は、位置埋め込みメカニズムと組み合わされた医療イメージングデータの複数の部分を指すことができる。XTT-エンコーダは、説明可能なモデルx2000を使用してブラックボックスフィードフォワードニューラルネットワークコンポーネント1900を帰納して、パーティショニング情報、モデルの内部係数、および直前のレイヤ1930の特徴量寄与度を含むことができる複数レベルの説明を、ブラックボックスフィードフォワードニューラルネットワークコンポーネントの出力に関連して構築することができる。XTT-エンコーダは、説明可能なモデルxを有するブラックボックスMHAコンポーネント1920を帰納して、パーティショニング情報、モデルの内部係数、および入力トークン{t1、t2、...、tn}の特徴量寄与度を含むことができる複数レベルの説明を、ブラックボックスMHAコンポーネント1920の出力に関連して構築することができる。モデルの内部係数および特徴量寄与度は、入力次元またはエンコーダベーストランスフォーマにおいて見出されるバイアスの重要度を示すことができる。
XTTは、トランスフォーマアーキテクチャにおいて学習された階層的構造に対する説明を構築するために、限定はしないが構成アテンションモジュール(Wang等、2019)からの係数等のさらなる入力を採用する説明可能なモデルxを含むことができる。
例示的な実施形態において、医療イメージングのためのXTTシステム実施態様は、入力画像トークンシーケンスに対して分類トークンを利用することによって、胸部x線画像データセットにおいて肺炎観測結果を分類するために訓練された説明可能なエンコーダベーストランスフォーマを使用することができる。説明可能なアーキテクチャxは、限定はしないが、それぞれの画像パッチの構成事前物等のさらなる入力を採用することができる。各エンコーダレイヤにおけるリンク確率およびそれぞれの特徴量寄与度は、トップダウン貪欲構文解析アプローチによる教師なし構文解析を使用して入力胸部x線画像パッチの説明可能な構文解析木を形成するために利用され得る。
説明可能なトランスフォーマXTTアーキテクチャは、パイプラインの一部としてXTTを組み込む、エンド-ツー-エンド説明可能な深層学習システムまたは適した機械学習システム内のコンポーネントとすることができる。XTTアーキテクチャに対して入力トークンを引き出す基礎のアーキテクチャは、畳み込みニューラルネットワーク(CNN)とすることができ、説明可能なトランスフォーマは、アーキテクチャの最終コンポーネントとすることができる。
例示的な実施形態は、ハードウェア回路として直接実施され得、ハードウェア回路は、(i.)FPGAのような柔軟なアーキテクチャ、または(ii.)ASIC、アナログ/デジタル電子部品、光電子部品、または光プロセッサのようなより静的なアーキテクチャ、または(iii.)コネクショニストモデルのハードウェア実施により適するとすることができるニューロモーフィックアーキテクチャ、スピントロニクス、またはメモリスタ、または(iv.)量子コンピューティングハードウェアを使用して実施され得る。
例示的な実施形態において、XTTは、FPGAを使用して実施され得、FPGAは、ソフトウェア実施態様に、通常、関連付けられる柔軟性を維持しながら、高スループットおよびハードウェア加速の利点を含むアプリケーションに有用とすることができる。
例示的な実施形態において、XTTは、ASICを使用して実施され得、ASICは、同様の製品の大量生産を含むアプリケーションに有用とすることができる。そのような実施態様は、おそらくは低い柔軟性を有するという代償を払って高い性能およびスループットを有することができる。
例示的な実施形態において、XTTは、小さいサイズまたはコンパクトなXTTにとって有用とすることができるディスクリートコンポーネントを使用して実施され得る。コストおよび頑健性考慮事項は、例えば、ハイパワーシステムが関わるとき、または、基本制御または安全性モニタリングのために単純なXTTが必要とされるときに、このタイプの実施態様を魅力的にすることができる。
別の例示的な実施形態において、XTTは、ニューロモーフィックハードウェアを使用して実施され得る。ニューロモーフィックハードウェアは、スピントロニクスと同様の方法でメモリおよび処理を同様につなぐ。ハードウェアニューロモーフィックXTT実施態様は、汎用コンピューティングアーキテクチャを実際に必要とすることなく汎用コンピューティングアーキテクチャのそれと同様の利点および柔軟性のほとんどを有しながら非常に効率的であるとすることができる。ニューロモーフィックXTT実施態様は、例えば、XNN条件付きネットワークのニューロシンボリックアーキテクチャを利用することによって、XTTの考えられる非ニューラルコンポーネントも効率的に実施されることを可能にしながら、XNNおよび/またはINNのような説明可能なモデルを効率的に実施することができる。INN等の解釈可能なモデルは、ルールおよび/またはワークフローの形態で人々に大抵はさらに提示され得るモデルを提示することによって、そのようなアーキテクチャが理解可能にされることを可能にする。この表面表現形態は、編集され、その後、ニューロモーフィックハードウェアについて必要とされるニューラルコネクショニストフォーマットに戻るようにシームレスに再変換され得る。そのような例示的な実施形態は、関連する情報を編集し、付加し、削除し、その結果、ニューロモーフィックデバイスの挙動を、制御され、信頼性があり、複製可能な方法で変更するための実用的な解決策を提供する。
別の例示的な実施形態において、XTTは、より一般的な活性化関数ベースニューロンではなくスパイキングニューロンを使用するニューロモーフィックハードウェア上に実施され得る。スパイキングニューロンは、パワー効率および処理スループットをかなり大幅に増加させることができ、非スパイキングニューロンを用いて普通なら実行不可能であることになる幾つかの実用的な解決策を実行可能にする。
別の例示的な実施形態において、XTTは、スピントロニクスまたはメモリスタを使用して実施され得る。スピントロニクスは、メモリおよびコンピューティングコンポーネントをつなげ、おそらくはより効率的なハードウェア実施態様をもたらす。なぜなら、動作中に、メモリ値、重み等の、もしあれば多くの転送が存在する必要がないからである。メモリスタは、同様の利点を提供し、不揮発性であるという利点を有する。スピントロニクスおよび/またはメモリスタ実施態様は、再プログラム可能である場合、FPGA実施態様に対して同様の特性を有することができる。再プログラム不能なスピントロニクスまたはメモリスタは、ASICに対して同様の特性を有することができる。XTTは、XTTアーキテクチャの任意のコネクショニストベース部分内の全ての異なるレイヤおよびニューロンを、XTTアーキテクチャの任意の状態機械またはタビュラベース部分と共に、スピントロニックまたはメモリスタ回路に変換することによって、スピントロニクスまたはメモリスタを使用して効率的に実施され得る。スピントロニクス実施態様は、スピントロニック回路において利用可能であるメモリおよび処理の混成(conflation)によって、実際には特に効率的とすることができる。メモリスタ実施態様は、特にパワー効率がよいとすることができる。なぜなら、それらの不揮発性重み格納が、動作中にメモリスタベースシステムの一部または全てを積極的にオフすることを可能にするからである。より高速なデータアクセスおよびデータバスを通じて計算的に費用がかかるデータ転送要求を有することの排除または低減は、そのような実施態様の性能を大幅に改善することができる。
別の例示的な実施形態において、XTTは量子処理システムを使用して実施されうる。量子処理システム上に実施されるXTTが、量子固有の拡張の付加によって、古典的なXTTモデルと同様である特性を有することになることが企図される。例えば、そのような拡張は、量子アニーリング効果の仕様およびそれらの正しい解釈を可能にすることができる。別の例において、拡張は、複数の量子ビット状態、量子ビット基底状態、混合状態、アンシラビット、および、エンタングルメントおよび/またはデコヒーレンスによる他の関連する量子効果の正しい解釈を可能にすることができる。別の例において、拡張は、CNOT(Controlled-NOT、制御NOT)、CSWAP (Controlled-Swap or Fredkin gate、制御スワップまたはフレドキンゲート)、XX(Ising Coupling Gate XX、イジング結合ゲートXX)、YY(Ising Coupling Gate YY、イジング結合ゲートYY)、ZZ(Ising Coupling Gate ZZ、イジング結合ゲートZZ)ゲート、パウリ(Pauli)ゲート、アダマール(Hadamard)ゲート、トフォリ(Toffoli)ゲートのような量子ロジックゲート、および、直列にまたは並列に組み合わされ得る他の関連する量子ロジック演算等、XNN内への量子ロジック固有演算子および/またはハードウェアロジックゲートの導入を可能にすることができる。そのような量子ロジックゲート(または量子ゲート)は、多数の量子ビットに対して動作し、量子的アナロジーの古典的なロジックゲートとして働く。イジングゲートのXX、YY、ZZ指定は、パウリX、Y、Z行列に関連し、パウリX、Y、Z行列は、粒子のスピンと外部電磁界との相互作用を記述するために使用される。これらの例をさらに進めると、そのような量子固有の拡張は、例えば、条件、イベント、トリガー、およびアクションの量子拡張バージョンを有することによって、XTTアーキテクチャの種々の部分において実施され得る。XTTのそのような量子拡張バージョンが、例えば、古典的な処理実施態様に関して可能であるより著しく少数の処理ステップで、複数のアクションを実行する、または、複数の条件を評価する、または、大きい制約のシステムを評価するために量子効果を利用することができることがさらに企図される。例示的な実施形態において、量子コンピューティングハードウェア上に実施されるXTTは、量子フーリエ変換、振幅増幅、量子ウォーク等に基づくアルゴリズム等の適した量子アルゴリズムを利用することができる。量子デバイスに関する例示的なXTT実施形態において、Bernstein-Vazirani、サイモンのアルゴリズム、またはDeutsch-Jozsaアルゴリズムは、エンコーディング-デコーディング態様を同様におそらくは加速しながら、XTTアーキテクチャの境界条件を予測し改良するために利用され得る。別の例示的な量子実施形態において、ショア(Shor)のアルゴリズム、量子位相推定アルゴリズム、グローバー(Grover)のアルゴリズム、量子計数、量子ハミルトニアンNAND木、またはHHLアルゴリズムは、挙動モデル(BM:Behavioral Model)と統合されたXTTアーキテクチャの制約、条件、イベント、およびトリガー部分を加速するために使用され得る。量子デバイスに関する別の例示的な実施形態において、QAOAアルゴリズム、VQE固有値ソルバー、CQE固有値ソルバー、および量子行列反転等のハイブリッド解決策が利用されて、例えば、XTTモデル訓練中と環境内で通常に動作しているときの両方においてより高速な結果を与えるために、量子処理を利用するガウシアン推定プロセスまたは線形方程式系ソルバーを使用することによって、関係するプロセスの一部を加速することができる。
XTTの量子実施態様は、マルチタスクおよびマルチモーダルアプリケーションにおいて有意の利点を提供することができるとすることもできる。例えば、ヒルベルト空間は、各モダリティおよび/またはタスク(各タスク/モダリティについての適切なバイアス上程規定を有する)について規定され得、その後、全ての個々のタスクマおよびモダリティを包含するマルチタスクおよびマルチモーダルヒルベルト空間が構成され得る。結果として得られるマルチタスクおよびマルチモーダルヒルベルト空間は、タスクとモダリティとの間の全ての相互作用を表すために使用され、クロスオーバー学習の量子バージョンと共にモダリティおよび/またはタスクのサブセットについての両方の訓練を実施するために使用され得る。クロスオーバー学習は、量子実施態様から利益を得ることもできる-なぜなら、クロスオーバー学習構造内の疎な接続および量子コンピューティングハードウェアの優れた検索性能特性の組み合わせが、より高速なアプリケーションを生成する可能性があるからである。ハイブリッド実施態様が、実用的な実施態様であって、古典的なハードウェアがXTT指向の個々のタスクまたはモダリティを実施するために使用され、量子ハードウェアがクロスオーバー学習構造を実施するために使用される、実用的な実施態様をもたらすことができることがさらに企図される。
例示的な実施形態において、XTTは、処理データおよびイベントデータを共に含んで、それぞれXTTから読み取り、XTTに戻すように書き込むワークフローシステム内に組み込まれ得る。XTTとワークフローの組み合わせが、ロボットプロセス自動化(RPA:Robotic Process Automation)システム、意思決定支援システム(DSS:Decision Support System)、またはデータレイクシステム内にさらに統合され得ることがさらに企図される。
XTTアクション、目的メトリック、条件、制約、アクション、トリガー、およびイベントは、因果的ロジックと併せて、仮説的、帰納的、演繹的ロジックの組み合わせを利用することができる。帰納的ロジックを使用すると、XTTは、完全に自動的に学習されたと思われる一般化ルールおよび知識に基づいて将来の挙動を予測することができる。演繹的ロジックを使用すると、XTTは、1つまたは複数の条件あるいは制約の組み合わせに従って挙動を予測することができる。仮説的ロジックを使用すると、XTTは、観測されるシナリオを、XTT内の考えられる状態の知られているセットに組み込むことができる、または、現在観測されている挙動を合理的に許容可能な方法で説明することができるとすることができる。仮説的ロジックは、XTTベース診断システムの実用的な実施態様において有用とすることもでき、挙動モニタリングおよび予測データを使用するAIシステムの診断およびトラブルシューティングにおいて役立つために使用され得る。仮説的ロジックは、観測される状態にフィットするXTTベースの説明的な物語の作成において有用とすることもでき、一方、帰納的および演繹的ロジックは、予測に似た物語と共にXTTベースの説明的な物語の作成において一般に有用とすることができる。仮説的ロジックは、環境が部分可観測性を提供する状況において有用とすることができる。
XTTは、反事実的言語表現アーキテクチャを使用する因果的説明のために使用され得る。例示的な実施形態において、XTT-エンコーダは、さらなる被処理概念目的(Treated Concept objective)(Feder等、2020)および被制御概念(Controlled Concept)(Feder等、2020)を用いて訓練されて、考えられる交絡概念(confounding concept)の存在を予測することができる。この例示的な実施形態におけるXTTエンコーダの予測は、その後、出力クラスに割り当てられた予測確率間の絶対差の平均を使用して、反事実的微調整訓練を使用しなかったXTTエンコーダの予測と比較される。
XTTは、原因-および-結果を扱う、関連付け、介入、および反事実的因果的ロジックを扱う、環境モデル入力による妥当性チェック(plausibility check)を実施する、因果的にありそうな同型化(isomorphism)によって訓練用データを拡張するために、因果モデル固有の機能を実施することができる。図19に示す例示的な実施形態において、XTTは、説明可能な因果モデル機能と共に実施される。入力レイヤ400(説明可能なシステムがXNNである場合、図3の入力コンポーネント400に対応することができる)は、適した特徴量相互作用コンポーネント424(説明可能なシステムがXNNである場合、図3のフィットレイヤコンポーネント424に対応することができる)に給送し、適した特徴量相互作用コンポーネント424は、その後、XTT自身および/またはその説明可能なモデルコンポーネントのうちの1つのモデルコンポーネントとすることができる説明可能なシステム3400に給送する。入力レイヤ400は、因果モデルコンポーネント3410に同様に給送する。特徴量相互作用424および説明可能なシステム3400は、因果モデル3410に対して2方向リンクを有する。なぜなら、それらが、因果モデルに給送すると共に、入力、特徴量、および特徴量相互作用情報を因果モデルから戻して受信するからである。因果モデル3410は、因果的処理パイプライン4100~4600に入力を提供する。因果的処理パイプラインは、環境モデル4500から環境コンテキスチュアル入力4510を任意に受信することもできる因果的シナリオ4100から始める。そのような環境コンテキスト4510は、環境的に不可能な状態がAIシステムによって考慮されることを許可しない妥当性制約および適切な境界を設定するために使用され得る。因果的シナリオ4100は、因果的選択コンポーネント4200に給送し、因果的選択コンポーネント4200は、パイプラインによるさらなる処理のために考慮される適切な情報を選択する。因果的変換コンポーネント4300は、4200からフィルタリングされた情報を受信し、関連付けベース統計的変換およびシンボリック変換を含む適した変換を適用し、介入コンポーネント4400に給送する。介入コンポーネント4400は、適したロジック(パールの因果ロジックを使用する場合、do()演算子等)を使用して因果介入を適用し、その後、反事実的条件(counterfactuals)コンポーネント4600に給送する。反事実的条件コンポーネント4600は、反事実的因果ロジックを、考慮されている現在のシナリオに適用する。コンポーネント4300、4400、4600は、必要に応じてパイプラインの直前の任意の部分から始めて、パイプラインプロセスを反復的に繰り返すことができる。パイプラインがその処理の準備を終えると、結果は、送信され、因果的特徴量および因果的特徴量相互作用コンポーネント4700を介して因果モデル3410に戻るように格納される。オプションの実施態様が、因果的におよび環境的に制約された同型化のプロセスによって例示的な実施形態が訓練用データを拡張することを可能にすることになることがさらに企図される。そのようなオプションにおいて、4700からの出力は、同型化コンポーネント4800に給送される。環境モデル4500は、関連する環境制約および不変性情報4520を同型化コンポーネント4800に任意に送信することもできる。コンポーネント4800は、考えられる同型化変換を、知られているデータに適用し、その後、4700から受信された情報に基づいて因果的制約およびフィルタリングを適用して、因果的および環境的にありそうな新しく生成されるかまたは合成されたデータサンプルのみが、拡張した因果的特徴量および相互作用コンポーネント4900に送信されることを保証する。そのような拡張したデータサンプルは、さらなる再訓練、適応、少数ショット学習プロセス、および他の適した使用のために、因果モデル3410に付加され、説明可能なシステム3400に対してアクセス可能にされる。
例示的な実施形態を継続すると、種々の因果的発見的手法が因果的XTTの性能を改善するために利用され得ることがさらに企図される。例えば、(Qi等、2020)において与えられる2つの発見的手法は、履歴情報が因果的XTTによって利用されるときはいつでも組み込まれ得、履歴情報と最終回答との間に、観測されない交絡因子(confounder)またはノイズ変数を本質的に常に挿入する。
図23は、自然言語文書からドラフト因果モデルを自動的に作成する例示的な因果的XTTシステムの実施態様を示す。XTTアテンションモデルを利用して、テキスト文書からの関連する元のテキストスニペットは、例えば、「時間内に支払うこと(paying in time)」とその結果の「我々のイメージは依存する(our image depends)」との間の前提部-結論部リンク(antecedent-consequent link)を識別することによって(この例では、会社イメージが時間内に支払うことに依存するため)、前提部とその結論部との間の位置リンクと共に、識別される47010。適切なマスキングまたは一般化プロセスまたは何らかの適した自己教師ありプロセス47020を通して、元の因果的にリンクされたスニペット47010は、その後、一般化ターゲット47030として例示的なXTTシステムに示される、文書内の異なるフレーズを照合するために一般化される。例えば、「時間内に支払うこと」が「我々のイメージは依存する」をもたらす因果的リンクについての一般化ターゲットは、「<X>時間内に支払う*(pay*in<X>time)」が「<Y>イメージは依存する(<Y>image depends)」をもたらすことによって与えられ得、ここで、<X>および<Y>は、2つの異なる型付け式マスクであり(すなわち、意味論的一般化)、「*」シンボルは、文書の入力言語に依存する形態学的一般化である(すなわち、構文論的一般化)。一般化ターゲット47030は、その後、適した埋め込みスキーム、例えば、「流動性(liquidity)」および「<Z>支払者(<Z>payer)」に関連するフレーズを「流動性」47110の因果的概念(すなわち、因果的変数)にリンクさせること、「評判(reputation)」に関連するフレーズを「会社認識(Company Perception)」47130の因果的概念にリンクさせること、および「交渉(negotiation)」および「取り引き(deal)」に関連するフレーズを「取り引きを手に入れること(Buying Deal)」47120の因果的概念にリンクさせることを使用して、因果的概念になるように共にクラスタ化される。一般化ターゲット47030(次に、元のテキストスニペット47010から抽出された)の基礎にある因果的構造は、因果的概念間に因果的リンクの正しい方向を割り当てるために使用される。図23に示す例において、流動性47110は、取り引きを手に入れること47120と会社認識47130の両方の原因である。適切な因果的発見的方法が、47110と47120との間に交絡因子(取り引き決定の立場(dealmaking position)に固有の不確実性を示す)を挿入し、47110と47130との間に別の交絡因子(会社認識および他の非財政的原因に対するそのリンクに固有の不確実性を示す)を挿入するように因果的XTTを導くことができることがさらに企図される。
例示的な実施形態において、XTTは、トリガー活性化率(rate of trigger activation)を制約するために、ニューロシンボリック条件付き制約を、その現在のおよび/または直前の履歴情報、および/または、その直前の履歴活性化率の一部または全てにリンクさせることができる。ニューロシンボリック制約は、シンボリックルールまたはシンボリック表現のシステム、多項式表現、条件付きおよび条件なし確率分布、結合確率分布、状態空間および位相空間変換、整数/実数/複素数/クォータニオン/オクトニオン変換、フーリエ変換、ウォルシュ関数、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、相違分析の形態で、を含むが、それに限定されない、種々の適した例示的な実施態様で実施され得る。ニューロシンボリック条件付き制約は、説明可能なモデルならびに任意の関連するタクソノミー、オントロジー、および因果モデルにアクセス可能な異なる特徴量および変数を参照するデータ構造の形態で同様に実施され得る。ニューロシンボリック制約は、知識グラフネットワークの形態で同様に実施され得る。
名前付き参照ラベルは、XTTアーキテクチャにおける説明可能なモデル内の特定のコンポーネントに割り当てられ得る。名前付き参照ラベルは、本来記述的とすることができ、さらなるメタデータ、ならびに、外部タクソノミー、オントロジー、およびモデルに対するリンクを含むこともできる。名前付き参照ラベルは、連言標準系(CNF)ルールブールロジック、1次ロジック、2次ロジック、命題ロジック(propositional logic)、述語ロジック(predicate logic)、モーダルロジック、確率ロジック、多値ロジック、ファジーロジック、直感主義ロジック(intuitionistic logic)、非単調ロジック、無反射ロジック、量子ロジック、矛盾許容ロジック(paraconsistent logic)、または、他の適したタイプのロジカルシステムであって、経路トレースとして本発明者等が参照する、XTT内の現在のコンポーネントの実行をもたらした意思決定のセットまたはシーケンスの説明を提供するロジカルのまたは同様のステートメントの表現のための、他の適したタイプのロジカルシステムの形態のシンボリック表現および/または定型表現(formulas)からなることができる。「活性化経路(activation path)」は、AIモデルによって追従されるデータフロー経路として規定され得、特定の入力から始まり、特定の出力予測で終了する。経路トレースは、活性化経路を記述する特定のAIモデルのための、意思決定、ノード、遷移、または適用可能な記述構造のセットまたはシーケンスである。名前付き参照は、特に、人間アテンションスパンが重く課税されるかまたは厳しく制限され得るおそらくはクリティカルかつストレスフルな状況において、人間によるより容易でかつより信頼性の高い識別を保証するために、安全関連制約において使用され得る。
別の例示的な実施形態において、動的プロセス下での名前付き参照ラベルの同じ不変性は、XTTによって利用されて、動的プロセスの各実行によって、知識を記録するかまたは説明法を保持する必要なしで、AIモデル内で起こるダイナミクスの安定した長期説明を生成することができる。2Dまたは3Dシーン内で起こるビジュアルダイナミクスを、そのようなシーンが、直接観測されようが、合成的に生成されようが、説明するために、適切な時間的変換が適用され得ることがさらに企図される。
例示的な実施形態において、XTTは、適した計算および知識表現構造を、その制約および予測ロジック実施態様の基礎として使用することになる。そのような適した構造は、リソース記述フレームワーク(RDF:resource description framework)木、RDFグラフ、レビグラフ、または他の適した形態のグラフ構造とすることができる。ハイパーグラフ構造または単体的複体が実用的なXTT実施態様において使用され得ることがさらに企図される。
例示的な実施形態において、XTTは、監査ログ機能(audit log hunctionality)を実施することができる。そのようなXTT監査ログ情報の例示的なアプリケーションは、XTTのフロー、相互作用、および挙動、ならびに、その条件、イベント、トリガー、およびアクション、ならびに全体ダイナミクスを明確に示す意思決定ログおよび経路トレースの作成においてである。経路トレースが、トリガーされ実行されたルールの注釈付きシーケンスとして、エキスパートシステムおよびルールベースシステムに実施され得ることが企図される。経路トレースが、ワークフローエンジンによって実行されたワークフローノードおよび経路の注釈付きシーケンスとしてワークフローシステムに実施され得ることがさらに企図される。経路トレースは、XTTの正確なシーケンスおよび挙動を示すために使用され得、ユーザにとって関心があるとすることができる経路に沿って最近傍を表示するように実施され構成され得る。XTTが、耐タンパー性がありかつ追跡可能な方法で、記録のシステム(system of record)、DLT、データベース、または何らかの他の適したシステムに格納され得る、それ自身の監査システムログを利用することができることがさらに企図される。そのような監査情報は、関連するAIモデルと別個である独立システムに格納され得るまたはその関連するAIモデルによって使用される同じ監査システムによって共有され得る。
例示的な実施形態において、XTTは、アクションの時間ロジック(Temporal Logic of Action)、抽象機械ノーテーション(Abstract Machine Notation)、ペトリネット(PetriNet)、計算木ロジック、および、他の適した実施法であって、モーダルロジック、直感主義的ロジック、ならびに/または、クリプキ意味論(Kripke semantics)および/またはアレクサンドロフトポロジー(Alexandrov topologies)を含むが、それに限定されない関係意味論(relational semantics)を形式的に示すことができる、他の適した実施法のうちの1つまたは複数に基づくシステムの組み合わせ上に実施され、組み合わせによって検証され得る。
例示的な実施形態において、XTTはアンカー条項を使用することができる。XTT内の多数のノードおよびエッジ、ならびに、他のイベント、トリガー、制約、およびアクションは、特定のアプリケーションドメインについて重要またはクリティカルであると見なされ得る。そのような重要度は、アプリケーションまたは使用コンテキストによって、あるいは、特定の必須制約を課す、規制または法的権限または業界標準作成団体(industry standard making body)等の外部の第三者によって決定され得る。これらのタイプの重要またはクリティカル制約は、それぞれ、アンカー条項、アンカー変数、アンカーノード、アンカーエッジ、アンカーイベント、アンカートリガー、アンカー制約、およびアンカーアクションと呼ばれ得る。そのようなアンカーコンポーネントは、説明構造モデル(ESM)内のアンカー条項と類似している。アンカー条項は、名前が付けられた参照ラベルに同様に割り当てられ得る。
例示的な実施形態において、量子化法は、特にリソースが制約されたハードウェアに関して、性能を上げ、おそらくは、実施サイズを低減するためにXTT処理中に適用され得る。Qin等、(2020)において提示されるソルバー等の常微分方程式(ODE:Ordinary Differential Equation)ソルバーを使用すること等の、何らかの形態の不安定性低減技法が、XTTの正確さに対する量子化の任意の悪影響を部分的に打ち消し、訓練中の不安定性を低減するために、適用され得ることがさらに企図される。
例示的な実施形態において、XTTは、モデルなしおよびモデルベース最適化方法の組み合わせを利用することができる。統計的関係ならびに共分散、相関、および相互情報等の適した尺度ならびに他の適した技法に頼るモデルなし方法は、モデルまたは適した従来物のセットにアクセスすることなく、XTT内で必要な構造を生成するために使用され得る。因果的関係、シンボリック知識、または他の適した方法に頼るモデルベース方法は、モデルベース方法のより幅広い計算表現能力によって、よりリッチでかつより費用がかかる最適化ステップを付加することによってXTTをさらに改良する。
例示的な実施形態において、XTTは、実用的なデータプライバシー保護AIシステム実施態様の基礎または一部として使用され得る。データプライバシーは、多数のシナリオ:(i.)訓練用データセットからの個人データがAIモデルに意図されず組み込まれる、(ii.)個人データが、モデル回答を分析することによってそれぞれ再抽出または再作成され得る、(iii.)特定の一意的に識別可能な群の個人データが、より高いリスクの識別で終わる場合がある、(iv.)一意のキーまたはシグネチャによってモデルデータを関連付けることができるモデル反転およびメンバーシップ推論技法、(v.)プライベート情報と組み合わされ得るパブリックデータソース等の他の情報ソースが、プライベート情報を再作成するまたはその他の方法で識別する場合がある、においてAIシステムによって意図してまたは意図されずに侵害され得る。AIのための主要なデータプライバシー保護解決策は、4つのカテゴリ:(i.)差分プライバシー(differential privacy)、(ii.)秘匿マルチパーティ計算、(iii.)連合学習(federated learning)、(iv.)準同型暗号(homomorphic encryption)に分類され得る。XTTベースシステムの例示的な実施形態は、4つ全てのカテゴリ下で実用的な実施態様を可能にすることができる。
例示的なプライバシー保護解決策(i.)、差分プライバシーにおいて、訓練用データ内へのノイズの導入または何らかの他の適した難読化手段は、XTTアーキテクチャにおいて、ノイズ係数または比を通して制御可能な量のプライバシーを生成するために使用され得る。ノイズレベルは、ユーザが供給または編集することができる場合がある変数とすることができ、ノイズレベルは、制約および/または目的として実施され得る。プライバシー保護解決策(ii.)において、秘匿マルチパーティ計算(SMPC:secure multi-party computation)は、データに関する部分的情報を隠蔽しながら、正しい回答を得るために使用され得、1つまたは複数のソースからのデータを使用して回答を同時に計算することができる。XTTおよび説明可能なモデルの例示的な実施形態は、回答出力の他に、説明生成に適用するためにSMPCプロトコルを拡張し得る。XTTの例示的な実施形態が、プライベート情報を全く曝露することなく、セキュリティおよび信頼構築のために形式的に分析され試験され得ることがさらに企図される。セキュアエンクレーブ(secure enclave)は、ハードウェアプロセッサ内の保護された空間内でデータを復号するために同様に使用され得、システムの他の部分が、そのようなデータに平文でアクセスできる可能性を制限する。XTTとセキュアエンクレーブとの組み合わせのエンド-ツー-エンドハードウェア実施態様は、ほとんどの形態のデータ攻撃に対してむしろ回復力がある(resilient)とすることができる。プライバシー保護解決策(iii.)、連合学習において、XTTは、ローカルデータサンプルのみを保持する種々の非集中化デバイスにわたって分配され得る。ローカルデータサンプルは、他のデバイスと共有されず、したがって、関係するプライバシーリスクを、完全に排除しないが、制限し、メッセージングオプションが、メッシュネットワークにおいて等で、ネットワークトポロジーによって制限または制約されるIoTまたはエッジコンピューティングアプリケーションに特に適するとすることができる。プライバシー保護解決策(iv.)において、準同型暗号化または準同型コンピューティングは、データを復号することなく、また同様に、暗号化された説明可能なモデルを任意に使用することなく、暗号化されたデータに対する計算を可能にするために使用され得る。CKKSプロトコルを利用して、準同型的に(homomorphically)暗号化されたデータおよび準同型的に暗号化されたXNNを使用するXTTの例示的な実施形態において、シークレットキーおよびパブリックキーが生成される。パブリックキーは、暗号化のために使用され、共有され得、一方、プライベートキーは、復号のために使用され、例えば、セキュアハードウェアエンクレーブまたは同様の実施態様解決策において、秘密のままにされなければならない。
XTTシステムは、もし…ならば(what-if)、もし…でないならば(what-if-not)、反事実的、を除いて(but-for)、および条件付きシナリオに基づく、生成された構造化説明を利用して、説明付き方策およびそのようなシナリオをXTTシステム入力に適用することの結果(outcome)に対応するシナリオベース説明を生成することができ、1つまたは複数の仮説的ターゲット結果は、シナリオモデリングの一部として選択される。そのようなシナリオベース説明は、ターゲットシナリオ結果が、本来、それぞれ建設的であるか、比較的であるかに応じた、建設的説明または比較説明としても知られる。そのようなシナリオベース説明生成アプリケーションにおいて、XTTシステムが、検査されるシナリオに制約を関連付け、特徴量の困難さ/達成可能性/重大度に目的コストを関連付け、出力ターゲットとしてのアクションをドメイン固有のおよびシナリオ固有のアクションに関連付けることができることが企図される。さらなる例示的な実施形態において、XTTシステムは、XRLエージェントと共に実施されて、ポリシー、コスト、および報酬に関するさらなる情報を提供する、および/または、同様にXRLエージェントについてのさらなる訓練例を提供することができる。例示的な実施形態において、XTTなどのXAIモデルは、ローンアプリケーションの結果を予測するために使用され得る。ローンアプリケーションは、総収入、現在の職業、年齢、総正味財産(total net worth)、および他の因子等の種々の理由で受容または拒否され得る。システムユーザは、ローンアプリケーションの結果をどのように変更するかに関する提案を欲することができる。例えば、拒否されたローンアプリケーションの場合、システムユーザは、アプリケーションのステータスが拒否から受容に変わるために、入力におけるアイテムのどの組み合わせが変更される必要があるかを知りたいと思うことができる。全ての入力変数、特徴量、および特徴量相互作用のサブセットのみが、変更される必要がある場合があることが企図され得る。1つまたは複数のコストは、各タイプのコストについての何らかの適したメトリックに対応する、各変数に関連付けられ得る。例えば、性別または人種等のバイアス保護対象クラス(bias protected class)は、無条件に達することが不可能である(すなわち、不法結果状態)として関連付けられるかまたはマーク付けされる非常に高いコストを有することができる。別の例において、高コストは、非可逆的である方策アクションに関連付けられ得る。現在の収入等の他の変数は、総正味財産変数より低いコストを有することができる。アクションのコストは、線形または非線形とすることができ、総コストに影響を及ぼす従属変数または独立変数を含むことができる。抜けているデータは、それに関連付けられた特別なコストを有することもでき、XTTシステムが、是正処置によってまたは是正処置なしで、抜けているデータを適切に扱うことを可能にする。特徴量重要度または係数等の説明データは、所与のアクションについて予想報酬またはコストの正確な測定値を提供する。外因性および内因性変数ならびに因果モデルは、部分的に抜けている値を有するデータの場合を含んで、適用される必要がある、任意の特定の関連付け、介入、または反事実的ルールを含む、アクションの総コストを推定するために使用され得る。XTTシステムは、特定のコンテキストを有する所与のユーザについての提案されるアクションを学習する、すなわち、アクションの総コストを最小にしながら、結果の変化をもたらす、考えられる変数の変更を提案するために訓練され得る。所望の目標につながる提案されるアクションが、何らかの形態のシーケンスを含むことができることが同様に企図され得る。最近傍法が、そのようなシナリオベースXTTシステム説明と併せて利用されて、所望のシナリオ結果(見本)またはそのようなアプリケーションの仮説的平均(プロトタイプ)を有したアプリケーションの(適切に匿名化された)実際の例を提供することがさらに企図される。そのような最近傍法は、説明可能なモデル内のパーティション階層構造を利用して、同じパーティションからまたは近傍パーティションからまたは現在のパーティションから遠く離れたパーティションから例を生成することができる。変数の考えられる変更が、何らかの適したシステムによってランク付けされ優先順位付けされ、識別-アセス-推奨-解決(IAR)フレームワークの形態でユーザにまたは自動化プロセスに提示されることがさらに企図される。例示的な実施形態において、XTTは、XRLエージェントと共に実施されて、XRLエージェントについて、現実的な環境シミュレーションを生成する、および/または、データサンプルを学習する経験を提供することができる。そのような例示的な実施形態が、仮想現実シミュレーション、拡張現実シミュレーション、仮想協働空間、およびメタバースの作成において利用され得ることがさらに企図される。
自動XAIシステムを有するXTTシステムの例示的な実施形態において、最適化法は、多数目的最適化(MOO:Multiple Objective Optimization)、パレートフロント法(Pareto Front Method)、粒子群最適化(PSO:Particle Swarm Optimization)、遺伝的アルゴリズム(GA)、ベイズ最適化、進化戦略(Evolutionary Strategies)、勾配降下技法、およびモンテカルロシミュレーション(MCS:Monte Carlo Simulation)等のシナリオベース説明を生成するために同様に使用され得る。XAEDおよび/またはXGANシステムのためのエンコーディング-デコーディング情報が、説明構造モデル(ESM)に格納された寄与度値および他のデータに完全にまたは部分的にリンクされることがさらに企図される。そのような例示的な自動XAIシステムが、形式的言語または何らかの他の適した手段を利用して、XTTのエンコーダおよび/またはデコーダ内のフィードフォワードネットワークのような、より動的な変化と共に、XTTアーキテクチャ内に格納された状態知識についての計算グラフを示すことができることがさらに企図される。これは、自動XAIシステムが、1つまたは複数の特定のアプリケーションドメインまたはタスクにXTTシステム性能を適合させることを可能にし、XTT内へのメタ学習システムの組み込みに対する実用的な解決策を提供し、それは、強化学習システムにおいて一般的でありながら、XTTについての自明でない使用である。そのようなメタ学習システムは、その後、自動XAIモデル発見中に改良される、人間プロセス知識の初期組み込みに対する実用的な解決策を提供することもできる。
XTT、XTT-エンコーダ、またはXTT-デコーダは、同じパラメータを共有しながら、複数のタスクおよび複数のモダリティを処理することができる。マルチタスクおよびマルチモーダルXTTシステムの例示的な実施形態において、説明可能なモデルは、同じパラメータを使用して、オーディオ、画像、およびビデオを処理するXTT-エンコーダまたはXTT-デコーダを含む。XTT-エンコーダまたはXTT-デコーダの入力は、
Figure 2024500182000015
になるような、画像についてのトークン化入力、ビデオについてのトークン化入力、およびオーディオについてのトークン化入力を含むことができる。XTT-エンコーダまたはXTT-デコーダは、
Figure 2024500182000016
になるような、各モダリティについての複数クラストークンを含むことができる。cls(XTT-エンコーダ)は、タスクの予測出力を生成するために線形レイヤにアッタチされ得る。入力埋め込みおよび位置埋め込みは、同じXTT-エンコーダまたはXTT-デコーダに接続されても、各モダリティについて異なるとすることができる。XTT-エンコーダまたはXTT-デコーダは、各タスクの各データセットからミニバッチをサンプリングし、勾配を計算し、相応してパラメータを更新することによって異なるタスクについて訓練され得る。複数の方策は、異なるタスクから交互にサンプリングすること、タスクごとにサンプリングすること、異なるタスクから均一にサンプリングすること、特定の重み付け基準に従ってタスクをサンプリングすること等の異なるタスクからサンプリングするために、あるいは、複数のタスクのミニバッチについての勾配を蓄積し、全てのタスクの全てのミニバッチまたは全てのタスクにわたるミニバッチの予め規定されたセットについて1回のパラメータ更新を実施するために、使用され得る。XTT-エンコーダまたはXTT-デコーダは、所与のタスクについて一度に1つのモダリティについて訓練され得る。XTT-エンコーダまたはXTT-デコーダは、所与のタスクについてマルチモーダル入力を使用することによって、マルチモーダルアプローチで訓練され得る。マルチモーダルXTT-エンコーダまたはXTT-デコーダは、所与のマルチモーダル入力および出力についてモデル解釈可能性を可能にするため、マルチモーダルホワイトボックスモデルで説明が生成されることを可能にする。
さらなる例示的な実施形態において、XNN、INN、またはXTT等の説明可能なモデルを利用するXTTは、1つまたは複数の入力特徴量に関連付けられる1つまたは複数のタスクに対応する複数の入力を有し、それらのタスクについての出力に対応する複数の出力を有することができる。そのようなコンテキストにおけるタスクの意味論的概念(semantic notion)は、XTT構造自体における変更を必要とすることなく、タスク識別子としての幾つかの入力特徴量およびタスクメタデータ入力特徴量を指定することによって実施されるだけである。木、グラフ、ハイパーグラフ、または単体的複体構造とすることができる、XTTの一部を形成する説明可能なモデル内の階層的パーティション構造は、異なるタスクについて学習された異なる知識間のクロスオーバーが効率的に起こることを可能にする。そのようなクロスオーバーは、階層的パーティション構造内の特徴量相互作用に応じるXTT予測ネットワーク内で起こる。XTT条件付きネットワークは、タスク、その関連する入力、および関連する出力にリンクするパーティション構造を通して正しい経路トレースを、選択、調整、および多重化するために使用され得る。より密なまたは疎なXTTが、パーティション構造の複数の部分をエネルギー効率のよい方法で実施するために利用され得ることが企図される。分散型XTTまたはDEAが、パーティション構造の複数の部分を実用的な方法で実施するために利用され得ることがさらに企図される。
XTTは、フィードフォワードコンポーネント、クエリ-値-キーコンポーネント、アテンションモデル、および出力関連コンポーネントを含む、そのコンポーネントの一部または全てにおいて、疎な説明可能なモデルまたは疎な説明可能なモデルを使用するDEAを使用して実施され得る。そのような疎なモデルが、有意のパワー低減および性能加速をもたらすことができることが企図される。
図20は、説明可能なAIシステムのためのマルチタスクおよびマルチモーダル学習のための実用的な解決策を示す、マルチタスク(およびマルチモーダル)クロスオーバー学習を用いる例示的な説明可能なシステムを示す。説明可能なAIシステムのためのクロスオーバー学習のための本発明者等の新規な定式化(formulation)は、図21により詳細に示されるクロスオーバー学習構造45300を利用する。図20を継続すると、クロスオーバースイッチコントローラ45100は、どの説明可能なサブシステム45200が、サブシステム45200に送信される45150タスク情報および入力を得るかを決定するために使用され、したがって、並列に実行される必要があるサブシステムの数を削減する。説明可能なサブシステムは、DEAあるいは何らかの他の適した同質または異質の分散型の説明可能なAIシステムとして実施され得る。マルチタスクおよびマルチモーダルシステムのグレイボックスバージョンが、ブラックボックスからなる1つまたは複数のサブシステムを有することによって実施され得ることが企図される。例示的な実施形態を継続すると、各説明可能なサブシステムは、クロスオーバー学習構造45300に対するリンクを有し、クロスオーバー学習構造45300は、次に、種々のクロスオーバーサブシステム45350からなる。全てのサブシステムが、全ての他のサブシステムに必ずしも接続される必要はなく、クロスオーバー学習構造は、(密な完全に接続されたネットワークが依然として可能である場合があるが)疎な接続ネットワークとして実施されるように設計される。説明可能な出力45400は、並列に生成され、出力選択器45500に達するまで、おそらくはランク付けされ優先順位付けされ、出力選択器45500は、クロスオーバースイッチコントローラ45100から、制御情報45110と共に暫定的な説明可能な出力45400を採用して、システムによって出力されることになるシステム出力45600を最終的に選択する。
図21は、図21に示す2つの説明可能なサブシステムを、2つのサブシステムのそれぞれから採用される代表的なノード45210、この場合、サブシステム1ノード1(1.1)およびサブシステム2ノード1(2.1)によってリンクする例示的なクロスオーバー構造実施態様の詳細コンポーネント(すなわち、図20に示すクロスオーバーサブシステム45350の詳細部分)を示す。オプション(a.)において、一方向リンクまたは有向グラフ構造は、サブシステム1ノード1をサブシステム2ノード1とリンクさせるクロスオーバーノード45353およびサブシステム2ノード1をサブシステム1ノード1とリンクさせる別のクロスオーバーノード45354を有することによって2つのノードをリンクさせるために利用される。オプションのクロスオーバーノイズノードは、各クロスオーバー接続ノード間に一列に挿入され得る、すなわち、ノイズノード45351はサブシステム1ノード1とクロスオーバーノード45353との間に、そして同様に、ノイズノード45351はサブシステム2ノード1とクロスオーバーノード45354との間に挿入され得る。別のオプションとして、クロスオーバーノードそれら自身は、例示的なリンク45356および45357によって示すように、情報を互いに送信することができる。オプション(b.)において、2方向リンクまたは無向グラフ構造は、2つのノードをリンクさせるために利用され、その場合、各クロスオーバーノードは、コンポーネント45355によって示すように、2方向クロスオーバーノードになる。ノイズノードおよびクロスオーバーノード間接続は、オプション(a.)の場合と同様の方法で、オプション(b.)において同様に付加され得る。
図20および21に示すクロスオーバー学習の例示的な実施形態は、XTTがマルチタスクおよびマルチモーダル学習のための実用的な解決策を提供することを可能にすることができる。種々の分散型技法は、訓練中にタスクオーダーを最適化すること、異なるモダリティのための異なる訓練スケジュールおよび最適化、ならびに、パラメータ空間を最適化するために複数のタスクおよびモダリティにわたってXTT-エンコーダを共有することを含む、性能を最適化するために使用され得る。
例示的な実施形態において、XTTは、例示的なCNNベース機械学習モデルの最終の平坦化レイヤ後のコンポーネントとして統合され得る。図16に示すように、平坦化レイヤは、トランスフォーマ-エンコーダベースアーキテクチャへの入力として使用され得る。例示的な医療アプリケーションを示す図16を参照すると、XTT-エンコーダは、X線画像が、特に所見なしの正常な事例(normal unremarkable case)を構成するか、細菌性肺炎またはウィルス性肺炎の徴候を示すかを予測するために、最終のエンコーダレイヤの出力を分類レイヤに接続することによって微調整され得る。さらなる改良および説明が、説明可能な出力をさらに分析するために、さらなる説明可能な機械学習モデルを接続することによって達成され得ることがさらに企図される。さらなる例示的な実施形態において、XTTまたはXNNは、図16に示すシステムのX線予測出力に接続されて、ウィルス性肺炎が、インフルエンザウィルス、またはCOVID-19のようなコロナウィルス、アデノウィルス等のような何らかの特定のタイプのウィルス疾患によって引き起こされたか否かを判定することができる。リスク評価および推奨アクションを伴う実用的な説明が、得られた(resulting)説明および解釈パイプラインにおいてさらに生成され得ることがさらに企図される。
XTTアーキテクチャ内の説明可能なアーキテクチャは、分類出力のための説明を生成することができる。説明は、基本的解釈、説明的解釈、およびメタ説明的解釈を使用して解釈され得る。基本的解釈は、サブコンポーネントによって理解され得る予測出力oを指すことができる。説明的解釈は、2タプルベクトル<o、w>によって示され、サブコンポーネントによって理解され得る、そのような予測値についてのモデル説明wと結合された予測出力oを指す。モデル説明は、所与の観測について入力特徴量の特徴量重要度を説明するために利用され得る、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャの係数θからなることができる。メタ説明的解釈は、3タプルベクトル<o、w、j>によって示され得、予測出力o、モデル説明w、およびモデル説明の正当化理由jを含む。モデル正当化理由jは、モデル説明を生成するために考慮された説明システムによって採用された仮定、プロセス、および意思決定に関するさらなる情報を提供する。
ブラックボックスCNNの完全に接続されたレイヤは、ホワイトボックスCNN-XTTを構築するために、図16に示すように、XTT3212と置換され得る。3202と3210との間のステップは、ブラックボックスCNNアーキテクチャおよびCNN-XTTアーキテクチャについて同じままであるとすることができる。最初に、CNNレイヤは入力3202を受信することができる。入力3202は、その後、畳み込まれ3206、入力の異なる要素が抽出され、分類される。次に、畳み込まれたレイヤは、類似の特徴量に基づいてプールまたはグループ化される。プールされた特徴量は、再び畳み込まれプールされる可能性がある。この例示的な実施形態において、CNNレイヤは、畳み込み操作3206を2回およびプーリング操作3208を2回実施する、しかしながら、これらのレイヤのさらなる反復が、アプリケーションに応じて実施され得ることが企図され得る。CNNレイヤが畳み込みを行い、畳み込まれた特徴量をプールした後、特徴量は、次のシステムへの入力のために平坦化され得る3210。図16は、フォワード訓練パス3200中のCNN-XTTアーキテクチャを示し、フォワード訓練パス3200は、出力3214を生成し、説明をさらに生成することができるXTTアーキテクチャを実施する。そのようなステップの実際の構成は、特定のCNNネットワークの構成に依存することができる。タビュラーデータセットと同様のCNNは、データ内のパターンを学習するために、完全に接続されたレイヤを利用する。他のCNNレイヤは、分類タスクに先立って起こる特徴量変換ステップに過ぎない。同様の概念は、そのようなCNN変換が汎用XTTに先立って適用され得るCNNーXTTに関して適用される。
プーリングレイヤは、CNNネットワークにおいて見出される標準的なレイヤである。プーリングレイヤは、典型的には、畳み込みレイヤの後に配置され、畳み込みレイヤは、画像または何らかの形態の多次元データ内に特徴量の要約を提供する。畳み込みレイヤに関する主要な問題は、畳み込みレイヤが入力特徴量の場所に敏感であることである。これは、入力データの小さい変動が異なる特徴量マップをもたらすことになることを意味する。1つのアプローチは、データをダウンサンプリングすることであり、低解像度の同じデータがさらなる処理のために使用される。CNNネットワークにおいてダウンサンプリングするための1つの方法はプーリングと呼ばれる。プーリングは、特徴量マップのサイズを低減するために作用素を利用する。2つの一般的なプーリング方法は、最大および平均プーリングである。例えば、最大プーリングは、特徴量マップから最大値または最も大きい値を計算するために使用され得る。
CNN-XTTは、同様に、マスク付き学習法を十分に利用して、上記で論じた自己教師ありモデルを含む、それらの学習モデルをよりよく一般化することができる。
リバースインデキシングメカニズム(バックマップ)は、CNN-XTTのホワイトボックス性質によって可能であるCNN-XTTアーキテクチャに固有の何かである。全てのレイヤ(CNNレイヤを含む)が解釈可能である場合、出力から元の入力まではるばるバックトラックするために、バックマップを使用するリバースインデキシングを適用することが可能である。
ここで図17を参照すると、図17は、例示的なリバースインデキシングメカニズムを示すことができる。例示的なリバースインデキシングメカニズム3201は、CNN-XTTにおいて説明を生成するために使用され得る。図17に示すリバースインデキシングプロセスは、図16に示すフォワードパスインデキシングプロセスのステップと同じかまたは同様であるステップを実施することができる。しかしながら、そのような場合、操作は、代わりに後方に実施され得、出力で始まり、入力の特徴量で終了する。さらに、プーリング関数は、データをダウンサンプリングするフォワードパスのプーリングと対照的に、データをアップサンプリングすることができる。同様に、畳み込みレイヤは、逆畳み込み操作として算出される。
予測ネットワークからの出力は、CNN-XTTにおける説明を生成するための基礎として役立つことができる。予測ネットワークは、各特徴量が係数によって重み付けされる方程式を使用することによって入力特徴量に重み付けすることができる。各係数は、最終の畳み込まれた特徴量の重要度を示す。意味のある説明を作成するために、畳み込まれた特徴量は、それらの重要度と共に、元の入力に戻るようにマッピングされ得る。CNN-XTTの中央レイヤは、XNNの完全に接続された密レイヤ(ブラックボックス)ではなく、むしろ疎に接続されたレイヤ(ホワイトボックス)であるため、畳み込まれた特徴量の出力を元の入力に戻るようにマッピングするリバースインデキシングメカニズム(バックマップ)を適用することが可能である。CNN-XTTは、説明と、回答および処理中にCNN-XTTによって追従される正確な活性化経路との速い関連付けと共に、説明の速い出力を可能にするリバースインデキシングメカニズムの実施態様がユニークである。
バックマップの作成は、CNN-XTTのアーキテクチャが決定されると、1回実行される静的プロセスとして一般に実施され得る。CNN-XTTアーキテクチャ自身(すなわち、接続、レイヤ等)が更新される場合、バックマップは、そのようなアーキテクチャル更新について1回更新される必要があることになる。考えられる実施形態は、CNN-XTTのアーキテクチャが動的に更新される場合、バックマップの動的作成および更新を含むことができる。バックマップ作成のアーキテクチャル更新について1回(once-per-architectural-update)の性質は、効率的な実施およびバックマップ自身に基づくさらなる最適化のための余地を可能にする。例えば、バックマップは、入力される多次元データにおいて起こる関心のセグメントおよび領域を効率的に識別し、シンボルおよび概念を効率的に識別し、また同様に、入力される多次元データの要約およびより低解像度サブサンプルを作成するプロセスを迅速に最適化するために使用され得る。
バックマップは、逆関数を実施する外部プロセスとしてまたはニューラルネットワークとして処理され得る。ニューラルネットワークは、CNN-XTT内に埋め込まれ得る、または、インバースインデキシングメカニズムを実施するために特に設計された別個のネットワークとして維持され得る。プロセスは、XTTネットワークの係数によって決定される特徴量重要度を識別することによって開始し、ステップごとに逆に戻ることができる。出力重みは、元の入力に戻るようにマッピングされ得る。そのようなステップは、元のCNN-XTTネットワークにおいて見出されるレイヤのタイプに応じて順次適用され得る。マッピングは、元の入力に達するまで適用され得、それは、概念的特徴量重要度が元の入力に戻るようにマッピングされることを可能にすることになる。
CNN-XTTは、特定のクエリについてCNN-XTT内の活性化経路を可視化するためにバックマップを使用することができ、また同様に、それを正当化理由の一部として組み込むことができるとすることができる。バックマップは、融合した画像、クエリテキスト、および回答対のマルチモーダル表現に説明の要素を付加することによって、ビジュアル質問回答(Malinowski等、2016)を高めるために同様に使用され得る。
リバースインデキシングメカニズムは、ヒートマップの形態で、または、説明を生成するときに実際の畳み込みフィルタを考慮する何らかの形態で説明を生成するために有用とすることができる。畳み込まれた特徴量は、ストローク、エッジ、またはパターンを検出するために有用とすることができ、その後、ビジュアル、テキスチャル、オーディオ等である可能性がある説明生成プロセスを加速することができる。
CNN-XTTアーキテクチャは、カーネルラベリング法を統合することができ、そのような方法は、人間可読ラベルを、本来テキスチャルでない画像または3Dスキャン等のデータフォーマットに関連付ける。カーネルラベリング法は、任意のデータフォーマットであって、パターン認識カーネルが、適したキーポイント記述関数および活性化最大化関数と共に、規定されることを可能にする、任意のデータフォーマットから、プリミティブ、パターン、シンボル、および概念の漸進的改良になるようにデータにラベル付けする。カーネルプリミティブは、分析されるそれぞれのフィルタにおいて、検索される特定の形状の行列として規定され得る。カーネルラベリング法は、第1の畳み込みレイヤを、人間規定カーネルプリミティブを使用して最初に分析することができ、CNNアーキテクチャにおいて、畳み込みおよびプーリングレイヤを通して摺動することに進むことができる。線形、非線形多項式、指数、放射基底関数(radial-basis-function)、シグモイドおよび他の適したカーネル等の異なるカーネルタイプが、XTTと併せて利用され得ることがさらに企図される。近似カーネルが、XTTと併せて利用されて、例えば、直交法(quadrature method)(Nystrom)、特異値分解(SVD:singular-value decomposition)、ランダムフーリエ特徴量、ランダムビニング特徴量(random bining fweature)、および他の適した方法を通して、必要とされる計算および/またはリソースの量を低減することができることがさらに企図される。時間的畳み込みネットワーク(TCN:Temporal Convolutional Network)等のCNNの時間的に最適化された変形がXTTと併せて使用され得ることがさらに企図される。
XTTは、予測および/または訓練性能を上げるために種々の近似技法を利用することもでき、種々の近似技法は、ドット積の近似または完全排除、疎なローカルアテンションモデル、適応的アテンションウィンドウを使用すること、多次元アテンション行列近似の使用(おそらくは、近似についての説明可能なモデルを使用する)、インテリジェント重み共有、およびインテリジェントパラメータ化を含むが、それに限定されない。
XTTは、いろいろなアプリケーションを有することができ、入力データは、何らかの形態のトークンベースエンコーディングに対して適する種々のフォーマットにあるとすることができ、種々のフォーマットは、人間可読自然言語、グラフィカルまたはビジュアル画像データ、オーディオ、スピーチ、触覚、ビデオ、時系列、マルチスペクトルデータ、階層的に順序付けられたマルチメディアコンテンツ、3Dデータ、および他の適したフォーマットを含むが、それに限定されない。種々のフォーマットの組み合わせが、同様に提示され、多重化または他の形態の入力結合等の何らかの適した実施方法を使用してXTTシステムによって処理され得ることが企図され得る。
XTT出力が、人間可読自然言語、グラフィカルまたはビジュアルフォーマット、オーディオ、スピーチ、触覚、ビデオ、時系列、マルチスペクトルデータ、階層的に順序付けられたマルチメディアコンテンツ、3Dデータ、および他の適したフォーマットを含むが、それに限定されない、種々の提示フォーマットおよびレイアウトを使用して、被生成説明および解釈を提示することができることが企図され得る。種々のフォーマットの組み合わせが、多重化または他の形態の出力結合等の何らかの適した実施方法を使用して、その出力においてXTTシステムによって同様に使用され得る。
例示的な実施形態において、XTTシステムは、シーケンスデータを処理するために使用され得る。シーケンスデータは、種々のシーケンシャルフォーマットで特徴量データを含む多数のデータポイントを含むことができ、種々のシーケンシャルフォーマットは、2Dデータ、3Dデータ、多次元データアレイ、トランザクションデータ、時系列、デジタル化済みサンプル、センサデータ、画像データ、ハイパースペクトルデータ、自然言語テキスト、ビデオデータ、オーディオデータ、触覚データ、LIDARデータ、RADARデータ、SONARデータ等を含むが、それに限定されない。データポイントは、特定のデータポイントについての出力値または分類あるいはデータポイントの連続または非連続間隔を示すことができる1つまたは複数の関連ラベルを有することができる。データポイントシーケンスは、合成データポイント、摂動データ、サンプリング済みデータ、または変換済みデータの組み合わせを出力することができる内部および/または外部プロセスに由来するとすることができる。
XTTは、任意の長さのデータポイント入力シーケンスが、任意の長さの任意のデータポイント出力シーケンスに、マルチモーダルおよびマルチタスク方法でマッピングされることを可能にすることもできる。これは、マップ-低減(Map-Reduce)システムと同様の方式で行われるマッピング計算のために(説明不能な潜在的空間を使用する説明不能なトランスフォーマと違って)説明可能なモデルを利用することによって、XTTによって達成される。XTTクロスオーバー学習構造は、ドメインおよびアプリケーション独立であるマルチタスク一般化を可能にする。
例示的な実施形態において、XTTシステムは、歩行分析(gait analysis)、運動予測、および感情状態予測を含む人間挙動を分析するために使用され得る。オプションとして、そのようなXTTシステムは、スポーツ映像(sports footage)および運動能力を予測し分析するために使用され得る。別のオプションとして、そのようなXTTシステムは、特に、ECG心拍数データ、血圧、酸素化レベル等のようなさらなるセンサデータと組み合わされると、病状を検出し予測するために使用され得る。
例示的な実施形態において、XTTシステムは、金融株(financial stock)トレーディングパターンを分析し、市場挙動を予測するために因果モデルおよびマルチモーダルデータの組み合わせを利用し、その後、買い(buying)、売り(selling)、または、特定の株にショートまたはロングポジションを置くこと等の自動化アクションを実行することができる。
例示的な実施形態において、XTTシステムは、挙動モデル(BM)を組み込む、インテリジェント製造、IoT対応アプリケーション、インテリジェントなエネルギー効率的でかつ環境に優しいスマートユーティリティ分配および消費ネットワーク、および関連アプリケーション等の、インダストリ4.0アプリケーション(Industry 4.0 application)のためのものである。4つの主要な異なるタイプの機能:(i.)、受動的予測および分析(ii.)、反応的予測および分析(iii.)、受動的制御および介入、(iv.)反応的制御および介入は、そのような例示的な実施形態によって提供され得る。製造アプリケーションにおいて、例示的なアプリケーションは、(i.)、機械類から出るオーディオを分析し、動作状態を分析し、故障モードを前もって予測する、(ii.)、エンドユーザに警告を出力することができる境界近接性条件を利用する、(iii.)、フィードバックベースアクションおよび介入をトリガーするためにフィードバック閾値を利用する、(iv.)安全考慮事項を含んで、プロセスをリアルタイムに制御するためにイベントの有効な推定および予測を利用するためのものであることになる。
例示的な実施形態において、XTTモデルは、センテンスをソース言語からターゲット言語に翻訳するために使用される。説明可能なエンコーダコンポーネントの入力は、Se={t1、t2、...、tn}であるようなソース言語センテンスSeである。エンコーダコンポーネントは、デコーダコンポーネント用のメモリキーおよび値を生成するために入力シーケンスを処理する。メモリキーおよび値は、エンコーダ-デコーダアテンションコンポーネント内の各説明可能なデコーダレイヤに渡される。説明可能なデコーダコンポーネントは、その後、線形レイヤおよびsoftmax関数または同様のメカニズムを使用してSeの被翻訳トークンを予測する。softmaxレイヤの予測された出力は、さらなる予測のためにデコーダコンポーネントへの入力として使用される。さらなる例示的な実施形態において、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャは、説明可能なデコーダコンポーネントの出力を予測するために、線形レイヤの代わりに使用される。
例示的な実施形態において、nレイヤXTTは、文書をソース言語から別のターゲット言語に翻訳するために使用される。入力埋め込みは、位置埋め込みと結合され、説明可能なトランスフォーマXTTへの入力として使用される。エンコーディングレイヤ内の説明可能なアーキテクチャは、ブラックボックスフィードフォワードニューラルネットワークコンポーネントを帰納して、グローバル説明およびローカル説明を生成しながら、ブラックボックスフィードフォワードニューラルネットワーク230の出力を予測する。説明は、説明フレームワークからのフィルタを使用してフィルタリングされて、デコーダのエンコーダ-デコーダマルチヘッドアテンションコンポーネントのために使用される解釈を作成することができる。XTTエンコーダ-デコーダは、動的アテンションスパンを同様に使用して、異なる状況に対する適応性を改善することができ、その際、スパンウィンドウ長は、出力説明および/または正当化理由に含まれるパラメータである。デコーダの説明アーキテクチャは、図6に示すように、フィードフォワードニューラルネットワークコンポーネント270を帰納し、翻訳のためのターゲット言語語彙の線形レイヤの予測のための説明を生成する。XTT説明および/またはXTT出力は、EIGSシステムからのフィルタまたは適した説明フレームワークを使用してフィルタリングされて、適した解釈者に次に提示される解釈を作成することができる。そのような実用的なアプリケーションパイプラインの典型的な実施態様は図14に提示され、XTTは、典型的な説明および解釈パイプラインにおいてコンポーネント904、908、912、および任意に911の実用的な実施形態として使用され得る。XTTが、(i.)人間可読説明の生成、(ii.)対話および会話出力、(iii.)質問回答、(iv.)質問および/解釈の分類、(v.)頻繁に尋ねられる質問(FAQ:frequently asked question)タイプの出力、(vi.)過去に知られているコンテキストに関連する回答および出力の含意(entailment)、(vii.)複数のランク付けされた選択からの出力の選択を含むが、それに限定されない、提示指向の変換および説明および/または解釈出力の強化を実施するために利用され得ることがさらに企図される。XTTが、並列化および全体スループットの観点と説明可能性の観点の両方において、ELMo等の非トランスフフォーマアーキテクチャに勝る有意の利点を提供することがさらに留意される。
例示的な実施形態において、nレイヤXTTは、電子メールのテキストコンテンツがスパムであるか、スパムでないかを検出するために使用される。トランスフォーマ-エンコーダアーキテクチャは、図10(a)に示すように、電子メールがスパムであるか、スパムでないかを予測するために、最終エンコーダレイヤに接続された下流分類器1008からなる。分類器は、特定のドメイン下流タスクのための説明を生成するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャとすることができる。さらなる例示的な実施形態において、トランスフォーマ-デコーダアーキテクチャは、図10(b)に示すテキスト分類タスクのために使用される。下流タスク分類器1009は、ドメイン下流タスクのための説明を生成するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャとすることができる。説明可能なアーキテクチャは、フィードフォワードニューラルネットワークコンポーネント1900から帰納される。生成されたグローバル説明およびローカル説明は、入力テキストトークンがスパムであるか、スパムでないかを分類するために、フィードフォワードニューラルネットワーク等の機械学習分類器を使用して、下流スパム検出タスクのために、XTTの出力と併せて使用される。下流タスク分類器は、特定のドメイン下流タスクのための説明を生成するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャを使用して同様に帰納され得る。
有限状態トランスデューサ(FST)は、文書処理に成功裏に適用された最も早期のモデルのうちの1つであり、XTTは、それらの早期のFSTの直接進化および一般化である。FST、そして拡張すると、XTTは、形態学的分析のような人間言語技術(HLT:Human Language Technology)アプリケーションおよび有限状態構文解析において非常に成功した。自然言語を処理するためのFSTについての早期の動機は、自然言語用のライティング文法が、実施するにはあまりにも難しくかつ骨が折れるだけであることを認識することであった。FSTの主要なアピールのうちの1つは、それらの非決定性有限オートマトン(NDFA:Non-Deterministic Finite Automaton)オリジンのそれらの表現力が、複雑な入力-出力変換を処理することを可能にしながら、ルールに変換され、元通りFST形態でコンパイルされるそれらの能力である。説明可能なモデルを使用して実施されるXTTアテンションモデルは、そのようなルール抽出が、連続しているレベルの詳細近似によって行われることを可能にする。引き出されたルールに対するXTTの全アテンションモデルの完全な変換は、可能であるとすることもできるが、何らかの形態の圧縮、一般化、または近似なしでは、抽出されることになるルールが非常に多いため実用的なシステムをもたらさない可能性があることになる。XTTに関する利点は、型付け式マスキング(typed masking)および文法木分析のようなシンボリック法ならびに情報理論ベース圧縮および分析法が、そのようなルールの初期セットを一般化し、より管理可能なフォーマットに圧縮するために使用され得る。XTT内の説明可能なモデルは、それらの特徴量相互作用レイヤを分析することによってXTTアテンションモデルをシンボリックルールベースフォーマットに変換するために使用され得、シンボリックルールベースフォーマットは、その後、再帰関係に(再帰またはフィードバックの要素または過去に学習した表現参照が存在しても)、そしてその後最終的に、人間および機械可読フォーマットに変換され得る。
別の例示的な実施形態において、XTTは、法律文書を処理し、上記法律文書に関係し上記法律文書における参考文献である、異なる機関およびエンティティに適用可能な参考文献およびテキストセクションを正しく決定するために使用される。XTTアテンションモデルによって抽出されるエンティティの関係、属性、および制約は、XTTによって処理されるテキスチュアル言語情報自身と共に、その後、レッドフラグ、責任問題、条項の省略、相手方当事者またはエンティティによる非常に攻撃的な要求、優先度問題、前例、凡例法参考文献、条項のリスク分類、条項のインパクト分類、および特定の条項の受容性に関する決定の組み合わせを含む種々の法律問題について、例えば、XAIモデルおよび/またはXNNおよび/または別のXTTにおいて、格納された所定のルールのセットに対して文書を2重チェックするために利用される。XTTが、法律文書の品質を改善するために、包含、削除、および/または軽減方策を含む考えられる編集をランク付けするために利用され得ることがさらに企図される。XTTが、どの当事者の側につくべきかに応じて、適切なコンテキストを任意に考慮して、そのような当事者の関心が、異なるユーザ指定レベルの網羅性および攻撃性に従って示されることを保証することができることがさらに企図される。
図22は、説明構造モデル(ESM:Explanation Structure Model)ノーテーションを使用して、法律文書処理のために使用される例示的なXTTシステム実施態様を示す。例において、XTTアテンションモデル46100は、責任条項識別コンポーネント46150を使用して、法律文書コーパス46110から、考えられる責任関連条項46190を識別するために使用される。XTTは、履歴判例法情報46200、および、外部プロバイダによって得られた関連する司法権(jurisdiction)についての法律システムを示すルールの構造化システム46210(例において「Lex」)に同様にアクセスできる。履歴情報46200、法律システムルール46210、および責任関連条項46190は、重大度評価コンポーネント46250を使用して、各条項の重大度および結果を評価する46290ために使用される。XTTは、どの側の契約当事者を採用するかに応じて、異なる責任最小化方策を推奨する46400責任方策推奨器コンポーネント46350を使用して、重大度アセス責任条項を処理する46290ことと並行して抽出された契約当事者情報46310と共に、ユーザ供給シナリオ情報46300を同様に使用する。最後に、XTTは、説明可能なモデルからのランク付けコンポーネントを使用して、その後自動的に選択されるかまたは人間参加型(human-in-the-loop)タイプの承認を用いて選択され得る法律文書46110に対する正確な編集46450を推奨する。
例示的な実施形態において、文書を処理しているXTTシステムは、マルチモーダル文書レイアウトおよび文書理解技法を利用して、文書内のテキスト、画像、および他のマルチモーダルコンテンツを、正しくセグメント化し、処理し、リンクすることができる。
XTTは、XTTがモデル化している動的システム内の状態変化を追跡し、そのようなシステム内で識別される動的プロセスを説明する説明を生成するために同様に使用され得る。
例示的な実施形態において、XTTシステムは、その説明可能なモデルコンポーネントにおいて高速重み(Fast Weight)を利用することができる。そのようなXTTシステムは、高速XTTまたはF-XTTとして示され得る。高速重みは、結果として得られるXTTシステムが、変化する入力データセット分布、および、元の訓練用データセットの一部でなかった過去に見られない新しい訓練用データサンプルに迅速に適応することを可能にしながら、結果として得られるXTTシステムのランタイム性能に対する優れたブーストを与えることができる。F-XTTは、シーケンス入力データおよび他の同様の多次元入力データを処理するにより効率的である場合もある。当技術分野で理解されるように、高速重みは、標準的なモデル重みより迅速に変化することができる重み変数を通して、特定の過去のイベントの時間的リポジトリを提供することができ、システムのための「短期メモリ(short-term memory)」を本質的に提供する。
別の例示的な実施形態において、XTTは、対話型説明および/または解釈プロセスのフローを制御するために使用され、対話型説明および/または解釈プロセスは、対話処理、チャットボット、コールセンター管理システム、事例管理システム、顧客サポートシステム、クライアント関係管理(CRM:client relationship management)システム、会話システム、質問および回答システム(question and answering system)、ならびに、ユーザおよび/または別のシステムとの対話性の要素が必要とされる同様のアプリケーション等のアプリケーションにおいて一般に使用される。XTTアテンションモデルは、その回答および説明生成能力と併せて使用されて、関連する対話型出力の相互作用フローおよび生成の効率的な管理に対する実用的な解決策を提供する。説明可能なトランスフォーマ-デコーダタイプの解決策が、全XTTアーキテクチャを必要とすることなく、そのような例示的な実施形態において実用的な解決策を提供するために使用されることがさらに企図される。XTT-エンコーダは、固有表現認識(NER:named entity recognition)およびアナフォラ解決(anaphora resolution)のような関連タスクのために使用され得る。XTT-エンコーダは、エンティティの開始および終了を検出するために、エンド-ツー-エンド深層学習アーキテクチャにおいて、文字および単語をエンコードするために使用され得る。例示的な実施形態において、XTT-エンコーダは、単語レベルコンテキスチュアル埋め込みを生成するために別のXTT-エンコーダへの入力として使用される文字レベル情報をエンコードするために使用される。単語レベルXTT-エンコーダは、事前訓練済み単語埋め込みと、文字レベルXTT-エンコーダからの抽出済み文字特徴量との結合を処理することができる。条件付きランダムフィールドレイヤ(Yan等、2019)は、P(y|s)を最大にするために使用され得、ここで、sはシーケンスであり、yはラベルシーケンスである。文字レベルXTT-エンコーダおよび単語レベルXTT-エンコーダは、NERタスクの性能を最適にするために、相対的な位置エンコーディングおよびスケーリングなしアテンション(Yan等、2019)を使用することができる。
XTT-エンコーダは、下流タスクにおける、質問-回答等の2つのセンテンス間の関係を識別するために使用され得る。XTT-エンコーダは、単一言語コーパス(monolingual corpus)を使用して2つのセンテンス間の関連付けを学習するために、次センテンス予測(NSP:next sentence prediction)(Devlin等、2018)を使用して事前訓練され得る。質問-回答下流タスクについてのXTT-エンコーダの入力トークンは、{[CLS]、q1、q2、...、qn、[SEP]、a1、a2、...、am}として規定され得、ここで、[CLS]は、全ての入力の前で使用されるシンボルトークンであり、[SEP]は、質問と回答との間の分離器トークンであり、qはq={q1、q2、...、qn}であるような質問のトークンを指し、aはa={a1、a2、...、am}であるような回答のトークンを指す。[CLS]トークンは、回答が入力質問に対応するか否かを判定するために、分類用のエンド-ツー-エンド深層学習ネットワークにおいて、説明可能なモデルへの入力として使用される。
XTT-デコーダは、XTT-デコーダを外部プロセス内のターゲットエンティティに対して訓練することによって、エンティティの知識を全く持たない入力シーケンスにおいてエンティティを検出し、エンティティ追跡を実施するために使用され得る。XTT-デコーダは、入力シーケンスtjの最後にトークンを付加し、tjのコンテキスト化トークン表現を使用して、それをエンティティ表現と組み合わせ、それを説明可能なモデルへの入力として使用し、それにより、クラス予測確率を得ることができる。XTT-デコーダは、入力シーケンスを再構築することによって、ターゲットエンティティに向かって誘導され得る。入力シーケンスは、センテンスとターゲットエンティティ間の分離器トークン[SEP]を使用して再構成され得る。[CLS]トークンは、入力シーケンスの始めにまたは入力シーケンスの終わりに付加され得る。[CLS]トークンは、クラス予測確率を得るために、説明可能なモデルx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャへの入力として使用され得る。
XTTが、知識グラフ、RDFデータベース、キー値対テーブル、またはXTT説明可能なモデル内にシームレスにマージされ得る事実を象徴的な方法で提供する他の適したデータベースにリンクされ得ることがさらに企図される。そのような統合は、演繹的、帰納的、仮説的、および因果的ロジックの結合が、XTTのフィードフォワード予測パスにおいて利用されることを、同様に可能にし、象徴的に構築された知識をコネクショニストアプローチと結合する。
例示的な実施形態において、説明可能なシステムは、説明可能なチャットボットシステムにおいて使用されて、予測機械学習モデルの意思決定を説明することができる。説明可能なチャットボットシステムは、ユーザが、説明を要求するために、説明可能なモデルx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャと相互作用することを可能にする。説明可能なチャットボットシステムは、クエリ意図を分類し、要求されるエンティティを抽出するために、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャからなることができる。対話(dialogue)管理コンポーネントは、ユーザと説明可能なチャットボットシステムとの間で状態およびコンテキストを管理するために利用され得る。XTTモデルは、モデル説明をユーザ可読テキストに投影して、それをユーザに提示するために訓練され得る。説明可能なチャットシステムは、人間知識インジェクション(HKI)またはホワイトボックスモデルにおけるバイアスの識別のために、システムの管理者との相互作用を可能にすることができる。ユーザのために生成される説明は、モデルの基本解釈、モデルの説明解釈、およびモデルのメタ説明解釈を含むことができる。説明解釈は、2タプルベクトル<o、w>によって示され、サブコンポーネントによって理解され得る、そのような予測値についてのモデル説明wと結合された予測出力oを指す。モデル説明は、所与の観測について入力特徴量の特徴量重要度を説明するために利用され得る、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャの係数θからなることができる。メタ説明解釈は、3タプルベクトル<o、w、j>によって示され得、予測出力o、モデル説明w、およびモデル説明の正当化理由jを含む。モデル正当化理由jは、モデル説明を生成するために考慮された、説明システムによって採用された仮定、プロセス、および意思決定に関するさらなる情報を提供する。
アテンションモデルがグラフ-アテンション(またはハイーアグラフ-アテンション)に基づくグラフ-XTT(GXTT)に一般化されるグラフまたはハイパーグラフの形態の階層的パーティション構造を有し、シーケンス-ツー-シーケンス変換の標準的なXTTモードの他に、グラフ-ツー-シーケンス、シーケンス-ツー-グラフ、およびグラフ-ツー-グラフ変換モードを処理することもできる、説明可能なモデルを使用するXTT。GXTTは、有向、無向グラフ、トポロジカルネットワーク、レビグラフ、または他の適した表現フォーマットを含む、異なるグラフ、ハイパーグラフ、または単体的複体表現フォーマットを利用することができる。
別の例示的な実施形態において、XTTは、強化学習タイプのアプリケーション、または、ロボットシステムまたは典型的な制御エンジニアリングアプリケーションにおいて等、フィードバック制御タイプのメカニズムを必要とする適したアプリケーションにおいて使用される。XTTは、アクションポリシーからのアクションの選択に対して実用的な解決策を提供するために、および/または、強化学習エージェントの一部として適切な報酬関数を実施するために使用され得る。XTTが、アクションポリシーおよび/または報酬関数自身の訓練および学習において使用され得ることがさらに企図される。XTTが、上記XTTを利用する強化学習エージェントによって実行され得る考えられるアクションを学習し発見するために利用され得ることがさらに企図される。
XTTが、XRLと併せておよび/またはXRLシステムの一部として使用されることがさらに企図される。XRLエージェントは、必要なコンテキストを提供するために、XTTを使用する介入的または反事実的要素を含む説明を生成するために使用され得る。
説明可能なトランスフォーマアーキテクチャは、パイプラインの一部としてXTTアーキテクチャを組み込むエンド-ツー-エンド説明可能なDLシステムを組み込むために、他の機械学習システムを組み込むことができる。例示的な実施形態において、説明可能なオートエンコーダXAEDは、言語埋め込みを低次元空間に圧縮するために使用される。圧縮された次元空間は、生成された説明およびパーティション情報ならびに位置エンコーディングと併せて、説明可能なトランスフォーマアーキテクチャへの入力として使用される。
説明可能なトランスフォーマXTTアーキテクチャは、自立システム内のエンド-ツー-エンド説明可能なシステム内のコンポーネントとすることができる。自立システムは、挙動モデル階層構造BMH(:Behavioral Model Hierarchy)を使用して設計され得る。BMHは、複数の挙動モデルBMHBMを含むことができ、ここで、BMHBM={BM1、...、BMn}である。
例示的な実施形態において、自立システムは、XTTまたは説明可能なトランスフォーマ-エンコーダアーキテクチャに対する条件付き制約BMHcを有することができ、アーキテクチャは、n個のエンコーダレイヤを有するトランスフォーマ-エンコーダベースアーキテクチャであり、最終エンコーダレイヤの出力は、別の車両との衝突のリスクを予測するために出力SoftMaxに給送される。条件付き制約cは、説明可能なアーキテクチャ3400x(ここで、x∈{XAI、XNN、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャの内部係数に対して課され(place)得る。条件cは、階層的形態の他の条件に基づくとすることができる。条件は、満足度モジュロ理論(SMT:Satisfiability module theories)および競合駆動式条項学習(CDCL:conflict-driven clause learning)満足度(SAT:Satisfiability)ソルバー等の形式的検証問題ソルバーに適合するために、連言標準形(CNF)または選言標準形(DNF)または適した1次ロジックの形態であるとすることができる。
挙動モデルBMは、説明可能なシステム3470、イベント3420、トリガー3430、終端アクション3440、フィードバックアクション3450、およびシステムコンポーネント3460を含むことができる。1つまたは複数の条件BMcは、1つまたは複数のトリガーBMt3430を活性化するために1つまたは複数のイベントBMe3420を発動させることができる。トリガーは、BMH内の複数のBMの間に接続され得る。トリガーは、説明可能なトランスフォーマXTTアーキテクチャへのフィードバックアクション3450またはシステムコンポーネント3460へのフィードバックを提供し得る、または、挙動モデル内の終端アクション3440を活性化することができる。自立システムの挙動モデル階層構造BMHは、複数の機械学習モデルBMHx(ここで、BMHx={x1、...、xn})を含むことができ、その際、XTTはBMHx内のモデルのうちの1つである。この場合、挙動モデル階層構造BMHの条件は、BMHt内の特定のトリガーについての条件付き要件として共に融合され得る。
説明可能なトランスフォーマXTTアーキテクチャは、図18に示すように、挙動モデルフレームワーク内の説明可能なシステム3470内の説明可能なアーキテクチャコンポーネント3400とすることができる。説明可能なシステム3470は、因果的アーキテクチャ3410等の他のコンポーネントを含むことができる。挙動モデルBMは、説明可能なアーキテクチャx(ここで、x∈{XAI、XNN、XTT、INN、XRL、XSN、XMN})あるいは論理的に等価なまたは同様のアーキテクチャからなることができる。入力制約は、挙動モデルBMの説明可能なアーキテクチャの形式的検証中に含まれ得る。形式的仕様制約は、説明可能なアーキテクチャXTTの解釈可能な内部係数に基づくとすることができる。形式的仕様制約は、形式的検証が説明可能なシステムにおいてバイアスを許可しないように設計され得る。形式的仕様制約は、形式的検証法がXTTおよび全てのXTT変形と共に利用されることを可能にするために使用され得る。高度シミュレーションおよび挙動分析法がXTTおよび全てのXTT変形と共に利用されることを形式的仕様制約が可能にすることができることがさらに企図される。
例示的な実施形態において、XTTベースシステム(または、XTTベースシステムによって制御されるかまたはモニターされるサブシステム)は、通常動作状態およびステータスからの異常、分散、および偏差について、その通常動作サイクル中にモニターされ得る。そのようなモニタリングメカニズムが、XTTを、挙動モデル(BM)、または、条件、イベント、トリガー、およびアクションの規定および実施を可能にする同様の制御エンジニアリング解決策と組み合わせることによって達成され得ることがさらに企図される。条件、イベント、トリガー、およびアクションの基礎になる制約および表現をモニターすることは、シンボリックルールまたはシンボリック表現のシステム、多項式表現、条件付きおよび条件なし確率分布、結合確率分布、状態空間および位相空間変換、整数/実数/複素数/クォータニオン/オクトニオン変換、フーリエ変換、ウォルシュ関数、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、相違分析の形態で、を含むが、それに限定されない、種々の適した例示的な実施態様で実施され得る。制約および表現をモニターすることは、説明可能なモデルならびに任意の関連するタクソノミー、オントロジー、および因果モデルにアクセス可能な異なる特徴量および変数を参照するデータ構造の形態で同様に実施され得る。制約および表現をモニターすることは、知識グラフネットワーク、管理チャート(control chart)、ネルソンルール、ボード線図、ナイキスト線図、および、何らかの測定された挙動変数が、制御不能である-すなわち、一貫性に対する予測不可能性(unpredictability versus consistency)の尺度を与える-か否かを判定する関連方法の形態で同様に実施され得る。
例示的な実施形態において、XTTアーキテクチャは、自立システムの形式的検証を実施するために挙動モデルBM内で使用されて、「歩行者が自立システムの近くにおり、そのような歩行者が左から来る場合、右転回を実施せよ(if a pedestrian is near the autonomous system; and such pedestrian is coming from the left, perform a right turn)」等の制約および/またはルールを使用して、近くの歩行者が記述されることを検出することができる。自動化制約および/またはルール拡張システムは、例えば、「そのような転回が、システム速度、予測歩行者速度、および右手障害物境界によって決定される(where such turn is determined by the system speed, predicted pedestrian speed and right-hand obstacle boundaries)」を付加することによって、世界コンテキストから採用されたさらなる背景ルールによって検証ステートメントを拡張することができる。そのような検証問題は、distl<D<distuと仮定した(ここで、distlおよびdistuは、そのような距離の下方境界および上方境界である)自立システムと歩行者との間の距離D等のパラメータを有し、また、angl<θ<anguと仮定した角度θにおいて(ここで、anglおよびanguは、予測歩行者移動ベクトルの角度の下方境界および上方境界である)、可解な方程式系に変換され得る。形式的検証技法は、そのようなパラメータ制約によって、右転回角度についての予測出力が、境界olower<rightturn<oupper内である必要があることを検証するために利用され得る。例をさらに進めると、そのような形式的検証解決策は、自立システム自身上でこの場合実行される、実際の被観測挙動の観測的動的検証に基づく解決策と並列に同様に実施されうる。例を継続すると、自立システムは、「車の前を走った歩行者を回避するために、右に断固としてよけなければならなかった(Had to swerve strongly to the right to avoid the pedestrian who ran in front of the car)」ような、ユーザレベルの説明を出力することもできる。「断固として(strongly)」等の説明内の形容詞は、何らかの適切な分類法、値ルックアップテーブル、ファジーロジックシステム、AIモデル、または適切なテキスト生成実施態様によって決定され得る。自立システムは、入力画像を入力として採用する説明可能なトランスフォーマ-エンコーダベースアーキテクチャXTTeからなることができる。入力画像は、パッチに分割され、平坦化され、それらの対応する位置エンコーディングによって入力トークンとして使用され得る。トランスフォーマ-エンコーダベースアーキテクチャXTTeは、制御アクションを予測するために、微調整用の線形レイヤにアタッチされ得る。自立システムは、例えば、「車は、歩行者(検出オブジェクト:クラス=歩行者、信頼度=95%;オブジェクトベクトル(予測):相対次数=90°、相対速度デルタ=2.22m/s)衝突(予測衝突=91%;予測損傷リスク=高;予測車両コンポーネント=前ヘッドランプ)を回避するために、右に断固としてよけた(加速プロファイル:角度20°、速度デルタ=2.77m/s)(Car swerved strongly to the right (acceleration profile: angle=20°, speed delta=2.77m/s) to avoid pedestrian (detected object: class=pedestrian, confidence=95%; object vector (predicted):relative degree=90°, relative speed delta=2.22m/s)collision (predicted collision=91%; predicted injury risk=HIGH; predicted vehicle component=front headlamp))」のような診断レベルでのより詳細な説明を出力することもできる。自立システムは、XAI知識をエンコードし送信するための機械可読方法等の適したフォーマットでエンコードされた診断レベル説明を同様に利用して、適したダッシュボードディスプレイまたはヘッドアップディスプレイシステムまたは拡張現実ディスプレイ上に、アニメーション等のマルチメディア出力を生成することができる。そのような情報が、適切なインテリジェント輸送システム(ITS:Intelligent Transport System)ネットワーク、例えば、車両-ツー-車両(V2V:vehicle to vehicle)ネットワーク、車両アドホックネットワーク(VANET:vehiqular ad hoc network)、IEEE 802.11p互換プロトコル等の適切な車両間通信(IVC:inter-vehicle communication)プロトコルを使用するモバイルアドホックネットワーク(MANET:mobile ad hoc network)を通じて同様に送信され得ることがさらに企図される。
自立車両におけるXTTシステムの例示的な実施形態において、XTTは、走行車線形状を予測し、エンド-ツー-エンドオブジェクト検出および挙動予測を実施し、ポイントクラウド処理を実施し、単眼、複眼、およびマルチビュー画像データと併せて視線アテンションモデルを利用して、周囲環境の内部表現を作成し、人間乗客またはユーザにコンテキストアウェアな(contextual aware)説明を提供しながら、環境のダイナミクスの予測を作成するために使用され得る。
例示的な実施形態は、説明可能であるトランスフォーマを提供することができる。例示的な実施形態は、説明可能なトランスデューサ、説明可能なトランスフォーマ、説明可能なトランスフォーマ-エンコーダ、および/または説明可能なトランスフォーマ-デコーダを含むことができる。説明可能なトランスフォーマアーキテクチャは、予測データ表現に対する入力トークンの特徴量寄与度を説明することができる。これは、トランスフォーマ内の所与のコンポーネントについての予測出力を理解するために使用され得る。トランスフォーマの説明可能なエンコーダおよび説明可能なデコーダのために基礎のアーキテクチャとしてXNN/INNを使用すると、エンド-ツー-エンドホワイトボックス機械学習システムを構築することが可能である。ホワイトボックストランスフォーマの進歩は、以下を含む。
説明可能なトランスフォーマアーキテクチャは、標準的なブラックボックストランスフォーマと同程度にパワフルである。
説明可能なトランスフォーマアーキテクチャは、全ての現在の深層学習ライブラリおよびアーキテクチャを利用し、それらと完全に適合し、説明可能なトランスフォーマアーキテクチャが、深層学習システムのために利用可能な全ての性能進歩を利用することを可能にする。
説明可能なトランスフォーマアーキテクチャは、解釈可能なモデルが柔軟な方法で作成されることを可能にする。説明可能なトランスフォーマアーキテクチャは、外部帰納ステップを有する必要性ならびにそれを複数フェーズで訓練する可能性なしで、または、モデルの複数の部分について帰納を組み込むことによって、1回反復で訓練され得る。
説明可能なトランスフォーマアーキテクチャは、パーティショニングを通してモデルの融合を可能にする。
説明可能なトランスフォーマアーキテクチャは、さらなる処理または摂動についての必要性なしで、単一フィードフォワードパスでエンコーディングおよび説明を計算することができる。
説明可能なトランスフォーマは、例えば、ブラックボックスモデルから知識を転移させることによって、または、外部で訓練された既存のルールセットから知識を転移させることによって初期化され得る。転移学習(Transfer learning)は、結果として得られる解釈可能なモデルの速度および品質を改善することができる。
説明可能なトランスフォーマアーキテクチャは、パイプラインの一部としてXTTを組み込むエンド-ツー-エンド説明可能なDLシステムを組み込むために、他の機械学習システムを組み込むことができる。
説明可能なトランスフォーマアーキテクチャは、解釈可能な自動MLモデルを作成するために使用され得る。
1つの態様は、説明可能な機械学習システムであり、説明可能な機械学習システムは、機械学習システムが、入力言語からのデータを第2の出力言語に翻訳、マッピング、および変換することを可能にするように構成される有限状態トランスデューサ、FSTを備え、有限状態トランスデューサは、変換のために使用される1つまたは複数の入力特徴量を含むまたは上記1つまたは複数の入力特徴量を変換する入力言語からの上記データを受信するように適合され、有限状態トランスデューサは、上記1つまたは複数の入力特徴量に基づいて翻訳、マッピング、および/または変換されたデータを第2の出力言語として提供するようにさらに構成され、および/または、入力言語からの上記データに関連して形成されたデコーダおよびエンコーダコンポーネントの組み合わせに基づくアテンションベースアーキテクチャを有する説明可能なトランスフォーマを備え、有限状態トランスデューサおよび説明可能なトランスフォーマは、入力言語からの上記データを翻訳、マッピング、および/または変換するように構成される説明可能なトランスデューサ・トランスフォーマ、XTTを生成するために組み合わされるように構成される。
別の態様は、説明可能なトランスデューサ・トランスフォーマを提供するためのシステムであり、説明可能なトランスデューサ・トランスフォーマは、入力を受信し、1つまたは複数の入力特徴量を識別するように構成される入力レイヤと、条件付きネットワークであって、1つまたは複数のパーティションであって、1つまたは複数のパーティションのそれぞれはルールを含む、1つまたは複数のパーティションに基づいて入力特徴量をモデル化するように構成される条件付きレイヤ、1つまたは複数のルールを1つまたは複数の集約パーティションになるよう集約するように構成される集約レイヤ、および、条件付きレイヤからの1つまたは複数のパーティションを用いて、集約レイヤからの集約パーティションを選択的にプールするように構成されるスイッチ出力レイヤを備える、条件付きネットワークと、予測ネットワークであって、1つまたは複数の変換を入力特徴量に適用するように構成される1つまたは複数の変換ニューロンを備える特徴量生成および変換ネットワーク、1つまたは複数の特徴および1つまたは複数のパーティションの少なくとも一方に関連する1つまたは複数の係数を識別するために特徴量生成および変換ネットワークによって変換された特徴を組み合わせるように構成されるフィットレイヤ、値出力レイヤであって、1つまたは複数の係数を解析するように構成され、1つまたは複数の特徴量あるいは1つまたは複数のパーティションの少なくとも一方に関連する値を出力するように構成される、値出力レイヤを備える、予測ネットワークと、エンコーダレイヤおよびデコーダレイヤであって、エンコーダレイヤおよびデコーダレイヤの少なくとも一方は、入力から形成される説明可能なアーキテクチャを備える、エンコーダレイヤおよびデコーダレイヤと、機械プログラムまたは人間の少なくとも一方によって解釈可能かつ説明可能である出力を生成するように構成される出力レイヤであって、パーティション全体を通る1つまたは複数の実行経路は外部プロセスによって識別可能である、出力レイヤとを備える。
オプションまたは代替物として、請求項1による機械学習システムであって、説明可能なトランスフォーマは、入力言語からの上記データに関連付けられる入力を受信し、上記1つまたは複数の入力特徴量を識別するように構成される入力レイヤと、条件付きネットワークであって、1つまたは複数のパーティションであって、1つまたは複数のパーティションのそれぞれはルールを含む、1つまたは複数のパーティションに基づいて上記1つまたは複数の入力特徴量をモデル化するように構成される条件付きレイヤ、1つまたは複数のルールを1つまたは複数の集約パーティションになるよう集約するように構成される集約レイヤ、および、条件付きレイヤからの1つまたは複数のパーティションを用いて、集約レイヤからの集約パーティションを選択的にプールするように構成されるスイッチ出力レイヤを備える、条件付きネットワークと、予測ネットワークであって、1つまたは複数の変換を上記1つまたは複数の入力特徴量に適用するように構成される1つまたは複数の変換ニューロンを備える特徴量生成および変換ネットワーク、1つまたは複数の特徴量および1つまたは複数のパーティションの少なくとも一方に関連する1つまたは複数の係数を識別するために特徴量生成および変換ネットワークによって変換された特徴量を組み合わせるように構成されるフィットレイヤ、値出力レイヤであって、1つまたは複数の係数を解析するように構成され、1つまたは複数の特徴量あるいは1つまたは複数のパーティションの少なくとも一方に関連する値を出力するように構成される、値出力レイヤを備える、予測ネットワークとを備え、デコーダおよびエンコーダコンポーネントは、上記入力をエンコードするための少なくとも1つのレイヤおよび入力をデコードするための少なくとも1つのレイヤを備え、入力から形成される説明可能なアーキテクチャを備え、機械プログラムまたは人間の少なくとも一方によって解釈可能かつ説明可能である出力を生成するように構成される出力レイヤであって、パーティション全体を通る1つまたは複数の実行経路は外部プロセスによって識別可能である、出力レイヤを備える、機械学習システム。オプションとして、請求項1または請求項2による機械学習システムであって、XTTは、説明可能なトランスフォーマ-エンコーダまたは説明可能なトランスフォーマ-デコーダとして動作するように構成され、システムは、XTTの内部係数に対する条件付き制約を任意にさらに含み、条件付き制約は、XTTの公称動作サイクル中にモニターされるように任意に構成される、機械学習システム。オプションとして、説明可能なトランスデューサは、デコーダコンポーネントおよび/またはエンコーダコンポーネントのサブレイヤ内にホワイトボックスモデルコンポーネントを備える。オプションとして、説明可能なニューラルネットワーク、XNNを含む説明可能なアーキテクチャは、XTT内で利用され、XNNは、入力レイヤであって、条件付きレイヤ、集約レイヤ、およびスイッチ出力レイヤを含む条件付きネットワーク、および、特徴量生成および変換レイヤ、フィットレイヤ、および予測出力レイヤを含む予測ネットワークに入力されるように構成される、入力レイヤと、ランク付けされたかまたはスコア付けされた出力を生成するために、スイッチ出力レイヤの出力および予測出力レイヤの出力を逓倍するように構成される選択およびランク付けレイヤとを任意に備え、XNNは、高速重みを任意に含む。オプションとして、解釈可能なニューラルネットワーク、INNを備える説明可能なアーキテクチャは、XTT内で利用される、および/または、説明可能な強化学習、XRLシステムを備える説明可能なアーキテクチャは、XTT内で利用される、および/または、XTTは、ワイドラーニングモデルをサポートするように構成される。オプションとして、説明可能なアーキテクチャは、回答からなる説明可能なまたは解釈可能な出力を生成する、回答のオプションのモデル説明を生成する、回答および/またはモデル説明の正当化理由を任意に生成するように構成される。オプションとして、XTTは、上記1つまたは複数の入力特徴量を処理するように構成されるパーティションを備え、パーティションは、ルールおよび/または距離類似度関数に従ってデータポイントを任意にグループ化するクラスタであり、パーティションは、ロック付きパーティションであって、ロック付きパーティションの値が静的値として設定されている、ロック付きパーティションであるかまたはXTTの各後方訓練パスについて動的に可動である可動パーティションであり、パーティションは、XTTを最初に作成する外部プロセスによってXTTの一部として最初に作成される、または、パーティションは、パーティショニング情報を提供するリンク付きタクソノミーまたはオントロジーから事前訓練されるかまたは適切に初期化され、XTTは、パーティションが事前訓練された後に、任意に事前微調整され、パーティションが作成されると、XTTは、パーティションをフィットさせるかまたはさらに改良するため、勾配降下法を使用するように構成され、パーティション構造は、グラフまたはハイパーグラフ内に任意に配置され、システムは、グラフ-ツー-シーケンス、シーケンス-ツー-グラフ、およびグラフ-ツー-グラフ変換モードを処理するように任意に構成される。オプションとして、XTTは、XTTがどのようにパーティションを選択するか、マージするか、または分割するかを決定するためにランク付け関数を実施するように構成され、パーティションは、異なるレベルの意味論的および記号論的詳細でシンボルを示すために使用可能である階層的性質に従って任意に配置される。オプションとして、パーティションは、多数目的最適化技法、遺伝的アルゴリズム、モンテカルロシミュレーション法、および/または因果的ロジックおよびシミュレーション技法のうちの1つまたは複数を使用して変更可能である。オプションとして、パーティションは、2つ以上のオーバーラップするパーティションおよびオーバーラップするパーティションのうちのいずれが活性化すべきかを決定するように構成される優先度関数、2つ以上のオーバーラップしないパーティション、および/または、複数の活性化されたパーティションからの結果を結合または分割するように構成される集約関数を備え、パーティションは、疎なXNNまたはINNを使用して任意に実施される。オプションとして、各パーティションは、線形モデルにフィットするデータ、ならびに、多項式展開、回転、次元尺度法、無次元尺度法、状態空間変換、位相空間変換、整数変換、実数変換、複素数変換、クォータニオン変換、オクトニオン変換、フーリエ変換、ウォルシュ関数、連続データバケット化、ハールウエーブレット、非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1またはタイプ2のファジーロジック知識グラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ空間、フレシェ空間、ハウスドルフ空間、またはチコノフ空間のトポロジカル変換、相違分析、正規化、標準化、および条件付き特徴量のうちの少なくとも1つが、線形モデルをデータにフィットさせる前に、適用されたデータの一方または両方を含む。オプションとして、パーティションは、パーティショニング関数に従って階層構造で配置され、パーティショニング関数は、k-means関数、ベイズ関数、接続性ベースパーティショニング関数、重心ベースパーティショニング関数、分布ベースパーティショニング関数、グリッドベースパーティショニング関数、密度ベースパーティショニング関数、ファジーロジックベースパーティショニング関数、エントロピーベース関数、または相互情報ベース方法からの1つまたは複数を含むクラスタリングアルゴリズムを含み、パーティション関数は、任意に複数のオーバーラップするパーティションおよび/またはオーバーラップしないパーティションを生成するアンサンブル法を含む。オプションとして、XTTは、パーティションのうちの1つまたは複数に対して1つまたは複数の反復最適化ステップを実行するように構成され、1つまたは複数の反復最適化ステップは、適した集約、分割、または最適化法を使用してパーティションのマージングおよび分割を任意に含む。
オプションとして、XTTは、パーティションに関連付けられたモデル説明および情報を予測するように構成されるXTT-デコーダアーキテクチャを備え、、XTT-デコーダアーキテクチャは、次のモデル説明を予測するために、生成されたモデル説明を使用して事前訓練され、XTT-デコーダアーキテクチャは、モデル説明の差または変化を予測するため、次の説明勾配を予測するために説明勾配のセットに対して任意にさらに事前訓練され、XTT-デコーダアーキテクチャは、訓練中に類似および対比の両方の要素を考慮するために、入力および出力データの埋め込み表現に対して任意に事前訓練され、埋め込み表現は、任意に、疎な埋め込みである。
オプションとして、説明可能なトランスフォーマは、外部の説明可能なモデルからのパーティショニング情報を、説明可能なトランスフォーマのエンコーダコンポーネントの入力埋め込みに、そして任意に、説明可能なトランスフォーマのデコーダコンポーネントの出力埋め込みに付加することによって訓練される、または、説明可能なトランスフォーマは、エンコーダおよびデコーダコンポーネントに並列の2つのさらなるレイヤを含み、2つのさらなるレイヤは、説明可能なトランスフォーマの入力空間から説明可能なアーキテクチャを構築するように構成される、または、説明可能なトランスフォーマは、マルチ-ヘッド-アテンションコンポーネントまたは加算-および-正規化コンポーネントを備える並列の説明可能なエンコーダレイヤを備え、並列の説明可能なエンコーダレイヤは、マルチ-ヘッド-アテンションコンポーネントの出力または加算-および-正規化コンポーネントの出力、および、パーティショニングまたは説明可能な情報を入力として受信するように構成され、説明可能なトランスフォーマは、並列の説明可能なエンコーダレイヤの出力を入力として受信するように構成される並列の説明可能なデコーダレイヤを任意にさらに含み、並列の説明可能なエンコーダレイヤは、1つまたは複数のモデル説明、1つまたは複数のモデル説明の1つまたは複数の勾配、あるいは1つまたは複数のパーティションに関連付けられる情報を入力として受信するように任意に構成される説明可能なアーキテクチャを任意に含み、並列の説明可能なデコーダは、説明可能なアーキテクチャおよび加算-および-正規化コンポーネントを任意に含み、並列の説明可能なエンコーダレイヤは、並列の説明可能なエンコーダレイヤの出力を、デコーダコンポーネント内のマルチヘッドアテンションレイヤに送信するように任意に構成され、並列の説明可能なエンコーダレイヤは、出力をデコーダコンポーネント内のマルチヘッドアテンションレイヤに送信する前に、出力を説明可能なトランスフォーマのエンコーダコンポーネントの出力とマージするように任意に構成される。
オプションとして、説明可能なトランスフォーマのデコーダコンポーネントは、フィードバックループの一部として、XTTの出力を入力として受信するように構成される。オプションとして、説明可能なトランスフォーマのエンコーダおよび/またはデコーダコンポーネントは、説明可能なオート-エンコーダ-デコーダ、XAEDとして動作するように構成される。オプションとして、XTTは、訓練用データセットの1つまたは複数の特徴量変換を備え、1つまたは複数の特徴量変換は、
多項式展開、回転変換、次元尺度法、無次元尺度法、フーリエ変換、ウォルシュ関数、状態空間変換、位相空間変換、ハールウエーブレット、非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1ファジーロジックグラフネットワーク、タイプ2ファジーロジックグラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ空間、フレシェ空間、ハウスドルフ空間、またはチコノフ空間のトポロジカル変換、相違分析、データの正規化、データの標準化のうちの1つまたは複数を任意に含み、1つまたは複数の特徴量変換は、変換のパイプラインとして任意に配置され、パイプラインは、1つまたは複数の変数の値に従って順序付けられるデータのシーケンスを分析するように構成される変換であって、データのシーケンスは時間的に順序付けられたデータシーケンスを任意に含む、変換、および/または、勾配降下法および他の説明可能なアーキテクチャによって取得される変換をさらに任意に含む。オプションとして、XTTは、因果GANベース生成、遺伝的エンジニアリング、モンテカルロシミュレーション、ペトリネット、強化学習技法、ホワイトボックスモデルおよび関連するグローバルモデルを使用するシミュレーション、および/または利用可能であるとすることができる任意の他の方法の中からの1つまたは複数の技法を使用して生成されるXTTを訓練するために訓練用データセットサンプルを受信するように構成される。オプションとして、XTTは、人間知識インジェクション、HKI、またはシステム知識インジェクションを入力として受信するようにさらに構成され、XTT内の説明可能なアーキテクチャの係数は、人間ユーザと機械学習システムとの間でより効果的な協働をもたらすため特定のルールを施行するために修正可能であり、XTTは、ゼロショット学習または少数ショット学習のためにHKIまたはシステム知識インジェクションを使用するように任意にさらに構成される。オプションとして、XTTは、XTTの適応力を高めるために帰納的、演繹的、仮説的、因果的ロジックのうちの1つまたは複数を実施するように構成され、XTTは、モデルなし最適化法およびモデルベース最適化法の組み合わせを利用するように任意にさらに構成される。オプションとして、XTTは、XTTの出力からの説明不能な潜在的空間の完全な除去を、XTTの上記1つまたは複数の入力特徴量が説明可能である程度まで可能にするように構成される。オプションとして、XTTは、XTTの出力に対して、フーリエ変換、整数変換、実数変換、複素数変換、クォータニオン変換、オクトニオン変換、ウォルシュ関数、状態空間変換、位相空間変換、ハールウエーブレット、非ハールウエーブレット、一般化L’’関数、フラクタルベース変換、アダマール変換、ファジーロジックグラフネットワーク、カテゴリカルエンコーディング、相違分析、正規化、標準化、多次元ベジェ曲線、再帰関係、および因果作用素のうちの1つまたは複数を適用するように構成される、または、XTTは、XTTの出力に対して、活性化関数または変換関数を適用するように構成され、活性化関数または変換関数は、シグモイド関数、SoftMax関数、階層木またはネットワーク、因果ダイヤグラム、有向グラフ、無向グラフ、ハイパーグラフ、単体的複体、マルチメディア構造、またはハイパーリンクされたグラフのセットのうちの1つまたは複数を含む。オプションとして、XTTは、構造化データと非構造化データの両方を処理し、階層的に構造化されたデータを処理するように構成され、階層的に構造化されたデータは、木、グラフ、ハイパーグラフ、および/または単体的複体の形態で任意に構築される。オプションとして、XTTは、XTTの入力レイヤによって受信される前に、または、入力レイヤから出力された後に、複数の入力を正規化するように構成される正規化モジュールと、入力レイヤによって受信される前に、または、入力レイヤから出力された後に、入力をスケーリングするように構成されるスケーリングモジュールと、入力レイヤによって受信される前に、または、入力レイヤから出力された後に、入力を標準化するように構成される標準化モジュールとをさらに備える。オプションとして、入力の正規化は、バイアスおよびバイアスのソースの適切なレポートおよび分析を作成すること、および、教師あり手段、教師なし手段、または半教師あり手段によって、バイアス低減、軽減、または排除のための方策を策定することを含む。オプションとして、XTTは、分散型の説明可能なアーキテクチャ、DEAにわたって分配され、DEAは、説明可能なアーキテクチャの同質または異質な混合物からなり、DEAは、DEA内の説明可能なアーキテクチャのそれぞれを訓練するために、データセットをデータの複数のサブセットに分割するように構成され、DEAの各説明可能なアーキテクチャは、一括操作技法を任意に含む、DEA内の同質なおよび異質な説明可能なモデルミックスに適用される分散型訓練技法を使用して訓練可能である。オプションとして、DEAは、DEA内のモデルが、説明可能な人工知能(XAI)、解釈可能なニューラルネット(INN)、説明可能なニューラルネット(XNN)、説明可能なスパイキングネット(XSN)および説明可能なメモリネット(XMN)、および/または説明可能な強化学習(XRL)のミックスであるようなハイブリッドモデル、複数の独立モデルであって、所与の独立モデルは、訓練されると、DEAに依存することなく独立に働くように構成可能であり、DEAは訓練のために最適化される、複数の独立モデルの一方または両方を含むことができる。オプションとして、XTTは、説明および解釈生成システム、EIGS内で使用可能であり、入力クエリを処理し、入力クエリに関する適切な回答、説明、およびオプションの正当化理由を生成するためのモデルを提供するように構成され、XTTは、EIGSの1つまたは複数の部分を変換するように任意に構成され、EIGSの1つまたは複数の部分を変換することは、提示出力を変換すること、ユーザ固有出力個人化、コンテキスト固有出力変換、目標固有出力変換、計画固有出力変換、およびアクション固有変換のうちの1つまたは複数を含み、XTTは、説明スカフォールドの適切なフィルタリングをフィルタが生成するための適したモデルを提供するために、または、解釈フレーミング、プロトコルコンテキスト、解釈ルール、解釈手順、解釈シナリオ、および競合解決情報の組み合わせを利用してEIGSの1つまたは複数の部分をフィルタリングするために、または、EIGS内でフィルタ内および/またはフィルタ間合意プロセスを実施するために、または、解釈者が適切な解釈を生成し、解釈スカフォールドの要素を生成するための適したモデルを提供するために、または、EIGS内で解釈スカフォールドの適切な部分を変換するために、または、フレーミング、プロトコル、解釈ルール、解釈手順、解釈テンプレート、解釈要約、シナリオモデル、ドメイン、対話型コンテキスト、および競合解決情報の組み合わせに基づいてEIGSの解釈出力を変換するために、または、EIGS内で解釈者内および/または解釈者間合意プロセスを実施するために、または、適切な選択モデルおよび選択プロセスに基づいてEIGS解釈出力を変換するためにEIGS内で任意に使用可能である。オプションとして、XTTは、複数レベルの説明であって、パーティショニング情報、XTTの内部係数、およびXTTの入力空間の特徴量寄与度を任意に含む、複数レベルの説明を生成するように構成される説明可能なセルフ-アテンションメカニズムを備え、説明は解釈者に対する出力として使用可能である。オプションとして、XTTは、自己教師あり技法を使用して訓練可能である。オプションとして、XTTは、単一ベクトルにマージするために、全てのデコーダまたはエンコーダコンポーネントから、過去に学習した表現または履歴状態を使用するように構成され、ベクトルはXTT内の任意のレイヤに対するフィードバックとして使用可能であり、XTTは、単一ベクトルにマージするために、ホワイトボックスモデルの任意の内部係数を使用するように任意にさらに構成され、XTTは、因果的にありそうにない推論を作成することまたは統計的に有効であるが因果的にありそうにないとすることができる予測経路を作成することを回避するために、過去に学習した表現に対して因果的制約を課すように任意にさらに構成され、XTTは、説明可能で因果的にかつ環境的にありそうにないフィードバックメモリを達成するため、過去に学習した表現に対して環境的にありそうにないさらなる制約を課すために、挙動モデルならびに関連する条件、イベント、トリガー、およびアクション状態表現を利用するように任意にさらに構成される。
オプションとして、システムは、適した形式言語で書かれた既存の形式コンピュータプログラムを分析し構文解析し、ロードされると、XTTアテンションモデルを使用してそれをさらに改良するように構成され、なお、XTTの説明可能なモデル内の階層的パーティション構造は、形式言語プログラムの構造を直接モデル化するために任意に使用可能であり、または、予め規定されたスタイリスティックスタンダードに従ってコードを変換し、矛盾または誤りを強調し、コードのよりよい代替物ならびにリファクタリングおよびリライトを提案し、難読化されたコードを難読化解除し、そして、α変換、β簡約(beta-reduction)、およびη簡約等の機能的プログラミング言語概念を、生成されたコードに適用するように構成され、または、証明済みステートメントおよび/または不完全ステートメントのスクラッチからまたはそれらの既存の集合体によって、数学的表現、ステートメント、および証拠を自動的に分析、生成、およびオートコンプリートするために、適した数学的形式言語システムと共に自動定理証明システムと併せて使用されるように構成され、または、XTTによって適用される入力-出力変換の間の基礎の仮定の説明を提供しながら、DNA遺伝子発現、タンパク質フォールディング(protein folding)、および他の関連する生物化学的アプリケーション(biochemical application)における規制的変化(regulatory change)を説明するために、タンパク質または他の適した分子形状と併せてDNAコードを分析するように構成され、または、任意に、スピーチオーディオ波形を対応するテキストに翻訳するために、エンド-ツー-エンド自動スピーチ認識アーキテクチャにおいて使用されるように構成され、または、スピーチを処理するため、エンド-ツー-エンド深層学習アーキテクチャにおいて使用されるように構成され、なお、機械学習システムは、スピーチを潜在的離散的表現に変換するように構成されるXAEDエンコーダを任意にさらに備え、または、複数オブジェクト追跡のために使用されるように構成され、または、デジタル表面モデルまたは深度マップ生成のために、衛星の、空中の、または他のタイプの鳥観図画像を照合するように構成され、または、単眼、複眼、およびマルチビュー入力データのイメージャリを処理するように構成され、または、オーディオがビデオ内に存在するか否かを予測するオーディオ-ビジュアル分類タスクのために使用されるように構成され、または、合成的に生成された多次元データの生成および検出であって、真正(authentic)画像からディープフェイク画像を検出し分類すること、または、機械学習システムを混乱させるためにデータに付加された敵対的攻撃情報(adversarial attack information)の存在を検出することのうちの一方または両方を含み、XTTは説明可能なモデルを備える、多次元データの生成および検出のために使用されるように構成され、または、実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、または、実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、なお、機械学習システムはカメラ処理システム内に実施され、または、実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、なお、機械学習システムは、手術または医療画像の分析内で使用するための医療ハードウェア内に実施され、または、実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、なお、機械学習システムは、機器検査プロセスおよび製造検査プロセスにおいて使用するためのエンジニアリングアプリケーション内に実施され、または、人間可読および解釈可能フォーマットでデータを送信する医療インプラント内に実施されるように構成され、または、生体ニューロンからの入力信号を受信し、適切にエンコードされたフォーマットで生体ニューロンに信号を出力するように構成され、なお、XTTは、損傷した生体神経系接続を架橋するためのまたは高度人工装具デバイスにおいて人工デバイスの埋め込みおよび接続を補助するための現実的解決策を提供するために、2つ以上の生体ニューロンを架橋する医療埋め込み式デバイスの一部として実施され、または、異なるモダリティの関連するシーケンス順序付けおよび環境世界コンテキストに従って、適切に合成されるマルチモーダル混合出力を生成するために、XTTの一部としてXGAILシステムのシミュレータおよびデータサンプル合成を実施するように構成され、または、生成されたデータサンプルを適切に修正するために使用され得る種々の学習済みスタイルを使用して、新規なデータサンプル、イメージャリ、デジタルおよびアナログ混合メディアペインティング、および3Dスカルプチャを作成するように構成され、なお、機械学習システムは、生成されたデータに、セキュア追跡可能デジタルコード、分散型台帳エントリまたは非代替性トークンをタグ付けするように任意にさらに構成され、または、形式ミュージックノーテーションおよび合成、サウンドサンプル混合、テキスト-ツー-スピーチ生成、および一般的オーディオサンプル生成の組み合わせを使用してミュージックを生成するように構成され、なお、
機械学習システムは、異なるモダリティにおいて入力を分析するために、マルチモーダルXTTを実施するように任意にさらに構成され、または、ビデオフレームに関するアノテーションを予測するように構成され、なお、XTTは、エンド-ツー-エンド深層学習アーキテクチャにおけるXTTエンコーダとして実施され、または、オントロジーにおいて前もって規定される代わりに、対話の状態を追跡し、観測されないスロットを学習するように構成され、または、入力シーケンス内でエンティティを識別するように構成され、または、入力質問についての回答の開始位置および終了位置を識別するように構成され、または、テキストにおけるエンティティのメンションを、知識ベース内の対応するエンティティにリンクさせるように構成され、または、直前の出力に基づいて出力を予測するように構成され、または、ワークフローシステム内に組み込まれるように、そして任意にさらに、ロボットプロセス自動化システム、意思決定支援システム、または、データレイクシステム内に統合されるように構成され、または、因果的説明を使用するように構成され、なお、因果的説明は、反事実的言語表現アーキテクチャを使用し、または、原因-および-結果を扱う、関連付け、介入、および反事実的因果的ロジックを扱う、環境モデル入力による妥当性チェックを実施する、因果的にありそうな同型化によって訓練用データを拡張するために、因果モデル固有の機能を実施するように構成され、または、自然言語文書からドラフト因果モデルを自動的に作成するように構成され、なお、XTTは因果的XTTシステムを規定し、または、制約および予測的ロジック実施の基礎として計算および知識表現構造を使用するように構成され、なお、計算および知識表現構造は、リソース記述フレームワーク、RDF、木、RDFグラフ、レビグラフ、ハイパーグラフ構造、または単体的複体を任意に含み、または、監査ログ機能を実施するように構成され、なお、監査ログ機能を実施することは、XTTのフロー、相互作用、および挙動、ならびに、XTTの関連する条件、イベント、トリガー、およびアクション、ならびに全体ダイナミクスを示す意思決定ログおよび経路トレースを作成することを含み、経路トレースは、トリガーされ実行されたルールの注釈付きシーケンスとして、エキスパートシステムおよびルールベースシステムに任意に実施され、または、経路トレースは、ワークフローエンジンによって実行されたワークフローノードおよび経路の注釈付きシーケンスとしてワークフローシステムに任意に実施され、経路トレースは、XTTの正確なシーケンスおよび挙動を示すために使用可能であり、システムのユーザにとっての関心経路に沿って、最近傍を表示するように任意に構成され、XTTは、XTT自身の監査システムログを利用し、上記ログを耐タンパー性がありかつ追跡可能な方法で格納するように任意にさらに構成され、または、アクションの時間ロジック、抽象機械ノーテーション、ペトリネット、計算木ロジック、または、実施法であって、モーダルロジック、直感主義的ロジック、および/または関係意味論を形式的に示すことができる、実施法のうちの1つまたは複数に基づくシステムの組み合わせ上に実施され、組み合わせによって検証されるように構成され、または、アンカー条項を利用するように構成され、なお、アンカー条項は、極めて重要である、ノード、エッジ、イベント、トリガー、制約、またはアクションを規定し、または、性能を高めるために量子化法を適用するように構成され、なお、システムは、XTTの正確さに対する量子化の任意の悪影響を部分的に打ち消し、訓練中の不安定性を低減するために、不安定性低減技法を適用するように任意にさらに構成され、または、データプライバシー保護解決策の実用的な実施を可能にするように構成され、または、もし…ならば(what-if)、もし…でないならば(what-if-not)、反事実的、を除いて(but-for)、および条件付きシナリオに基づく、生成された構造化説明を、そのようなシナリオをXTTシステム入力に適用することの結果に対応する説明付き方策およびシナリオベース説明を生成するために利用するように構成され、または、アクションの総コストを推定するために外因性および内因性変数ならびに因果モデルを使用するように構成され、なお、総コストを推定することは、任意の特定の関連付け、介入、または反事実的ルールを適用することを任意に含み、また、部分的に抜けている値を有するデータについて総コストを推定することを任意に含み、システムは、アプリケーションの実際の例であって、アプリケーションの所望のシナリオ結果または仮定的平均を有した、アプリケーションの実際の例を提供するために最近傍法を利用するように任意にさらに構成され、または、予測および/または訓練性能を高めるために、ドット積の近似または完全排除、疎なローカルアテンションモデル、適応的アテンションウィンドウ、多次元アテンション行列近似、インテリジェント重み共有、およびインテリジェントパラメータ化のうちの1つまたは複数を利用するように構成され、または、歩行分析、運動予測、および感情状態予測を含む人間挙動を分析するように構成され、または、スポーツ映像(sports footage)および運動能力(athletic performance)を予測し分析するように構成され、または、病状を検出し予測するように構成され、または、金融株トレーディングパターンを分析し、市場挙動を予測し、買い(buying)、売り(selling)、または、特定の株にショートまたはロングポジションを置くこと等の自動化アクションを、その後、実行するように構成され、または、インダストリ4.0アプリケーション(Industry 4.0 application)内で動作するように構成され、または、センテンスをソース言語からターゲット言語に翻訳するように構成され、または、提示指向型変換および説明および/または解釈出力の強化を実施するように構成され、または、法律文書を処理し、法律文書に関係し法律文書における参考文献である、異なる機関およびエンティティに適用可能な参考文献およびテキストセクションを正しく決定するように構成され、または、対話処理、チャットボット、コールセンター管理システム、事例管理システム、顧客サポートシステム、クライアント関係管理システム、会話システム、ならびに質問および回答システム等のアプリケーションにおいて一般に使用される対話型説明および/または解釈プロセスのフローを制御するように構成され、または、フィードバック制御タイプのメカニズムを必要とする強化学習タイプのアプリケーションにおいて使用されるように構成される。
オプションとして、システムは、柔軟アーキテクチャであって、FPGAを任意に備える、柔軟アーキテクチャ、または、静的アーキテクチャであって、ASICを任意に備える、静的アーキテクチャ、または、ディスクリートコンポーネント、または、スピントロニクスまたはメモリスタ、または、スパイキングニューロンを任意に使用するニューロモーフィックアーキテクチャ、または、量子コンピューティングハードウェアを使用するハードウェア回路として実施され、量子コンピューティングハードウェアは、拡張であって、複数の量子ビット状態、量子ビット基底状態、混合状態、アンシラビット、および、エンタングルメントおよび/またはデコヒーレンスによる他の量子効果の正しい解釈を可能にするように構成され、または、量子ロジックゲートを任意に含む、XNN内への量子ロジック固有演算子および/またはハードウェアロジックゲートの導入を可能にするように構成され、または、量子効果を利用することによって、複数のアクションを実行する、または、複数の条件を評価する、または、制約の大きなシステムを評価するように構成され、なお、量子コンピューティングハードウェアは、量子アルゴリズムを利用するまたはハイブリッド解決策を利用するように任意に構成され、または、複数のモダリティおよび/またはタスクについてヒルベルト空間を規定するように構成され、なお、マルチモーダルまたはマルチタスクヒルベルト空間は、タスクとモダリティとの間の全ての相互作用を表すために使用され得、クロスオーバー学習の量子バージョンと共にモダリティおよび/またはタスクのサブセットについての両方の訓練を実施するために使用され得る、拡張を任意に備える。オプションとして、XTTは、ニューロシンボリック制約を、XTTに関連付けられる現在および/または過去の履歴状態の一部または全てに、および/または、XTTに関連付けられる活性化の過去の履歴レートにリンクさせるように構成される。オプションとして、名前付き参照ラベルは、説明可能なアーキテクチャ内の特定のコンポーネントに割り当てられ、名前付き参照ラベルは、メタデータを任意に含み、任意に、シンボリック表現および/または定型表現からなることができ、名前付き参照ラベルは、安全関連制約内で任意に使用可能であり、機械学習システムは、システム内で起こるダイナミクスの安定した長期説明を生成するために名前付き参照ラベルの不変性を利用するように任意に構成される。オプションとして、機械学習システムは、アイデンティティアセス推奨フレームワークによって少なくとも部分的に規定される。オプションとして、機械学習システムは自動XAIシステムをさらに備え、システムは、シナリオベース説明を生成するように構成される。オプションとして、同じパラメータを共有する複数のタスクおよび複数のモダリティを処理するために、XTTは、説明可能なモデルを利用し、1つまたは複数の入力特徴量に関連付けられる1つまたは複数のタスクに対応する複数の入力を受信し、タスクのための出力に対応する複数の出力を生成するように構成され、説明可能なモデルは、異なるタスクについて学習された異なる知識間のクロスオーバーが効率的に起こることを可能にするように構成される、複数のクロスオーバーサブシステムから任意になる階層的クロスオーバー構造によって任意に規定され、階層的クロスオーバー構造は、1つまたは複数の一方向リンクノードおよび/または1つまたは複数の2方向リンクノード、そして任意に、クロスオーバーノイズノードおよび/またはクロスオーバーノード間リンクを備え、説明可能なモデルは、任意に、疎な説明可能なモデルまたはDEAである。オプションとして、システムは、畳み込みニューラルネットワーク、CNNであって、CNN-XTTアーキテクチャを規定するためにXTTの入力に結合された、畳み込みニューラルネットワーク、CNNをさらに備え、CNN-XTTは、クエリについてCNN-XTT内で活性化経路を可視化するためにバックマップを使用するように、そして任意に、正当化理由の一部としてバックマップを組み込むように構成され、CNN-XTTは、カーネルラベリング法を、本来テキスチュアルでないデータフォーマットを有する関連する人間可読ラベルに統合するように任意に構成され、カーネルラベリング法に関連付けられるカーネルタイプは、任意に、近似カーネルであり、CNNは、任意に、時間的に最適化されたCNNである。オプションとして、システムは、フォーマットまたはレイアウトであって、人間可読自然言語、グラフィカルまたはビジュアルフォーマット、オーディオ、スピーチ、触覚、ビデオ、時系列、マルチスペクトルデータ、階層的に順序付けられたマルチメディアコンテンツ、および3Dデータのうちの1つまたは複数である、フォーマットまたはレイアウトでデータを出力するように構成され、出力データは、任意に、シーケンシャルフォーマットまたはレイアウトであって、2Dデータ、3Dデータ、多次元データアレイ、トランザクションデータ、時系列、デジタル化済みサンプル、センサデータ、画像データ、ハイパースペクトルデータ、自然言語テキスト、ビデオデータ、オーディオデータ、触覚データ、LIDARデータ、RADARデータ、およびSONARデータのうちの1つまたは複数である、シーケンシャルフォーマットまたはレイアウトである。オプションとして、説明可能なトランスデューサ・トランスフォーマは、同じパラメータのセットを使用して複数のタスクまたはモダリティを実行するように構成され、複数の入力は、1つまたは複数の入力特徴量に関連付けられる1つまたは複数のタスクおよび各タスクに対応する複数の出力に対応し、説明可能なトランスデューサ・トランスフォーマは、階層的パーテョション構造および異なるタスクのために学習した知識をクロスオーバーするように構成されるクロスオーバー構造サブシステムをさらに備え、予測ネットワークは、階層的パーテョション構造内で1つまたは複数の特徴量相互作用を識別するように構成され、条件付きネットワークは、タスクを関連する入力および出力とリンクさせるために、階層的パーテョション構造を通して経路トレースを選択、調整、および多重化するように構成され、疎な説明可能なモデルは、条件付きネットワークおよび予測ネットワークの少なくとも一方内で実施され、クロスオーバー構造サブシステムは、一方向リンクモード、2方向リンクモード、クロスオーバーノイズノード、およびクロスオーバーノード間リンクの少なくとも1つを実施する。オプションとして、畳み込みレイヤは、1つまたは複数の畳み込みレイヤを適用するように構成され、説明を生成するためのバックマップまたはリバースインデキシングメカニズム、および、カーネル、パターン、シンボル、および概念の漸進的改良を使用して、人間可読ラベルを非テキストデータに関連付けるように構成されるカーネルラベリング法を実施するように構成され、線形関数、非線形多項式関数、指数関数、放射基底関数、またはシグモイドカーネルの少なくとも1つを含む1つまたは複数のカーネルタイプは、直交法、特異値分解、ランダムフーリエ変換、またはランダムビニング特徴量の少なくとも1つを使用して、必要とされる計算および/またはリソースの量を低減するために実施され、1つまたは複数の時間的畳み込みネットワークをさらに備える。オプションとして、説明は、説明可能なエージェントのアクションおよび意思決定に従って、説明付き方策およびシナリオベース説明を生成するために、1つまたは複数のもし…ならば(what-if)、もし…でないならば(what-if-not)、反事実的、を除いて(but-for)、または条件付きシナリオに関連付けられたシナリオベース説明を含む、および/または、説明可能なエージェントは、決定結果の変化をもたらし、アクションの総コストを最小にする特定のコンテキストを有する、所与のユーザについての提案されたアクションを学習するために訓練され、総コストは、コストの各タイプについてのメトリックに基づく各変数に関連付けられた1つまたは複数のコストの結集である、および/または、シナリオベース説明は、最近傍法、識別-アセス-推奨-解決(IAR)フレームワーク、多数目的最適化(MOO)、パレートフロント法(Pareto Front Method)、粒子群最適化(PSO)、遺伝的アルゴリズム(GA)、ベイズ最適化、進化戦略、勾配降下技法、およびモンテカルロシミュレーション(MCS)の使用に関連する。オプションとして、エンコーダレイヤは、マルチヘッドアテンションコンポーネントの出力、加算-および-正規化コンポーネントの出力、および、入力の説明可能な情報またはパーティショニング情報の少なくとも1つを受信するように構成される並列の説明可能なエンコーダレイヤであり、デコーダレイヤは、並列の説明可能なデコーダレイヤからの出力を受信するように構成される並列の説明可能なデコーダレイヤであり、加算-および-正規化コンポーネントおよびマルチヘッドアテンションコンポーネントを備え、並列の説明可能なエンコーダレイヤの出力は、並列の説明可能なデコーダレイヤの出力とマージされる。オプションとして、現在の説明と過去に提示された説明との間の差および/または変化は、説明における後続の変化を予測するために、説明可能なトランスデューサ・トランスフォーマへの入力として使用され、デコーダは、
現在説明および履歴的説明勾配を含むコンテキストウィンドウを考慮して次の勾配を予測するために、説明勾配のセットに対して訓練され、入力および/または出力の疎な埋め込み式表現は、1つまたは複数の類似度および対比要素を識別する。オプションとして、1つまたは複数の説明、説明の勾配、または説明可能なアーキテクチャのパーティショニング情報は、エンコーダレイヤへの入力として使用され、説明可能なオートエンコーダ-デコーダは、エンコーダレイヤおよびデコーダレイヤを備え、出力は、説明可能なトランスデューサ・トランスフォーマの1つまたは複数のレイヤへの訓練用入力として使用されるように構成される1つまたは複数の訓練用データセットサンプルを含む。オプションとして、説明可能なトランスデューサ・トランスフォーマ内の1つまたは複数の説明可能なアーキテクチャの係数は、ゼロショット学習または少数ショット学習を使用する人間知識インジェクションによって修正され、説明可能なトランスデューサ・トランスフォーマの1つまたは複数のレイヤは、帰納的ロジック、演繹的ロジック、仮説的ロジック、および因果的ロジックの少なくとも1つを実施し、説明可能なトランスデューサ・トランスフォーマは、1つまたは複数の説明不能な潜在的空間を除去するように構成される。オプションとして、出力は、フーリエ変換、整数変換、実数変換、複素数変換、クォータニオン変換、オクトニオン変換、ウォルシュ関数、状態空間変換、位相空間変換、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、相違分析、正規化、標準化、多次元ベジェ曲線、再帰関係、および因果作用素のうちの1つまたは複数をさらに適用する。オプションとして、システムは、少なくとも1つの活性化関数および/または変換関数をさらに含み、変換関数は、階層的木、因果的ダイヤグラム、有向または無向グラフ、ハイパーグラフ、または単体的複体、マルチメディア構造およびハイパーリンクされたグラフのセットの少なくとも1つを使用して出力を変換するように構成される。オプションとして、各パーティションは、線形モデルをフィットさせ、多項式展開、回転、次元および無次元尺度法、状態空間および位相空間変換、整数/実数/複素数/クォータニオン/オクトニオン変換、フーリエ変換、ウォルシュ関数、連続データバケット化、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、知識グラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ/フレシェ/ハウスドルフ/チコノフ空間のトポロジカル変換、相違分析、およびデータの正規化/標準化の少なくとも1つを含む非線形変換を適用するように構成される。オプションとして、各パーティションは、ルールまたは距離類似度関数に従って、複数のデータポントをグループ化するように構成されるクラスタを含み、各パーティションはデータの概念またはカテゴリを示す。オプションとして、パーティションは、k-means、ベイズ、接続性ベース、重心ベース、分布ベース、グリッドベース、密度ベース、ファジーロジックベース、エントロピー、または相互情報(MI:mutual information)ベース方法のうちの1つまたは複数を含むクラスタリングアルゴリズムに基づいて形成され、クラスタリングアルゴリズムは、複数のオーバーラップするまたはオーバーラップしないパーティション、関連付けベースアルゴリズム、または因果関係ベースパーティショニング関数をもたらすアンサンブル法をさらに含む。オプションとして、入力は、構造化データおよび非構造化データ、あるいは、1つまたは複数の木、グラフ、ハイパーグラフ、および単体的複体を含む階層的に構造化されたデータを含み、説明可能なトランスデューサ・トランスフォーマは、リソース記述フレームワーク(RDF:resource description framework)木、RDFグラフ、またはレビグラフの少なくとも1つを含む知識表現構造をさらに含み、監査ログは、1つまたは複数の意思決定ログおよび経路トレースを識別するように構成される。オプションとして、説明可能なトランスデューサ・トランスフォーマは、原因-および-結果、関連付け、介入、および反事実的因果的ロジックを識別するように構成され、環境モデル入力を使用して妥当性チェックを実施するようにさらに構成され、因果的にありそうな同型化を使用して訓練用データを拡張するように構成される少なくとも1つの因果モデルをさらに実施し、少なくとも1つの因果モデルは、アテンションモデルを使用して自動的に生成され、一般化ターゲットに対する先行一般化と後続一般化との間の因果リンクを識別し、因果構造を抽出し、初期因果モデルを作成するように構成され、履歴的な活性化のレートであって、活性化のレートは制約され得る、履歴的な活性化のレートを識別する1つまたは複数のニューロシンボリック制約をさらに含み、説明可能なモデル内の1つまたは複数のコンポーネントまたはレイヤに割り当てられた、名前付き参照ラベルをさらに含み、名前付き各参照ラベルは、少なくとも1つの記述またはメタデータを含み、外部タクソノミー、オントロジー、および安全関連制約を提供するモデルにリンクする。オプションとして、説明可能なトランスデューサ・トランスフォーマは、入力レイヤ前にまたは入力レイヤ後に、入力を正規化するように構成される正規化モジュールと、入力レイヤ前にまたは入力レイヤ後に、入力をスケーリングするように構成されるスケーリングモジュールと、入力レイヤ前にまたは入力レイヤ後に、入力を標準化するように構成される標準化モジュールとを備える1つまたは複数の入力モジュールおよび出力モジュールをさらに備える。オプションとして、説明可能なトランスデューサ・トランスフォーマは、1つまたは複数の説明可能なレイヤまたはモデルを含む分散型の説明可能なアーキテクチャ上に実施され、1つまたは複数の独立モデルは、1つまたは複数の説明可能なレイヤまたはモデルから独立して活性化するように構成される。オプションとして、説明可能なトランスデューサ・トランスフォーマは、自己教師あり技法を使用して訓練され、アクションの時間ロジック、抽象機械ノーテーション、ペトリネット、計算木ロジック、直感主義的ロジック、および/または関係意味論のうちの1つまたは複数を使用して検証されるように構成される。オプションとして、説明可能なトランスデューサ・トランスフォーマは、既存の形式コンピュータプログラムを分析し構文解析するように構成され、コンピュータプログラムは、1つまたは複数の説明可能なモデル内の階層的パーティション構造でモデル化され、形式仕様言語は、コンピュータプログラムを使用して解決される問題を指定するために使用され、説明可能なトランスデューサ・トランスフォーマは、解決される問題について候補コード解決策を生成するように構成される、または、説明可能なトランスデューサ・トランスフォーマは、予め規定されたスタイリスティックスタンダードに従ってコードを変換し、矛盾または誤りを強調し、コードの代替物およびリファクタリングまたはリライトを提案し、難読化されたコードを難読化解除し、そして、α変換、β簡約、およびη簡約の1つまたは複数を、生成されたコードに適用するように構成される、または、説明可能なトランスデューサ・トランスフォーマは、証明済みステートメントおよび/または不完全ステートメントの既存の集合体を使用して、数学的表現、ステートメント、および証拠を自動的に分析、生成、およびオートコンプリートするために、自動定理証明システムと共に併せて実施される、または、説明可能なトランスデューサ・トランスフォーマは、スピーチオーディオ波形を対応するテキストにまたは潜在的離散的表現に翻訳するために、エンド-ツー-エンド自動スピーチ認識アーキテクチャをさらに備える、または、説明可能なトランスデューサ・トランスフォーマは、複数オブジェクト追跡のための、または、デジタル表面モデルまたは深度マップ生成のために、衛星の、空中の、または鳥観図画像を照合するための、または、単眼、複眼、およびマルチビュー入力データのイメージャリを処理するための、または、オーディオクリップがビデオ内に存在するか否かを予測するオーディオ可視化分類タスクのためのシステムをさらに備える。オプションとして、少なくとも1つのレイヤは、柔軟アーキテクチャまたはフィールドプログラマブルゲートアレイ、静的アーキテクチャまたは特定用途向け集積回路、アナログまたはデジタル電子部品、光電子部品、光プロセッサ、ニューロモーフィックアーキテクチャ、スピントロニクスまたはメモリスタ、ディスクリートコンピューティングコンポーネント、スパイキングニューロン、ロボットハードウェア、自立車両、産業用制御ハードウェア、または量子コンピューティングハードウェアの少なくとも1つを備えるハードウェア上で実施され、ハードウェア上での少なくとも1つのレイヤの実施は、ハードウェア上での量子またはハードウェア指向型圧縮技法の適用の少なくとも一方に基づき、少なくとも1つのレイヤは疎な説明可能なニューラルネットワークアーキテクチャを備え、説明可能なモデルは、1つまたは複数のワークフロー、プロセスフロー、高速重み、ロボットプロセス自動化(RPA)、意思決定支援システム(DSS)、データレイク、
根本原因分析(RCA:Root Cause Analysis)、目標-計画-アクション(GPA:Goal-Plan-Action)システム、プロセス記述、状態遷移チャート、ペトリネットワーク、電子回路、ロジックゲート、光回路、デジタル-アナログハイブリッド回路、生体力学インタフェース、生体電気インタフェース、および量子回路を実施する。オプションとして、説明可能なトランスデューサ・トランスフォーマは、説明可能なモデルを備える説明構造モデル(ESM)、複数の統計的関係をモデル化する統計的構造モデル、構造的因果モデル(CSM:causal structural model)であって、複数の因果関係をモデル化する、構造的因果モデル、および、シンボリック構造モデルであって、1つまたは複数のルールおよび/またはシンボリックロジックとして形成された複数のシンボリックおよび論理関係をモデル化する、シンボリック構造モデルを形成するように構成される少なくとも1つの説明可能なモデルをさらに備え、なお、1つまたは複数の統計的、因果的、シンボリック、または論理関係は、アンカーコンポーネントとしてモデル化され、説明出力テンプレート(EOT:explanation output template)を出力するように構成される説明解釈生成システム(EIGS:explanation interpretation generation system)および/または説明フィルタ解釈、ならびに、パーティショニング情報、1つまたは複数の説明可能なモデルの内部係数、および入力空間の特徴量寄与度の少なくとも1つを含む、複数レベルの説明を生成するように構成される説明可能なセルフ-アテンションメカニズムを実施することをさらに備え、説明は解釈者に対する入力として使用される。オプションとして、説明は、説明可能なモデルに関してトリガー活性化のレートを制約するために、基本的解釈、説明的解釈、およびメタ説明的解釈、ならびに活性化のレートを有するニューロシンボリック条件付き制約の少なくとも1つをさらに含み、ニューロシンボリック条件付き制約は、シンボリックルールまたはシンボリック表現のシステム、多項式表現、条件付きおよび条件なし確率分布、結合確率分布、状態空間および位相空間変換、整数/実数/複素数/クォータニオン/オクトニオン変換、フーリエ変換、ウォルシュ関数、ハールおよび非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1およびタイプ2ファジーロジック、相違分析、および知識グラフネットワークの少なくとも1つとして実施される。オプションとして、説明可能なトランスデューサ・トランスフォーマは、説明スカフォールドを使用して説明を生成するためにモデル出力を受信するように構成される説明コンポーネントをさらに備え、説明スカフォールドは、説明モデルコンポーネントであって、回答、モデル説明を示すモデル出力を含む、説明モデルコンポーネントと、モデル融合およびリンクコンポーネントであって、1つまたは複数のシステムとデータベースとの間の1つまたは複数のリンクに関連付けられたメタデータおよび情報を格納するように構成される、モデル融合およびリンクコンポーネントと、仮説的および因果的コンポーネントであって、1つまたは複数の構造方程式モデル、構造因果モデル、および/または因果的有向非循環グラフ(causal directed acyclic graph)を形成することによって少なくとも原因-および-結果関係をモデル化するように構成される、仮定および因果コンポーネント、ならびに、シナリオ、相互作用、および提示コンポーネントを備える。オプションとして、出力は、回答、モデル説明、ならびに回答および/またはモデル説明の正当化理由を含み、正当化理由は、回答またはモデル説明に到達するときに説明可能なニューラルネットワークによって使用される、少なくとも1つの仮定、プロセス、または意思決定を示す。オプションとして、出力は、人間可読自然言語フォーマット、グラフィカルまたはビジュアルフォーマット、オーディオ、スピーチ、触覚、ビデオ、時系列、マルチスペクトルデータ、階層的に順序付けられたマルチメディアコンテンツ、および3Dデータの少なくとも1つを含み、説明可能なトランスデューサ・トランスフォーマは、シーケンシャルフォーマット、ならびに、出力値または分類またはデータポイントあるいはデータポイントの連続または非連続間隔を示す1つまたは複数の関連するラベルを含むシーケンスデータを処理するように構成され、入力シーケンスは、マルチモデルおよびマルチタスク方法で出力シーケンスにマッピングされる。オプションとして、少なくとも1つの説明可能なニューラルネットワークは、ワイドラーニングモデルを実施するように構成される。オプションとして、条件付きレイヤは、外部パーティション作成プロセスに基づいて1つまたは複数のパーティションを受信するように構成される。オプションとして、1つまたは複数のパーティションは、リンクされたタクソノミーまたはオントロジーから事前訓練されるかまたは初期化される。オプションとして、勾配降下法は、パーティションをさらに改良するために適用され、パーティションの1つまたは複数は、静的値でロックされる、後ろ向き訓練技法、多数目的最適化、遺伝的アルゴリズム、モンテカルロシミュレーション法、または因果的ロジックおよびシミュレーション技法を使用して動的に調整可能である、または階層的である。オプションとして、説明可能なトランスデューサ・トランスフォーマは、1つまたは複数のオーバーラップするまたはオーバーラップしないパーティションを選択するか、マージするか、または分割するように構成されるランク付け関数をさらに含み、1つまたは複数のパーティションは、少なくとも2つの異なるレベルの意味論的および記号論的詳細でシンボルおよび概念を示すように構成される。
上記で説明した実施例のうちの任意の実施例の態様は、求められる効果を失うことなくさらなる実施例を形成するために、説明される他の実施例のうちの任意の実施例の態様および/またはオプションと組み合わされ得る。
上記説明および添付図は、本発明の原理、好ましい実施形態、および動作モードを示す。しかしながら、本発明は、上記で論じた特定の実施形態に限定されるものと解釈されるべきでない。上記で論じた実施形態のさらなる変形は、当業者に明らかになるであろう(例えば、本発明の特定の構成に関連付けられる特徴は、代わりに、所望のように、本発明の任意の他の構成に関連付けられ得る)。
したがって、上記で説明した実施形態は、制限的ではなく、例証的と見なされるべきである。相応して、これらの実施形態に対する変形が、添付クレームによって規定される本発明の範囲から逸脱することなく、当業者によって行われ得ることが認識されるべきである。

Claims (42)

  1. 説明可能な機械学習システムであって、
    前記機械学習システムが、入力言語からのデータを第2の出力言語に翻訳、マッピング、および変換することを可能にするように構成される有限状態トランスデューサ、FSTを備え、
    前記有限状態トランスデューサは、変換のために使用される1つまたは複数の入力特徴量を含むまたは前記1つまたは複数の入力特徴量を変換する前記入力言語からの前記データを受信するように適合され、前記有限状態トランスデューサは、前記1つまたは複数の入力特徴量に基づいて翻訳、マッピング、および/または変換されたデータを前記第2の出力言語として提供するようにさらに構成され、および/または、
    前記入力言語からの前記データに関連して形成されたデコーダおよびエンコーダコンポーネントの組み合わせに基づくアテンションベースアーキテクチャを有する説明可能なトランスフォーマを備え、
    前記有限状態トランスデューサおよび前記説明可能なトランスフォーマは、前記入力言語からの前記データを翻訳、マッピング、および/または変換するように構成される説明可能なトランスデューサ・トランスフォーマ、XTTを生成するために組み合わされるように構成される、機械学習システム。
  2. 前記説明可能なトランスフォーマは、
    前記入力言語からの前記データに関連付けられる入力を受信し、前記1つまたは複数の入力特徴量を識別するように構成される入力レイヤと、
    条件付きネットワークであって、1つまたは複数のパーティションであって、前記1つまたは複数のパーティションのそれぞれはルールを含む、1つまたは複数のパーティションに基づいて前記1つまたは複数の入力特徴量をモデル化するように構成される条件付きレイヤ、1つまたは複数のルールを1つまたは複数の集約パーティションになるよう集約するように構成される集約レイヤ、および、前記条件付きレイヤからの前記1つまたは複数のパーティションを用いて、前記集約レイヤからの前記集約パーティションを選択的にプールするように構成されるスイッチ出力レイヤを備える、条件付きネットワークと、
    予測ネットワークであって、1つまたは複数の変換を前記1つまたは複数の入力特徴量に適用するように構成される1つまたは複数の変換ニューロンを備える特徴量生成および変換ネットワーク、1つまたは複数の特徴量および1つまたは複数のパーティションの少なくとも一方に関連する1つまたは複数の係数を識別するために前記特徴量生成および変換ネットワークによって変換された特徴量を組み合わせるように構成されるフィットレイヤ、値出力レイヤであって、前記1つまたは複数の係数を解析するように構成され、前記1つまたは複数の特徴量あるいは前記1つまたは複数のパーティションの少なくとも一方に関連する値を出力するように構成される、値出力レイヤを備える、予測ネットワークとを備え、
    前記デコーダおよびエンコーダコンポーネントは、前記入力をエンコードするための少なくとも1つのレイヤおよび前記入力をデコードするための少なくとも1つのレイヤを備え、前記入力から形成される説明可能なアーキテクチャを備え、
    機械プログラムまたは人間の少なくとも一方によって解釈可能かつ説明可能である出力を生成するように構成される出力レイヤであって、前記パーティション全体を通る1つまたは複数の実行経路は外部プロセスによって識別可能である、出力レイヤを備える、請求項1に記載の機械学習システム。
  3. 前記XTTは、説明可能なトランスフォーマ-エンコーダまたは説明可能なトランスフォーマ-デコーダとして動作するように構成され、前記システムは、前記XTTの内部係数に対する条件付き制約を任意にさらに含み、前記条件付き制約は、前記XTTの公称動作サイクル中にモニターされるように任意に構成される、請求項1または2に記載の機械学習システム。
  4. 前記説明可能なトランスデューサは、前記デコーダコンポーネントおよび/または前記エンコーダコンポーネントのサブレイヤ内にホワイトボックスモデルコンポーネントを備える、請求項1~3のいずれか1項に記載の機械学習システム。
  5. 説明可能なニューラルネットワーク、XNNを含む説明可能なアーキテクチャは、前記XTT内で利用され、前記XNNは、
    入力レイヤであって、
    条件付きレイヤ、集約レイヤ、およびスイッチ出力レイヤを含む条件付きネットワーク、および、
    特徴量生成および変換レイヤ、フィットレイヤ、および予測出力レイヤを含む予測ネットワーク
    に入力されるように構成される、入力レイヤと、
    ランク付けされたかまたはスコア付けされた出力を生成するために、前記スイッチ出力レイヤの出力および前記予測出力レイヤの出力を逓倍するように構成される選択およびランク付けレイヤとを任意に備え、
    前記XNNは、高速重みを任意に含む、請求項1~4のいずれか1項に記載の機械学習システム。
  6. 解釈可能なニューラルネットワーク、INNを備える説明可能なアーキテクチャは、前記XTT内で利用される、および/または、
    説明可能な強化学習、XRLシステムを備える説明可能なアーキテクチャは、前記XTT内で利用される、および/または、
    前記XTTは、ワイドラーニングモデルをサポートするように構成される、請求項1~5のいずれか1項に記載の機械学習システム。
  7. 前記説明可能なアーキテクチャは、
    回答からなる説明可能なまたは解釈可能な出力を生成する、
    前記回答のオプションのモデル説明を生成する、
    前記回答および/または前記モデル説明の正当化理由を任意に生成する
    ように構成される、請求項2~6のいずれか1項に記載の機械学習システム。
  8. 前記XTTは、前記1つまたは複数の入力特徴量を処理するように構成されるパーティションを備え、前記パーティションは、ルールおよび/または距離類似度関数に従ってデータポイントを任意にグループ化するクラスタであり、前記パーティションは、ロック付きパーティションであって、ロック付きパーティションの値が静的値として設定されている、ロック付きパーティションであるかまたは前記XTTの各後方訓練パスについて動的に可動である可動パーティションであり、前記パーティションは、前記XTTを最初に作成する外部プロセスによって前記XTTの一部として最初に作成される、または、
    前記パーティションは、パーティショニング情報を提供するリンク付きタクソノミーまたはオントロジーから事前訓練されるかまたは適切に初期化され、前記XTTは、前記パーティションが事前訓練された後に、任意に事前微調整され、前記パーティションが作成されると、前記XTTは、前記パーティションをフィットさせるかまたはさらに改良するため、勾配降下法を使用するように構成され、パーティション構造は、グラフまたはハイパーグラフ内に任意に配置され、前記システムは、グラフ-ツー-シーケンス、シーケンス-ツー-グラフ、およびグラフ-ツー-グラフ変換モードを処理するように任意に構成される、請求項1~7のいずれか1項に記載の機械学習システム。
  9. 前記XTTは、前記XTTがどのようにパーティションを選択するか、マージするか、または分割するかを決定するためにランク付け関数を実施するように構成され、前記パーティションは、異なるレベルの意味論的および記号論的詳細でシンボルを示すために使用可能である階層的性質に従って任意に配置される、請求項8に記載の機械学習システム。
  10. 前記パーティションは、多数目的最適化技法、遺伝的アルゴリズム、モンテカルロシミュレーション法、および/または因果的ロジックおよびシミュレーション技法のうちの1つまたは複数を使用して変更可能である、請求項8または9に記載の機械学習システム。
  11. 前記パーティションは、2つ以上のオーバーラップするパーティションおよび前記オーバーラップするパーティションのうちのいずれが活性化すべきかを決定するように構成される優先度関数、2つ以上のオーバーラップしないパーティション、および/または、
    複数の活性化されたパーティションからの結果を結合または分割するように構成される集約関数を備え、前記パーティションは、疎なXNNまたはINNを使用して任意に実施される、請求項8~10のいずれか1項に記載の機械学習システム。
  12. 各パーティションは、線形モデルにフィットするデータ、ならびに、多項式展開、回転、次元尺度法、無次元尺度法、状態空間変換、位相空間変換、整数変換、実数変換、複素数変換、クォータニオン変換、オクトニオン変換、フーリエ変換、ウォルシュ関数、連続データバケット化、ハールウエーブレット、非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1またはタイプ2ファジーロジック知識グラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ空間、フレシェ空間、ハウスドルフ空間、またはチコノフ空間のトポロジカル変換、相違分析、正規化、標準化、および条件付き特徴量のうちの少なくとも1つが、線形モデルを前記データにフィットさせる前に、適用されたデータの一方または両方を含む、請求項8~11のいずれか1項に記載の機械学習システム。
  13. 前記パーティションは、パーティショニング関数に従って階層構造で配置され、前記パーティショニング関数は、k-means関数、ベイズ関数、接続性ベースパーティショニング関数、重心ベースパーティショニング関数、分布ベースパーティショニング関数、グリッドベースパーティショニング関数、密度ベースパーティショニング関数、ファジーロジックベースパーティショニング関数、エントロピーベース関数、または相互情報ベース方法からの1つまたは複数を含むクラスタリングアルゴリズムを含み、パーティション関数は、任意に複数のオーバーラップするパーティションおよび/またはオーバーラップしないパーティションを生成するアンサンブル法を含む、請求項8~12のいずれか1項に記載の機械学習システム。
  14. 前記XTTは、前記パーティションのうちの1つまたは複数に対して1つまたは複数の反復最適化ステップを実行するように構成され、前記1つまたは複数の反復最適化ステップは、適した集約、分割、または最適化法を使用して前記パーティションのマージングおよび分割を任意に含む、請求項8~13のいずれか1項に記載の機械学習システム。
  15. 前記XTTは、前記パーティションに関連付けられた前記モデル説明および情報を予測するように構成されるXTT-デコーダアーキテクチャを備え、前記XTT-デコーダアーキテクチャは、次のモデル説明を予測するために、生成されたモデル説明を使用して事前訓練され、前記XTT-デコーダアーキテクチャは、前記モデル説明の差または変化を予測するため、次の説明勾配を予測するために説明勾配のセットに対して任意にさらに事前訓練され、前記XTT-デコーダアーキテクチャは、訓練中に類似および対比の両方の要素を考慮するために、入力および出力データの埋め込み表現に対して任意に事前訓練され、前記埋め込み表現は、任意に、疎な埋め込みである、請求項1~14のいずれか1項に記載の機械学習システム。
  16. 前記説明可能なトランスフォーマは、外部の説明可能なモデルからのパーティショニング情報を、前記説明可能なトランスフォーマの前記エンコーダコンポーネントの入力埋め込みに、そして任意に、前記説明可能なトランスフォーマの前記デコーダコンポーネントの出力埋め込みに付加することによって訓練される、または、
    前記説明可能なトランスフォーマは、前記エンコーダおよびデコーダコンポーネントに並列の2つのさらなるレイヤを含み、前記2つのさらなるレイヤは、前記説明可能なトランスフォーマの入力空間から説明可能なアーキテクチャを構築するように構成される、または、
    前記説明可能なトランスフォーマは、マルチ-ヘッド-アテンションコンポーネントまたは加算-および-正規化コンポーネントを備える並列の説明可能なエンコーダレイヤを備え、前記並列の説明可能なエンコーダレイヤは、前記マルチ-ヘッド-アテンションコンポーネントの出力または前記加算-および-正規化コンポーネントの出力、および、パーティショニングまたは説明可能な情報を入力として受信するように構成され、前記説明可能なトランスフォーマは、前記並列の説明可能なエンコーダレイヤの出力を入力として受信するように構成される並列の説明可能なデコーダレイヤを任意にさらに含み、前記並列の説明可能なエンコーダレイヤは、1つまたは複数のモデル説明、前記1つまたは複数のモデル説明の1つまたは複数の勾配、あるいは1つまたは複数のパーティションに関連付けられる情報を入力として受信するように任意に構成される説明可能なアーキテクチャを任意に含み、前記並列の説明可能なデコーダは、説明可能なアーキテクチャおよび加算-および-正規化コンポーネントを任意に含み、前記並列の説明可能なエンコーダレイヤは、前記並列の説明可能なエンコーダレイヤの出力を、前記デコーダコンポーネント内のマルチヘッドアテンションレイヤに送信するように任意に構成され、前記並列の説明可能なエンコーダレイヤは、前記出力を前記デコーダコンポーネント内の前記マルチヘッドアテンションレイヤに送信する前に、前記出力を前記説明可能なトランスフォーマの前記エンコーダコンポーネントとマージするように任意に構成される、請求項1~15のいずれか1項に記載の機械学習システム。
  17. 前記説明可能なトランスフォーマの前記デコーダコンポーネントは、フィードバックループの一部として、前記XTTの出力を入力として受信するように構成される、請求項1~16のいずれか1項に記載の機械学習システム。
  18. 前記説明可能なトランスフォーマの前記エンコーダおよび/またはデコーダコンポーネントは、説明可能なオート-エンコーダ-デコーダ、XAEDとして動作するように構成される、請求項1~17のいずれか1項に記載の機械学習システム。
  19. 前記XTTは、訓練用データセットの1つまたは複数の特徴量変換を備え、前記1つまたは複数の特徴量変換は、
    多項式展開、回転変換、次元尺度法、無次元尺度法、フーリエ変換、ウォルシュ関数、状態空間変換、位相空間変換、ハールウエーブレット、非ハールウエーブレット、一般化L2関数、フラクタルベース変換、アダマール変換、タイプ1ファジーロジックグラフネットワーク、タイプ2のファジーロジックグラフネットワーク、カテゴリカルエンコーディング、コルモゴロフ空間、フレシェ空間、ハウスドルフ空間、またはチコノフ空間のトポロジカル変換、相違分析、データの正規化、データの標準化のうちの1つまたは複数を任意に含み、前記1つまたは複数の特徴量変換は、変換パイプラインとして任意に配置され、前記パイプラインは、1つまたは複数の変数の値に従って順序付けられるデータのシーケンスを分析するように構成される変換であって、データの前記シーケンスは時間的に順序付けられたデータシーケンスを任意に含む、変換、および/または、
    勾配降下法および他の説明可能なアーキテクチャによって取得される変換を任意に含む、請求項1~18のいずれか1項に記載の機械学習システム。
  20. 前記XTTは、因果GANベース生成、遺伝的エンジニアリング、モンテカルロシミュレーション、ペトリネット、強化学習技法、ホワイトボックスモデルおよび関連するグローバルモデルを使用するシミュレーション、および/または利用可能であるとすることができる任意の他の方法の中からの1つまたは複数の技法を使用して生成される前記XTTを訓練するために訓練用データセットサンプルを受信するように構成される、請求項1~19のいずれか1項に記載の機械学習システム。
  21. 前記XTTは、人間知識インジェクション、HKI、またはシステム知識インジェクションを入力として受信するようにさらに構成され、前記XTT内の説明可能なアーキテクチャの係数は、人間ユーザと機械学習システムとの間でより効果的な協働をもたらすため特定のルールを施行するために修正可能であり、前記XTTは、ゼロショット学習または少数ショット学習のためにHKIまたはシステム知識インジェクションを使用するように任意にさらに構成される、請求項1~20のいずれか1項に記載の機械学習システム。
  22. 前記XTTは、前記XTTの適応力を高めるために帰納的、演繹的、仮説的、因果的ロジックのうちの1つまたは複数を実施するように構成され、前記XTTは、モデルなし最適化法およびモデルベース最適化法の組み合わせを利用するように任意にさらに構成される、請求項1~21のいずれか1項に記載の機械学習システム。
  23. 前記XTTは、前記XTTの出力からの説明不能な潜在的空間の完全な除去を、前記XTTの前記1つまたは複数の入力特徴量が説明可能である程度まで可能にするように構成される、請求項1~22のいずれか1項に記載の機械学習システム。
  24. 前記XTTは、前記XTTの出力に対して、フーリエ変換、整数変換、実数変換、複素数変換、クォータニオン変換、オクトニオン変換、ウォルシュ関数、状態空間変換、位相空間変換、ハールウエーブレット、非ハールウエーブレット、一般化L’’関数、フラクタルベース変換、アダマール変換、ファジーロジックグラフネットワーク、カテゴリカルエンコーディング、相違分析、正規化、標準化、多次元ベジェ曲線、再帰関係、および因果作用素のうちの1つまたは複数を適用するように構成される、または、
    前記XTTは、前記XTTの出力に対して、活性化関数または変換関数を適用するように構成され、前記活性化関数または変換関数は、シグモイド関数、SoftMax関数、階層木またはネットワーク、因果ダイヤグラム、有向グラフ、無向グラフ、ハイパーグラフ、単体的複体、マルチメディア構造、またはハイパーリンクされたグラフのセットのうちの1つまたは複数を含む、請求項1~23のいずれか1項に記載の機械学習システム。
  25. 前記XTTは、構造化データと非構造化データの両方を処理し、階層的に構造化されたデータを処理するように構成され、前記階層的に構造化されたデータは、木、グラフ、ハイパーグラフ、および/または単体的複体の形態で任意に構築される、請求項1~24のいずれか1項に記載の機械学習システム。
  26. 前記XTTは、
    前記XTTの入力レイヤによって受信される前に、または、前記入力レイヤから出力された後に、複数の入力を正規化するように構成される正規化モジュールと、
    前記入力レイヤによって受信される前に、または、前記入力レイヤから出力された後に、前記入力をスケーリングするように構成されるスケーリングモジュールと、
    前記入力レイヤによって受信される前に、または、前記入力レイヤから出力された後に、前記入力を標準化するように構成される標準化モジュールとをさらに備える、請求項1~25のいずれか1項に記載の機械学習システム。
  27. 前記入力の前記正規化は、バイアスおよび前記バイアスのソースの適切なレポートおよび分析を作成すること、および、教師あり手段、教師なし手段、または半教師あり手段によって、バイアス低減、軽減、または排除のための方策を策定することを含む、請求項26に記載の機械学習システム。
  28. 前記XTTは、分散型の説明可能なアーキテクチャ、DEAにわたって分配され、前記DEAは、説明可能なアーキテクチャの同質または異質な混合物からなり、前記DEAは、前記DEA内の前記説明可能なアーキテクチャのそれぞれを訓練するために、データセットをデータの複数のサブセットに分割するように構成され、前記DEAの各説明可能なアーキテクチャは、一括操作技法を任意に含む、前記DEA内の同質なおよび異質な説明可能なモデルミックスに適用される分散型訓練技法を使用して訓練可能である、請求項1~27のいずれか1項に記載の機械学習システム。
  29. 前記DEAは、前記DEA内の前記モデルが、説明可能な人工知能(XAI)、解釈可能なニューラルネット(INN)、説明可能なニューラルネット(XNN)、説明可能なスパイキングネット(XSN)および説明可能なメモリネット(XMN)、および/または説明可能な強化学習(XRL)のミックスであるようなハイブリッドモデル、
    複数の独立モデルであって、所与の独立モデルは、訓練されると、前記DEAに依存することなく独立に働くように構成可能であり、前記DEAは訓練のために最適化される、複数の独立モデル
    の一方または両方を含むことができる、請求項30に記載の機械学習システム。
  30. 前記XTTは、説明および解釈生成システム、EIGS内で使用可能であり、入力クエリを処理し、前記入力クエリに関する適切な回答、説明、およびオプションの正当化理由を生成するためのモデルを提供するように構成され、
    前記XTTは、前記EIGSの1つまたは複数の部分を変換するように任意に構成され、前記EIGSの1つまたは複数の部分を変換することは、提示出力を変換すること、ユーザ固有出力個人化、コンテキスト固有出力変換、目標固有出力変換、計画固有出力変換、およびアクション固有変換のうちの1つまたは複数を含み、
    前記XTTは、
    説明スカフォールドの適切なフィルタリングをフィルタが生成するための適したモデルを提供するために、または、
    解釈フレーミング、プロトコルコンテキスト、解釈ルール、解釈手順、解釈シナリオ、および競合解決情報の組み合わせを利用して前記EIGSの1つまたは複数の部分をフィルタリングするために、または、
    前記EIGS内でフィルタ内および/またはフィルタ間合意プロセスを実施するために、または、
    解釈者が適切な解釈を生成し、解釈スカフォールドの要素を生成するための適したモデルを提供するために、または、
    EIGS内で解釈スカフォールドの適切な部分を変換するために、または、
    フレーミング、プロトコル、解釈ルール、解釈手順、解釈テンプレート、解釈要約、シナリオモデル、ドメイン、対話型コンテキスト、および競合解決情報の組み合わせに基づいてEIGSの解釈出力を変換するために、または、
    EIGS内で解釈者内および/または解釈者間合意プロセスを実施するために、または、
    適切な選択モデルおよび選択プロセスに基づいてEIGS解釈出力を変換するために
    EIGS内で任意に使用可能である、請求項1~29のいずれか1項に記載の機械学習システム。
  31. 前記XTTは、複数レベルの説明であって、パーティショニング情報、前記XTTの内部係数、および前記XTTの入力空間の特徴量寄与度を任意に含む、複数レベルの説明を生成するように構成される説明可能なセルフ-アテンションメカニズムを備え、前記説明は解釈者に対する出力として使用可能である、請求項1~30のいずれか1項に記載の機械学習システム。
  32. 前記XTTは、自己教師あり技法を使用して訓練可能である、請求項1~31のいずれか1項に記載の機械学習システム。
  33. 前記XTTは、単一ベクトルにマージするために、全てのデコーダまたはエンコーダコンポーネントから、過去に学習した表現または履歴状態を使用するように構成され、前記ベクトルは前記XTT内の任意のレイヤに対するフィードバックとして使用可能であり、前記XTTは、前記単一ベクトルにマージするために、前記ホワイトボックスモデルの任意の内部係数を使用するように任意にさらに構成され、前記XTTは、因果的にありそうにない推論を作成することまたは統計的に有効であるが因果的にありそうにないとすることができる予測経路を作成することを回避するために、前記過去に学習した表現に対して因果的制約を課すように任意にさらに構成され、前記XTTは、説明可能で因果的にかつ環境的にありそうにないフィードバックメモリを達成するため、前記過去に学習した表現に対して環境的にありそうにないさらなる制約を課すために、挙動モデルならびに関連する条件、イベント、トリガー、およびアクション状態表現を利用するように任意にさらに構成される、請求項2~32のいずれか1項に記載の機械学習システム。
  34. システムは、
    適した形式言語で書かれた既存の形式コンピュータプログラムを分析し構文解析し、ロードされると、XTTアテンションモデルを使用して前記コンピュータプログラムをさらに改良するように構成され、なお、前記XTTの説明可能なモデル内の階層的パーティション構造は、前記形式言語プログラムの前記構造を直接モデル化するために任意に使用可能であり、または、
    矛盾または誤りを強調するために、コードのよりよい代替物ならびにリファクタリングおよびリライトを提案するために、難読化されたコードを難読化解除するために、そして、α変換、β簡約、およびη簡約等の機能的プログラミング言語概念を、生成されたコードに適用するために、予め規定されたスタイリスティックスタンダードに従ってコードを変換するように構成され、または、
    証明済みステートメントおよび/または不完全ステートメントのスクラッチからまたは前記証明済みステートメントおよび/または不完全ステートメントの既存の集合体によって、数学的表現、ステートメント、および証拠を自動的に分析、生成、およびオートコンプリートするために、適した数学的形式言語システムと共に自動定理証明システムと併せて使用されるように構成され、または、
    前記XTTによって適用される入力-出力変換の間の基礎の仮定の説明を提供しながら、DNA遺伝子発現、タンパク質フォールディング、および他の関連する生物化学的アプリケーションにおける規制的変化を説明するために、タンパク質または他の適した分子形状と併せてDNAコードを分析するように構成され、または、
    任意に、スピーチオーディオ波形を対応するテキストに翻訳するために、エンド-ツー-エンド自動スピーチ認識アーキテクチャにおいて使用されるように構成され、または、
    スピーチを処理するため、エンド-ツー-エンド深層学習アーキテクチャにおいて使用されるように構成され、なお、前記機械学習システムは、前記スピーチを潜在的離散的表現に変換するように構成されるXAEDエンコーダを任意にさらに備え、または、
    複数オブジェクト追跡のために使用されるように構成され、または、
    デジタル表面モデルまたは深度マップ生成のために、衛星の、空中の、または他のタイプの鳥観図画像を照合するように構成され、または、
    単眼、複眼、およびマルチビュー入力データのイメージャリを処理するように構成され、または、
    オーディオがビデオ内に存在するか否かを予測するオーディオ-ビジュアル分類タスクのために使用されるように構成され、または、
    合成的に生成された多次元データの生成および検出であって、
    真正画像からディープフェイク画像を検出し分類すること、または、
    機械学習システムを混乱させるためにデータに付加された敵対的攻撃情報の存在を検出すること
    のうちの一方または両方を含み、
    前記XTTは説明可能なモデルを備える、多次元データの生成および検出のために使用されるように構成され、または、
    実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、前記機械学習システムはカメラ処理システム内に実施され、または、
    実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、なお、前記機械学習システムは、手術または医療画像の分析内で使用するための医療ハードウェア内に実施され、または、
    実際のイメージャリおよびコンピュータ生成式イメージャリの組み合わせ内に人々およびオブジェクトの正確に位置決めされ、フレーミングされ、スケーリングされ、照明され、レンダリングされた合成画像を自動的に生成、挿入、およびブレンドをするように構成され、なお、前記機械学習システムは、機器検査プロセスおよび製造検査プロセスにおいて使用するためのエンジニアリングアプリケーション内に実施され、または、
    人間可読および解釈可能フォーマットでデータを送信する医療インプラント内に実施されるように構成され、または、
    生体ニューロンからの入力信号を受信し、適切にエンコードされたフォーマットで生体ニューロンに信号を出力するように構成され、なお、前記XTTは、損傷した生体神経系接続を架橋するためのまたは高度人工装具デバイスにおいて人工デバイスの埋め込みおよび接続を補助するための現実的解決策を提供するために、2つ以上の生体ニューロンを架橋する医療埋め込み式デバイスの一部として実施され、または、
    異なるモダリティの関連するシーケンス順序付けおよび環境世界コンテキストに従って、適切に合成されるマルチモーダル混合出力を生成するために、前記XTTの一部としてXGAILシステムのシミュレータおよびデータサンプル合成を実施するように構成され、または、
    前記生成されたデータサンプルを適切に修正するために使用され得る種々の学習済みスタイルを使用して、新規なデータサンプル、イメージャリ、デジタルおよびアナログ混合メディアペインティング、および3Dスカルプチャを作成するように構成され、なお、前記機械学習システムは、前記生成されたデータに、セキュア追跡可能デジタルコード、分散型台帳エントリ、または非代替性トークンをタグ付けするように任意にさらに構成され、または、
    形式的ミュージックノーテーションおよび合成、サウンドサンプル混合、テキスト-ツー-スピーチ生成、および一般的オーディオサンプル生成の組み合わせを使用してミュージックを生成するように構成され、なお、前記機械学習システムは、異なるモダリティにおいて入力を分析するために、マルチモーダルXTTを実施するように任意にさらに構成され、または、
    ビデオフレームに関するアノテーションを予測するように構成され、なお、前記XTTは、エンド-ツー-エンド深層学習アーキテクチャにおけるXTTエンコーダとして実施され、または、
    オントロジーにおいて前もって規定される代わりに、対話の状態を追跡し、観測されないスロットを学習するように構成され、または、
    入力シーケンス内でエンティティを識別するように構成され、または、
    入力質問についての回答の開始位置および終了位置を識別するように構成され、または、
    テキストにおけるエンティティのメンションを、知識ベース内の前記対応するエンティティにリンクさせるように構成され、または、
    直前の出力に基づいて出力を予測するように構成され、または、
    ワークフローシステム内に組み込まれるように、そして任意に、ロボットプロセス自動化システム、意思決定支援システム、または、データレイクシステム内に統合されるようにさらに構成され、または、
    因果的説明を使用するように構成され、なお、前記因果的説明は、反事実的言語表現アーキテクチャを使用し、または、
    原因-および-結果を扱う、関連付け、介入、および反事実的因果的ロジックを扱う、環境モデル入力による妥当性チェックを実施する、因果的にありそうな同型化によって訓練用データを拡張するために、因果モデル固有の機能を実施するように構成され、または、
    自然言語文書からドラフト因果モデルを自動的に作成するように構成され、なお、前記XTTは因果的XTTシステムを規定し、または、
    制約および予測的ロジック実施の基礎として計算および知識表現構造を使用するように構成され、なお、前記計算および知識表現構造は、リソース記述フレームワーク、RDF、木、RDFグラフ、レビグラフ、ハイパーグラフ構造、または単体的複体を任意に含み、または、
    監査ログ機能を実施するように構成され、なお、監査ログ機能を実施することは、前記XTTのフロー、相互作用、および挙動、ならびに、前記XTTの関連する条件、イベント、トリガー、およびアクション、ならびに全体ダイナミクスを示す意思決定ログおよび経路トレースを作成することを含み、
    前記経路トレースは、トリガーされ実行されたルールの注釈付きシーケンスとして、エキスパートシステムおよびルールベースシステムに任意に実施され、または、
    前記経路トレースは、ワークフローエンジンによって実行されたワークフローノードおよび経路の注釈付きシーケンスとしてワークフローシステムに任意に実施され、
    前記経路トレースは、前記XTTの正確なシーケンスおよび挙動を示すために使用可能であり、前記システムのユーザにとっての関心経路に沿って、最近傍を表示するように任意に構成され、
    前記XTTは、前記XTT自身の監査システムログを利用し、前記ログを耐タンパー性がありかつ追跡可能な方法で格納するように任意にさらに構成され、または、
    アクションの時間ロジック、抽象機械ノーテーション、ペトリネット、計算木ロジック、または、実施法であって、モーダルロジック、直感主義的ロジック、および/または関係意味論を形式的に示すことができる、実施法のうちの1つまたは複数に基づくシステムの組み合わせ上に実施され、前記組み合わせによって検証されるように構成され、または、
    アンカー条項を利用するように構成され、なお、アンカー条項は、極めて重要である、ノード、エッジ、イベント、トリガー、制約、またはアクションを規定し、または、
    性能を高めるために量子化法を適用するように構成され、なお、前記システムは、前記XTTの正確さに対する量子化の任意の悪影響を部分的に打ち消し、訓練中の不安定性を低減するために、不安定性低減技法を適用するように任意にさらに構成され、または、
    データプライバシー保護解決策の実用的な実施を可能にするように構成され、または、
    もし…ならば(what-if)、もし…でないならば(what-if-not)、反事実的、を除いて(but-for)、および条件付きシナリオに基づく、生成された構造化説明を、前記シナリオを前記XTTシステム入力に適用することの結果に対応する説明付き方策およびシナリオベース説明を生成するために利用するように構成され、または、
    アクションの総コストを推定するために外因性および内因性変数ならびに因果モデルを使用するように構成され、なお、前記総コストを推定することは、任意の特定の関連付け、介入、または反事実的ルールを適用することを任意に含み、また、部分的に抜けている値を有するデータについて総コストを推定することを任意に含み、
    前記システムは、アプリケーションの実際の例であって、前記アプリケーションの所望のシナリオ結果または仮説的平均を有した、アプリケーションの実際の例を提供するために最近傍法を利用するように任意にさらに構成され、または、
    予測および/または訓練性能を高めるために、ドット積の近似または完全排除、疎なローカルアテンションモデル、適応的アテンションウィンドウ、多次元アテンション行列近似、インテリジェント重み共有、およびインテリジェントパラメータ化のうちの1つまたは複数を利用するように構成され、または、
    歩行分析、運動予測、および感情状態予測を含む人間挙動を分析するように構成され、または、
    スポーツ映像および運動能力を予測し分析するように構成され、または、
    病状を検出し予測するように構成され、または、
    金融株トレーディングパターンを分析し、市場挙動を予測し、買い、売り、または、特定の株にショートまたはロングポジションを置くこと等の自動化アクションを、その後、実行するように構成され、または、
    インダストリ4.0アプリケーション内で動作するように構成され、または、
    センテンスをソース言語からターゲット言語に翻訳するように構成され、または、
    提示指向型変換および説明および/または解釈出力の強化を実施するように構成され、または、
    法律文書を処理し、前記法律文書に関係し前記法律文書における参考文献である、異なる機関およびエンティティに適用可能な参考文献およびテキストセクションを正しく決定するように構成され、または、
    対話処理、チャットボット、コールセンター管理システム、事例管理システム、顧客サポートシステム、クライアント関係管理システム、会話システム、ならびに質問および回答システム等のアプリケーションにおいて一般に使用される対話型説明および/または解釈プロセスのフローを制御するように構成され、または、
    フィードバック制御タイプのメカニズムを必要とする強化学習タイプのアプリケーションにおいて使用されるように構成される、請求項1~33のいずれか1項に記載の機械学習システム。
  35. システムは、
    柔軟アーキテクチャであって、FPGAを任意に備える、柔軟アーキテクチャ、または、
    静的アーキテクチャであって、ASICを任意に備える、静的アーキテクチャ、または、
    ディスクリートコンポーネント、または、
    スピントロニクスまたはメモリスタ、または、
    スパイキングニューロンを任意に使用するニューロモーフィックアーキテクチャ、または、
    量子コンピューティングハードウェア
    を使用するハードウェア回路として実施され、前記量子コンピューティングハードウェアは、拡張であって、
    複数の量子ビット状態、量子ビット基底状態、混合状態、アンシラビット、および、エンタングルメントおよび/またはデコヒーレンスによる他の量子効果の正しい解釈を可能にするように構成され、または、
    量子ロジックゲートを任意に含む、XNN内への量子ロジック固有演算子および/またはハードウェアロジックゲートの導入を可能にするように構成され、または、
    量子効果を利用することによって、複数のアクションを実行する、または、複数の条件を評価する、または、制約の大きなシステムを評価するように構成され、
    なお、前記量子コンピューティングハードウェアは、量子アルゴリズムを利用するまたはハイブリッド解決策を利用するように任意に構成され、または、
    複数のモダリティおよび/またはタスクについてヒルベルト空間を規定するように構成され、なお、前記マルチモーダルまたはマルチタスクヒルベルト空間は、タスクとモダリティとの間の全ての相互作用を表すために使用され得、クロスオーバー学習の量子バージョンと共にモダリティおよび/またはタスクのサブセットについての両方の訓練を実施するために使用され得る、
    拡張を任意に備える、請求項1~34のいずれか1項に記載の機械学習システム。
  36. 前記XTTは、ニューロシンボリック制約を、前記XTTに関連付けられる現在および/または過去の履歴状態の一部または全てに、および/または、前記XTTに関連付けられる活性化の過去の履歴レートにリンクさせるように構成される、請求項1~35のいずれか1項に記載の機械学習システム。
  37. 名前付き参照ラベルは、前記説明可能なアーキテクチャ内の特定のコンポーネントに割り当てられ、前記名前付き参照ラベルは、メタデータを任意に含み、シンボリック表現および/または定型表現から任意になることができ、
    前記名前付き参照ラベルは、安全関連制約内で任意に使用可能であり、
    前記機械学習システムは、前記システム内で起こるダイナミクスの安定した長期説明を生成するために前記名前付き参照ラベルの不変性を利用するように任意に構成される、請求項4~36のいずれか1項に記載の機械学習システム。
  38. 前記機械学習システムは、アイデンティティアセス推奨フレームワークによって少なくとも部分的に規定される、請求項1~37のいずれか1項に記載の機械学習システム。
  39. 前記機械学習システムは自動XAIシステムをさらに備え、前記システムは、シナリオベース説明を生成するように構成される、請求項1~38のいずれか1項に記載の機械学習システム。
  40. 同じパラメータを共有する複数のタスクおよび複数のモダリティを処理するために、
    前記XTTは、説明可能なモデルを利用し、前記1つまたは複数の入力特徴量に関連付けられる1つまたは複数のタスクに対応する複数の入力を受信し、前記タスクのための出力に対応する複数の出力を生成するように構成され、
    前記説明可能なモデルは、前記異なるタスクについて学習された異なる知識間のクロスオーバーが効率的に起こることを可能にするように構成される、複数のクロスオーバーサブシステムから任意になる階層的クロスオーバー構造によって任意に規定され、
    前記階層的クロスオーバー構造は、1つまたは複数の一方向リンクノードおよび/または1つまたは複数の2方向リンクノード、そして任意に、クロスオーバーノイズノードおよび/またはクロスオーバーノード間リンクを備え、
    前記説明可能なモデルは、任意に、疎な説明可能なモデルまたはDEAである、請求項1~39のいずれか1項に記載の機械学習システム。
  41. 畳み込みニューラルネットワーク、CNNであって、CNN-XTTアーキテクチャを規定するために前記XTTの前記入力に結合された、畳み込みニューラルネットワーク、CNNをさらに備え、前記CNN-XTTは、クエリについて前記CNN-XTT内で活性化経路を可視化するためにバックマップを使用するように、そして任意に、正当化理由の一部としてバックマップを組み込むように構成され、前記CNN-XTTは、カーネルラベリング法を、本来テキスチュアルでないデータフォーマットを有する関連する人間可読ラベルに統合するように任意に構成され、前記カーネルラベリング法に関連付けられるカーネルタイプは、任意に、近似カーネルであり、前記CNNは、任意に、時間的に最適化されたCNNである、請求項41に記載の機械学習システム。
  42. 前記システムは、フォーマットまたはレイアウトであって、人間可読自然言語、グラフィカルまたはビジュアルフォーマット、オーディオ、スピーチ、触覚、ビデオ、時系列、マルチスペクトルデータ、階層的に順序付けられたマルチメディアコンテンツ、および3Dデータのうちの1つまたは複数である、フォーマットまたはレイアウトでデータを出力するように構成され、
    前記出力データは、任意に、シーケンシャルフォーマットまたはレイアウトであって、2Dデータ、3Dデータ、多次元データアレイ、トランザクションデータ、時系列、デジタル化済みサンプル、センサデータ、画像データ、ハイパースペクトルデータ、自然言語テキスト、ビデオデータ、オーディオデータ、触覚データ、LIDARデータ、RADARデータ、およびSONARデータのうちの1つまたは複数である、シーケンシャルフォーマットまたはレイアウトである、請求項1~41のいずれか1項に記載の機械学習システム。
JP2023561916A 2020-12-17 2021-12-17 説明可能なトランスデューサ・トランスフォーマ Pending JP2024500182A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063126694P 2020-12-17 2020-12-17
US63/126,694 2020-12-17
PCT/EP2021/086646 WO2022129610A1 (en) 2020-12-17 2021-12-17 Explainable transducer transformers

Publications (1)

Publication Number Publication Date
JP2024500182A true JP2024500182A (ja) 2024-01-04

Family

ID=79425360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023561916A Pending JP2024500182A (ja) 2020-12-17 2021-12-17 説明可能なトランスデューサ・トランスフォーマ

Country Status (8)

Country Link
US (2) US11593631B2 (ja)
EP (1) EP4264498A1 (ja)
JP (1) JP2024500182A (ja)
KR (1) KR20230128492A (ja)
CN (1) CN116888602A (ja)
AU (1) AU2021399965A1 (ja)
CA (1) CA3202297A1 (ja)
WO (1) WO2022129610A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902849B (zh) * 2018-06-20 2021-11-30 华为技术有限公司 用户行为预测方法及装置、行为预测模型训练方法及装置
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
US11878684B2 (en) * 2020-03-18 2024-01-23 Toyota Research Institute, Inc. System and method for trajectory prediction using a predicted endpoint conditioned network
EP4252152A1 (en) * 2021-01-07 2023-10-04 Google LLC Neural networks with switch layers
US11966707B2 (en) * 2021-01-13 2024-04-23 Zapata Computing, Inc. Quantum enhanced word embedding for natural language processing
US11829726B2 (en) * 2021-01-25 2023-11-28 International Business Machines Corporation Dual learning bridge between text and knowledge graph
US20220247548A1 (en) * 2021-02-01 2022-08-04 Sap Se Efficient distributed privacy-preserving computations
US11842159B1 (en) * 2021-03-16 2023-12-12 Amazon Technologies, Inc. Interpreting a text classifier
US11531555B2 (en) * 2021-03-26 2022-12-20 International Business Machines Corporation Selective pruning of a system configuration model for system reconfigurations
US11921824B1 (en) * 2021-03-29 2024-03-05 Amazon Technologies, Inc. Sensor data fusion using cross-modal transformer
US20220318640A1 (en) * 2021-03-31 2022-10-06 Fujitsu Limited Automated empathetic reconciliation of decisions of artificial intelligence (ai) models
US11908202B2 (en) * 2021-12-23 2024-02-20 Gm Cruise Holdings Llc Method and system of using a global transformer for efficient modeling of global context in point clouds
CN115311720B (zh) * 2022-08-11 2023-06-06 山东省人工智能研究院 一种基于Transformer的deepfake生成方法
CN115147315B (zh) * 2022-09-05 2022-12-09 杭州涿溪脑与智能研究所 一种基于变压器模块的神经网络荧光显微图像去噪方法
US20240087683A1 (en) * 2022-09-14 2024-03-14 Microsoft Technology Licensing, Llc Classification using a machine learning model trained with triplet loss
GB202213823D0 (en) * 2022-09-22 2022-11-09 Veltz Francois Text generation
CN115510854B (zh) * 2022-09-27 2023-06-09 北京白星花科技有限公司 基于强化学习的实体关系提取方法和系统
CN115578735B (zh) * 2022-09-29 2023-09-15 北京百度网讯科技有限公司 文本检测方法和文本检测模型的训练方法、装置
US20240169189A1 (en) * 2022-11-18 2024-05-23 NEC Laboratories Europe GmbH Iterative self-explaining artificial intelligence system for trustworthy decision making
US11972333B1 (en) * 2023-06-28 2024-04-30 Intuit Inc. Supervisory systems for generative artificial intelligence models
CN117349786A (zh) * 2023-09-11 2024-01-05 国网湖北省电力有限公司宜昌供电公司 基于数据均衡的证据融合变压器故障诊断方法
CN116992888A (zh) * 2023-09-25 2023-11-03 天津华来科技股份有限公司 基于自然语义的数据分析方法及系统
CN117421661B (zh) * 2023-12-19 2024-02-13 南开大学 一种基于反事实增强的图卷积网络的群组推荐方法
CN117953351A (zh) * 2024-03-27 2024-04-30 之江实验室 一种基于模型强化学习的决策方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5499319A (en) * 1991-09-30 1996-03-12 Al Janabi; Talib H. Fuzzy logic controller
US20120137367A1 (en) * 2009-11-06 2012-05-31 Cataphora, Inc. Continuous anomaly detection based on behavior modeling and heterogeneous information analysis
US11195057B2 (en) * 2014-03-18 2021-12-07 Z Advanced Computing, Inc. System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US10832138B2 (en) * 2014-11-27 2020-11-10 Samsung Electronics Co., Ltd. Method and apparatus for extending neural network
US10733532B2 (en) * 2016-01-27 2020-08-04 Bonsai AI, Inc. Multiple user interfaces of an artificial intelligence system to accommodate different types of users solving different types of problems with artificial intelligence
US11151450B2 (en) * 2018-05-21 2021-10-19 Fair Isaac Corporation System and method for generating explainable latent features of machine learning models
US10845815B2 (en) * 2018-07-27 2020-11-24 GM Global Technology Operations LLC Systems, methods and controllers for an autonomous vehicle that implement autonomous driver agents and driving policy learners for generating and improving policies based on collective driving experiences of the autonomous driver agents
US20190370647A1 (en) * 2019-01-24 2019-12-05 Intel Corporation Artificial intelligence analysis and explanation utilizing hardware measures of attention
US11669716B2 (en) * 2019-03-13 2023-06-06 Cognizant Technology Solutions U.S. Corp. System and method for implementing modular universal reparameterization for deep multi-task learning across diverse domains
US11132403B2 (en) * 2019-09-06 2021-09-28 Digital Asset Capital, Inc. Graph-manipulation based domain-specific execution environment
US11676365B2 (en) * 2019-12-16 2023-06-13 Accenture Global Solutions Limited Explainable artificial intelligence (AI) based image analytic, automatic damage detection and estimation system
US20210350221A1 (en) * 2020-05-05 2021-11-11 Silicon Laboratories Inc. Neural Network Inference and Training Using A Universal Coordinate Rotation Digital Computer
US11763180B2 (en) * 2020-07-28 2023-09-19 Intuit Inc. Unsupervised competition-based encoding
US11934957B2 (en) * 2020-08-27 2024-03-19 GM Global Technology Operations LLC Methods, systems, and apparatuses for user-understandable explainable learning models
US20220067510A1 (en) * 2020-09-03 2022-03-03 Paypal, Inc. System and method for tag-directed deep-learning-based features for predicting events and making determinations
US20220147838A1 (en) * 2020-11-09 2022-05-12 Adobe Inc. Self-supervised visual-relationship probing

Also Published As

Publication number Publication date
WO2022129610A1 (en) 2022-06-23
EP4264498A1 (en) 2023-10-25
CA3202297A1 (en) 2022-06-23
US11593631B2 (en) 2023-02-28
US11797835B2 (en) 2023-10-24
US20220198254A1 (en) 2022-06-23
KR20230128492A (ko) 2023-09-05
CN116888602A (zh) 2023-10-13
AU2021399965A1 (en) 2023-08-03
US20230153599A1 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
US11797835B2 (en) Explainable transducer transformers
US11948083B2 (en) Method for an explainable autoencoder and an explainable generative adversarial network
Li et al. A survey of data-driven and knowledge-aware explainable ai
Das et al. Opportunities and challenges in explainable artificial intelligence (xai): A survey
Díaz-Rodríguez et al. EXplainable Neural-Symbolic Learning (X-NeSyL) methodology to fuse deep learning representations with expert knowledge graphs: The MonuMAI cultural heritage use case
US20200104726A1 (en) Machine learning data representations, architectures, and systems that intrinsically encode and represent benefit, harm, and emotion to optimize learning
US11651216B2 (en) Automatic XAI (autoXAI) with evolutionary NAS techniques and model discovery and refinement
US11055616B2 (en) Architecture for an explainable neural network
US11443164B2 (en) Explanation and interpretation generation system
Bagherzadeh et al. A review of various semi-supervised learning models with a deep learning and memory approach
EP4062330A1 (en) Architecture for an explainable neural network
EP4104107A1 (en) Method for injecting human knowledge into ai models
Wörmann et al. Knowledge augmented machine learning with applications in autonomous driving: A survey
Chowdhury et al. Knowledge-enhanced neural machine reasoning: A review
Bayoudh A survey of multimodal hybrid deep learning for computer vision: Architectures, applications, trends, and challenges
Xia An overview of deep learning
TWI803852B (zh) 可解釋人工智慧及可解釋神經網路轉換
Ho NBDT: Neural-backed decision trees
Maharaj Generalizing in the Real World with Representation Learning
TWI810549B (zh) 可解釋的神經網路、相關的電腦實施方法、及用於實施可解釋的神經網路之系統
Messaoud Toward more scalable structured models
Ras Perspectives on explainable deep learning
Daniels Explanation-Driven Learning-Based Models for Visual Recognition Tasks
Schwartz et al. Machine learning methods
Du et al. Techniques for Interpretable Machine Learning Uncovering the mysterious ways machine learning models make decisions.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230821