JP2023501469A - リカレント・ニューラル・ネットワークを用いたマルチモーダル・データの融合 - Google Patents

リカレント・ニューラル・ネットワークを用いたマルチモーダル・データの融合 Download PDF

Info

Publication number
JP2023501469A
JP2023501469A JP2022526694A JP2022526694A JP2023501469A JP 2023501469 A JP2023501469 A JP 2023501469A JP 2022526694 A JP2022526694 A JP 2022526694A JP 2022526694 A JP2022526694 A JP 2022526694A JP 2023501469 A JP2023501469 A JP 2023501469A
Authority
JP
Japan
Prior art keywords
data
data set
modalities
vectors
modality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022526694A
Other languages
English (en)
Inventor
ダン、スアン-ホン
シャー、サイド、ユーサフ
ゼルフォス、ペトロス
グレコ、ナンシー、アン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2023501469A publication Critical patent/JP2023501469A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

実施形態は、深層学習技術を利用してモダリティにまたがってデータを融合するためのシステム、プログラム製品、および方法に関する。第1のモダリティを有する第1のデータ・セットおよび第2のモダリティを有する第2のデータ・セットを含むマルチモーダル・データ・セットが受け取られ、第2のモダリティは第1のモダリティとは異なる。第1および第2のデータ・セットが処理され、この処理は、第1のデータ・セットを1つまたは複数の第1のベクトルへとエンコードすることと、第2のデータ・セットを1つまたは複数の第2のベクトルへとエンコードすることとを含む。処理されたマルチモーダル・データ・セットが分析され、第1および第2のモダリティからのエンコードされた特徴が反復的かつ非同期的に融合される。融合されたモダリティは、相関する時間的挙動を示す第1および第2のデータ・セットからの組み合わせられたベクトルを含む。そして、融合されたベクトルが出力データとして返される。

Description

本実施形態は、2つ以上のモダリティにまたがってデータを融合するように構成される人工知能プラットフォームに関する。より詳細には、実施形態は、数値の時系列データを表す少なくとも1つのモダリティと、タイム・スタンプ付きのテキスト・データを表す少なくとも1つのモダリティとを有するマルチモーダル・データ・セットが与えられた場合に、時間と共に進行する数値の時系列データのパフォーマンスおよび挙動と強く相関するテキスト特徴のサブセットを自動的に発見することに関する。
ほぼ全ての分野に関するデータが、様々なソースから様々なフォーマットおよびモダリティで生じている。近年の深層学習技術は、複数のモダリティおよびフォーマットからの情報を活用して、画像キャプショニング、医療診断、治療勧告などの様々なタスクを実行するためのモデルを作成する。複数のモダリティからのデータを融合する方法に関する様々な技術が文献で提案されている。
3つの一般的な融合技術は、(a)初期融合(Early fusion)(データ特徴レベル)、(b)後期融合(Late fusion)(決定レベル)、および(c)中間融合(Intermediate fusion)((a)-(b)間のトレードオフ)である。融合モデルの大部分では、所与の目的で複数のモダリティにまたがって有用な特徴を抽出するために、異なるモダリティからのデータをタイム・スタンプまたは間隔単位で適切に対応付ける(align)必要がある。データの粒度、サンプリング、またはデータの性質により、全てのモダリティを対応付けることは実現不可能であり得、これはまた、モダリティを適切に対応付けるために、モダリティに関する事前知識があることを前提としている。したがって、当技術分野では、上記の問題に対処する必要がある。
第1の態様から見ると、本発明は、メモリに動作可能に結合されたプロセッサと、プロセッサと通信し、深層学習技術を利用してモダリティにまたがってデータを融合するための機械学習(ML)ツールを有する人工知能(AI)プラットフォームと、を含み、ツールは、第1のデータ・セットに動作可能に結合された第1のデータ・フィード・マネージャであって、第1のデータ・セットは第1のデータ・フォーマットの第1のモダリティを有する、第1のデータ・フィード・マネージャと、第2のデータ・セットに動作可能に結合された第2のデータ・フィード・マネージャであって、第2のデータ・セットは第2のデータ・フォーマットの第2のモダリティを有し、第2のモダリティは第1のモダリティとは異なる、第2のデータ・フィード・マネージャと、を含み、第1のデータ・フィード・マネージャは、第1のデータ・セットを第1のベクトルのセットへとエンコードし、第2のデータ・フィード・マネージャは、第2のデータ・セットを第2のベクトルのセットへとエンコードし、ツールは、第1および第2のデータ・フィード・マネージャに動作可能に結合された分析器であって、分析器は、人工リカレント・ニューラル・ネットワーク(RNN)を活用して、エンコードされた第1および第2のデータ・セットを分析し、分析は、第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、融合することは、相関する時間的挙動を示す第1および第2のデータ・セットからのベクトルを組み合わせることを含む、分析器を含み、融合されたベクトルは出力データとして返される、コンピュータ・システムを提供する。
さらなる態様から見ると、本発明は、深層学習技術を利用してモダリティにまたがってデータを融合するためのコンピュータ・プログラム製品であって、コンピュータ・プログラム製品は、プログラム・コードを具現化したコンピュータ可読記憶媒体を含み、プログラム・コードは、プロセッサによって実行可能であり、マルチモーダル・データ・セットを受け取ることであって、マルチモーダル・データ・セットは、第1のモダリティを有する第1のデータ・セットおよび第2のモダリティを有する第2のデータ・セットを含む2つ以上のモダリティからの異なるフォーマットのデータを含む、受け取ることと、第1のデータ・セットを1つまたは複数の第1のベクトルへとエンコードすることと、第2のデータ・セットを1つまたは複数の第2のベクトルへとエンコードすることとを含む、第1および第2のデータ・セットを別々に処理することと、処理されたマルチモーダル・データ・セットを分析することであって、分析することは、第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、モダリティを融合することは、相関する時間的挙動を示す第1および第2のデータ・セットからのベクトルを組み合わせることを含む、分析することと、融合されたベクトルを出力データとして返すことと、を行うためのものである、コンピュータ・プログラム製品を提供する。
さらなる態様から見ると、本発明は、コンピューティング・デバイスによって、マルチモーダル・データ・セットを受け取ることであって、マルチモーダル・データ・セットは、第1のモダリティを有する第1のデータ・セットおよび第2のモダリティを有する第2のデータ・セットを含む2つ以上のモダリティからの異なるフォーマットのデータを含む、受け取ることと、第1のデータ・セットを1つまたは複数の第1のベクトルへとエンコードすることと、第2のデータ・セットを1つまたは複数の第2のベクトルへとエンコードすることとを含む、第1および第2のデータ・セットを別々に処理することと、処理されたマルチモーダル・データ・セットを分析することであって、分析することは、第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、融合することは、相関する時間的挙動を示す第1および第2のデータ・セットからのベクトルを組み合わせることを含む、分析することと、融合されたベクトルを出力データとして返すことと、を含む、方法を提供する。
さらなる態様から見ると、本発明は、深層学習技術を利用してモダリティにまたがってデータを融合するためのコンピュータ・プログラム製品であって、処理回路によって読み取り可能であり、本発明のステップを実行するための方法を実行するための、処理回路によって実行するための命令を記憶するコンピュータ可読記憶媒体を備える、コンピュータ・プログラム製品を提供する。
さらなる態様から見ると、本発明は、コンピュータ可読媒体に記憶され、デジタル・コンピュータの内部メモリにロード可能なコンピュータ・プログラムであって、上記プログラムがコンピュータ上で実行された場合に、本発明のステップを実行するためのソフトウェア・コード部分を含む、コンピュータ・プログラムを提供する。
実施形態は、人工知能プラットフォームを利用してモダリティにまたがってデータを融合することによって、テキスト・ベースのデータと数値の時系列データとの相関関係を特定するためのシステム、コンピュータ・プログラム製品、および方法を含む。
一態様では、人工知能(AI)プラットフォームをサポートするためのコンピュータ・システムが提供される。図示のように、プロセッサはメモリに動作可能に結合され、AIプラットフォームと通信する。AIプラットフォームには、深層学習技術を利用してモダリティにまたがってデータを融合するためのツールが提供される。ツールは、第1のデータ・フィード・マネージャ、第2のデータ・フィード・マネージャ、および分析器を含む。第1のデータ・フィード・マネージャは第1のデータ・セットに動作可能に結合され、第1のデータ・セットは第1のデータ・フォーマットの第1のモダリティを表す。第2のデータ・フィード・マネージャは第2のデータ・セットに動作可能に結合され、第2のデータ・セットは第2のデータ・フォーマットの第2のモダリティを表す。第1および第2のデータ・モダリティは異なる。第1のデータ・フィード・マネージャは、第1のデータ・セットを第1のベクトルのセットへとエンコードするように機能する。第2のデータ・フィード・マネージャは、第2のデータ・セットを第2のベクトルのセットへとエンコードするように機能する。分析器は、第1および第2のデータ・フィード・マネージャの両方に動作可能に結合され、人工リカレント・ニューラル・ネットワークを活用して、エンコードされた第1および第2のデータ・セットを分析するように機能する。分析器は、第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合し、融合することは、相関する時間的挙動を示す第1および第2のデータ・セットからのベクトルを組み合わせる。そして、融合されたベクトルが出力データとして返される。
他の態様では、深層学習技術を利用して2つ以上のモダリティにまたがってデータを融合するためのコンピュータ・プログラム製品が提供される。コンピュータ・プログラム製品は、プロセッサによって実行可能なプログラム・コードを具現化したコンピュータ可読記憶媒体を含む。2つ以上のデータ・セットを受け取るためのプログラム・コードが提供され、データ・セットのそれぞれは、第1のモダリティを有する第1のデータ・セットおよび第2のモダリティを有する第2のデータ・セットを含む異なるデータ・モダリティを表す。プログラム・コードは、第1および第2のデータ・セットを別々に処理する。第1のデータ・セットは1つまたは複数の第1のベクトルへとエンコードされ、第2のデータ・セットは1つまたは複数の第2のベクトルへとエンコードされる。処理されたマルチモーダル・データ・セットが分析され、第1および第2のモダリティからのエンコードされた特徴が反復的かつ非同期的に融合される。融合されたモダリティは、相関する時間的挙動を示す第1および第2のデータ・セットからの組み合わせられたベクトルを含む。そして、プログラム・コードは、融合されたベクトルを出力データとして返す。
さらに他の態様では、深層学習技術を利用して2つ以上のモダリティにまたがってデータを融合するための方法が提供される。第1のモダリティを有する第1のデータ・セットおよび第2のモダリティを有する第2のデータ・セットを含むマルチモーダル・データ・セットが受け取られる。第1のモダリティは第2のモダリティとは異なる。第1および第2のデータ・セットが処理され、この処理は、第1のデータ・セットを1つまたは複数の第1のベクトルへとエンコードすることと、第2のデータ・セットを1つまたは複数の第2のベクトルへとエンコードすることとを含む。処理されたマルチモーダル・データ・セットが分析され、第1および第2のモダリティからのエンコードされた特徴が反復的かつ非同期的に融合される。融合されたモダリティは、相関する時間的挙動を示す第1および第2のデータ・セットからの組み合わせられたベクトルを含む。そして、融合されたベクトルが出力データとして返される。
これらおよび他の特徴および利点は、添付の図面と併せて、現在好ましい実施形態の以下の詳細な説明から明らかになろう。
本明細書で参照される図面は、本明細書の一部を形成する。図面に示す特徴は、特に明記していない限り、全ての実施形態ではなく、いくつかの実施形態のみを例示することを意図している。
ニューラル・ネットワークのアーキテクチャを示す図である。 図1に示したニューラル・ネットワーク・アーキテクチャに組み込まれたAsyncLSTMのメモリ・セルを示す図である。 リカレント・ニューラル・ネットワークを使用したマルチモーダル・データからの融合を示すフローチャートである。 マルチモーダル・データの融合をサポートするための統合された人工知能プラットフォームを有するコンピュータ・システムを示すシステム図である。 金融市場に適用された図1のニューラル・ネットワーク・アーキテクチャを示すブロック図である。 図4で図示および説明した人工知能プラットフォーム・ツールおよびそれらに関連するアプリケーション・プログラム・インターフェースを示すブロック図である。 図1~図6に関して上記で説明したシステムおよび処理を実装するための、クラウド・ベースのサポート・システムのコンピュータ・システム/サーバの例を示すブロック図である。 クラウド・コンピュータ環境を示すブロック図である。 クラウド・コンピューティング環境によって提供される機能的抽象化モデル・レイヤのセットを示すブロック図である。
本明細書で概略的に説明および図示している本実施形態のコンポーネントは、多種多様な異なる構成で配置および設計され得ることは容易に理解されよう。したがって、図に提示した本実施形態の装置、システム、方法、およびコンピュータ・プログラム製品の実施形態の以下の詳細な説明は、特許請求する実施形態の範囲を限定することを意図したものではなく、選択した実施形態を表すものにすぎない。
本明細書全体を通じた「選択した実施形態(select embodiment)」、「1つの実施形態(one embodiment)」、または「一実施形態(an embodiment)」への言及は、その実施形態に関連して説明する特定の特徴、構造、または特性が少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体における様々な場所での「選択した実施形態」、「1つの実施形態において」、または「一実施形態において」という句の出現は、必ずしも同じ実施形態を指すとは限らない。
例示した実施形態は、図面を参照することによって十分に理解され、図面全体を通して同様の部分を同様の番号で示す。以下の説明は単なる例を意図しており、本明細書で特許請求する実施形態と一致するデバイス、システム、および処理の特定の選択した実施形態を単に例示している。
人工知能(AI)は、人間に関係するコンピュータおよびコンピュータ動作に向けたコンピュータ・サイエンスの分野に関連している。AIは、機械が情報に基づいて意思決定を行うことにより、所与のトピックで成功する可能性を最大化することができる場合の知能を指す。より具体的には、AIはデータ・セットから、問題を解決し、関連性のある推奨を提供するように学習することができる。たとえば、人工知能コンピュータ・システムの分野では、自然言語システム(たとえば、IBM(R)のWatson(R)人工知能コンピュータ・システム、または他の自然言語質問応答システムなど)は、システムが獲得した知識に基づいて自然言語を処理する。自然言語を処理するために、システムはデータベースまたは知識のコーパスから得られたデータで訓練され得るが、得られた結果は様々な理由で誤っており、または不正確になり得る。IBM(R)およびIBM(R)のWatson(R)は、世界中の多くの管轄区域で登録されたインターナショナル・ビジネスマシーン・コーポレーションの商標である)。
AIのサブセットである機械学習(ML:machine learning)は、アルゴリズムおよび対応するニューラル・ネットワークを利用して、データから学習し、このデータに基づいて先見性を生み出す。より具体的には、MLは、明示的にプログラムされていないタスクを実行することにより学習行動を実演することができるニューラル・ネットワークの作成を通じたAIの適用である。深層学習は、システムが前の層の出力に基づいて複数の選択肢の層を使用することによって複雑なタスクを遂行し、ますます賢く、より抽象的な結論を生み出すことができるニューラル・ネットワークMLの一種である。
深層学習は、ニューラル・ネットワークを連続した層に組み込んでデータから反復的に学習する機械学習の方法である。ニューラル・ネットワークは、神経系が機能する方法のモデルである。基本単位はニューロンと呼ばれ、ニューロンは典型的には層へと編成される。ニューラル・ネットワークは、ニューロンの抽象的なバージョンのような多数の相互接続された処理ユニットをシミュレートすることによって機能する。ニューラル・ネットワークには典型的には3つの部分があり、これには、入力フィールドを表すユニットを有する入力層、1つまたは複数の隠れ層、およびターゲット・フィールドを表す1つまたは複数のユニットを有する出力層が含まれる。ユニットは様々な接続強度または重みで接続される。入力データは最初の層に提示され、各ニューロンから次の層の全てのニューロンに値が伝播される。基本的なレベルでは、ニューラル・ネットワークの各層は、出力および入力に動作可能に結合された1つまたは複数の作用素または関数を含む。最後の隠れ層の作用素または関数からの出力を、本明細書では活性化と呼ぶ。最終的に、出力層から結果が提供される。深層学習の複雑なニューラル・ネットワークは、人間の脳の機能の仕方をエミュレートするように設計されているので、定義が不十分な抽象概念および問題をサポートするようにコンピュータを訓練することができる。ニューラル・ネットワークおよび深層学習は、画像認識、音声、およびコンピュータ・ビジョンの応用例で使用されることが多い。
AI、特に深層学習は、自動運転、機械翻訳、および音声認識などの多くの領域で大きな進歩を遂げ、我々の社会に多大な影響を与えている。リカレント・ニューラル・ネットワーク(RNN)は、自然言語処理(NLP:natural language processing)で使用されている人工ニューラル・ネットワークの一種である。RNNは、データの順次的な特性を認識し、パターンを使用して結果を予測するように設計されている。本明細書で図示および説明するように、RNNは、データを短期記憶セルおよび長期記憶セルに分類するように変更された長短期記憶(LSTM:Long Short-Term Memory)ユニットで構築される。以下で詳細に説明する変更されたLSTMを非同期RNN(AsyncLSTM:Asynchronous RNN)と呼び、AsyncLSTMは、時系列データ・モダリティおよびテキスト・データ・モダリティなどの複数の異なるデータ・モダリティからのエンコードされた特徴を反復的に融合する。非同期RNNからの出力は、時系列の挙動の説明を含む。
図1を参照すると、ニューラル・ネットワーク・アーキテクチャの実例としてダイアグラム(100)が提供されている。図示のように、モデルは2つの入力フィードからデータを受け取り、これらを本明細書では、第1のフィード(110)、たとえば、feed、および第2のフィード(120)、たとえば、feedとして示す。第1のフィード(110)に投入されるデータは第1のフィード・モダリティを表し、第2のフィード(120)に投入されるデータは第2のモダリティを表し、第1および第2のモダリティは異なる。説明の目的で、第1のフィード(110)はテキスト・データを含み、第2のフィード(120)は時系列データを含むが、フィードのモダリティの数は限定と見なされるべきではない。
図示のように、第1のフィード(110)は、自然言語処理(NLP)用に構成されるテキスト・モジュール(112)に動作可能に結合される。テキスト・モジュール(112)は、第1のフィード(110)に存在する単語間の意味的依存関係を学習し、それらを各ドキュメントの表現ベクトル(representative vector)へと集約し、または1つの実施形態では、各ニュース・ストーリーの表現ベクトルへと集約する。各期間tでのテキスト・モジュール(112)への入力は、ニュース・ストーリーまたは記事(article)のシーケンスnである。転じて、各ニュース・ストーリーまたはニュース記事もまた単語のシーケンスであり、個々に分析されてエンコードされる。j番目のニュース・ストーリーは
Figure 2023501469000002

のシーケンスであり、Kはシーケンスの長さであり、
Figure 2023501469000003

はシーケンス内のl番目(l=1,...,K)の単語のベクトル表現であり、Vは語彙サイズである。埋め込み層を使用して各ベクトル
Figure 2023501469000004

を低次元の密ベクトル
Figure 2023501469000005

に変換し、これは線形変換
Figure 2023501469000006

を用いて行われ、ただし、
Figure 2023501469000007

である。この変換により、単語の次元が語彙サイズVからdに削減され、d≪Vである。テキスト・モジュール(112)からの出力として、本明細書では、表現ベクトルのセット(114)を示している。各ベクトルは、ニュース記事またはドキュメントなどのテキスト・ベースのドキュメントを表す。1つの実施形態では、表現ベクトル(114)は、各ベクトルに関連付けられた対応するタイム・スタンプに基づいて順番に並べられる。たとえば、1つの実施形態では、各ベクトルは、記事の公開またはリリースを識別する対応するタイム・スタンプを有するニュース記事である。
それぞれが1つのテキスト記事またはドキュメント(110)に関するものである、埋め込まれた単語のシーケンス{e,e,...e}がテキスト・モジュール(112)に供給され、テキスト・モジュール(112)は、テキスト記事またはドキュメント(110)に関するエンコードされた文脈的特徴または表現ベクトルを生成するように学習する単層または多層LSTM(またはBi-LSTM)ネットワーク(112)によって実装される。ネットワーク(112)は、並べられた単語間の文脈的依存関係を調べて、最良のドキュメント表現を学習する。LSTMユニットの主要部分の1つは、時間の経過に伴う入力シーケンスの重要な情報を保存するメモリ・セル、およびセルに出入りする情報の流れを調節する非線形のゲーティング・ユニットである。入力シーケンス内の各ステップlにおいて、LSTMは、入力単語埋め込みe、その前のセル状態
Figure 2023501469000008

および前の出力ベクトル
Figure 2023501469000009

を取り込んで、メモリ・セル
Figure 2023501469000010

を更新し、その後、eの単語表現
Figure 2023501469000011

を出力する。両方とも
Figure 2023501469000012

であり、dは隠れニューロンの数である。したがって、LSTMは再帰関数fを次のように表す。l=1,...,Kに対して、
Figure 2023501469000013

メモリ・セル
Figure 2023501469000014

が内部で更新される。このネットワーク・コンポーネントは、期間tに収集された全てのニュース・ストーリーに適用され、ベクトルのシーケンスnews={s,s,...s}を出力し、nはタイム・スタンプtで収集されたニュース・ストーリーの総数である。ニュース・ストーリーなどのテキスト記事、または関連する単語のシーケンスに対して、各ベクトルが表現される。
AsyncLSTM(130)は、様々な長さの複数の入力シーケンスを管理するように構成される。本明細書に示すように、AsyncLSTM(130)は、第1の入力feed(110)からの埋め込まれたテキスト・ドキュメント(たとえば、ニュース・ストーリー)のシーケンス向けの入力(116)と、第2の入力feed(120)からの数値の時系列データの入力(122)とを含む、2つのモダリティからの入力を活用する。1つの実施形態では、第1の入力feed(110)は、news={s,s,...s}として表現ベクトルへとエンコードされたニュース・ストーリー向けのものである。AsyncLSTM(130)は、異なるデータ・モダリティからのエンコードされた特徴を非同期的な方法で反復的に融合する。AsyncLSTM(130)は、時系列をモデル化しながら、テキスト・モダリティと相互に関係付ける複数のステップを実行して、時系列で学習されたパターンに無関係なニュース・ベクトルを徐々に除外しつつ、時系列データの現在の挙動状態またはパフォーマンスとよく対応付くニュース・ベクトルを保持する。テキスト・データからのエンコード結果(114)および時系列データからのエンコード結果(132)を連結層(150)で組み合わせて、エンコード結果を単一のベクトルに集約し、多層パーセプトロン・ネットワーク(160)を通過させ、多層パーセプトロン・ネットワーク(160)は、定義された期間の時系列データの挙動のラベルの形態で出力(170)を生成する。
図2を参照すると、AsyncLSTMのメモリ・セル(280)の実例としてダイアグラム(200)が提供されている。図1で説明したように、AsyncLSTMは、本明細書ではテキスト・データとも呼ぶ、第1の入力feed(110)からの埋め込まれたテキスト・ストーリーのシーケンスと、第2の入力feed(120)からの数値の時系列データの入力(122)とを含む、2つのデータのモダリティを受け取る。テキストおよび時系列のモダリティは異なる周波数でサンプリングされているので、それらのシーケンスの長さは異なる。さらに、テキストは一般的なものであり、モデルにノイズをもたらし得る。AsyncLSTMは、様々な長さの複数の入力シーケンスを処理するように設計および構成される。本明細書で図示および説明しているモデルは、テキスト表現ベクトルと時系列の時間ステップとを相互に関係付ける複数のステップを用いて、2つのデータ・モダリティ間の相互の影響を活用する。AsyncLSTMは、時系列シーケンスを進むにつれて、時系列で学習されたパターンに無関係なニュース・ベクトルを徐々に除外し、時系列シーケンスに非常によく対応付くニュース・ストーリーへのアテンションの確率質量を取得する。
メモリ・セル(280)への入力は、第2の入力feedからの時系列データ(220)と、第1の入力feedからのテキスト・データ(210)とを含む。時系列データに関して、各時点tでの入力サンプル(220)は、
Figure 2023501469000015

と表されるm個の値のシーケンス(222)、および前の隠れ状態
Figure 2023501469000016

(224)である。同様に、newsのシーケンスなどの入力サンプル(212)は、{s,s,...s}と表され、また、前のセルの状態
Figure 2023501469000017

(214)である。ネットワークは、以下のようにニュース表現シーケンスの平均状態に適用される2つの別々の単層ニューラル・ネットワークを使用して、初期セル状態
Figure 2023501469000018

および初期隠れ状態
Figure 2023501469000019

を初期化することから始まる。
Figure 2023501469000020

ここで、
Figure 2023501469000021

であり、
Figure 2023501469000022

であり、
Figure 2023501469000023

であり、dはAsyncLSTM内のニューラル・ユニットの数であり、ネットワーク・パラメータはモデル全体で一緒に訓練される。
AsyncLSTMは、テキスト・ドメインで学習された情報を、実行する全てのステップに組み込んで、時系列について選択的に理由付け(reasoning)を行う。系列シーケンス(220)の各時間ステップlにおいて、AsyncLSTMはテキスト表現シーケンスを検索し、それらに確率質量を割り当て、この割り当ては、最新の隠れ状態(224)でキャプチャされた時系列シーケンスの学習された信号との対応付け(alignment)を目的としている。1つの実施形態では、各ニュース表現ベクトル(212)に関連する確率質量は、l番目のタイム・スタンプにおいて以下のように計算される。l=1,...,mに対して、
Figure 2023501469000024

Figure 2023501469000025

ここで、aはアライメント・ベクトルであり、p(230)は確率質量分布である。W、U、b、およびvは、ニューロンを接続し、調整の対象となる重みである。重みは次のように定義され、すなわち、
Figure 2023501469000026

Figure 2023501469000027

Figure 2023501469000028

および
Figure 2023501469000029

である。パラメータvは、各アライメント・ベクトルal,jをスカラーに変換し、softmax関数などの関数を通過させて、出力での確率質量を確保するように学習される。係数(230)は、ニュース表現シーケンス(212)にわたる確率質量分布である。それらの確率質量によってスケーリングされたこれらのベクトルからの情報は、適応的なコンテキスト・ベクトルv(240)を次のように生成することにより、時系列にわたる学習処理に影響を与える。
Figure 2023501469000030

ここで、vはゼロ・ベクトルとして初期化される。各期間tにおいて、係数(230)の最後の状態は、時系列モダリティのパフォーマンス/挙動に関するテキスト・モダリティの関連情報または相関情報をキャプチャする。
図示のように、AsyncLSTMは、関連するニュース・ストーリーの現在の表現と、前のコンテキスト・ベクトルvl-1(242)との平均情報として、最新のコンテキスト・ベクトルを構築する。テキスト・ニュースから集約されたベクトルは、gate(252)、gate(254)、gate(256)、およびgate(258)を含む全てのゲートへの情報フローを調節する。gate(252)で利用される関数fは、時系列データの現在の状態とテキスト・ニュースとの間のアライメント・ベクトルであり、
Figure 2023501469000031

と定義される。gate(254)で利用される関数iは、
Figure 2023501469000032

と定義される。gate(256)で利用される関数
Figure 2023501469000033

は、
Figure 2023501469000034

と定義される。gate(258)で利用される関数oは、
Figure 2023501469000035

と定義される。各ゲートにおいて、Uはニューラル・モデルの重み行列を表し、時間の経過と共に学習される。次いで、現在のセル状態
Figure 2023501469000036

(260)および隠れ状態
Figure 2023501469000037

(270)が更新され、AsyncLSTMの次のセルに入力として転送され、ここで、現在の状態は、
Figure 2023501469000038

と定義され、隠れ状態は、
Figure 2023501469000039

と定義される。隠れ状態は、時系列入力と、リカレント・ニューラル・ネットワーク(RNN)メモリ・セルと、テキスト・ニュースからの関連情報とに基づいて時系列データの新しい状態を推測するニューラル関数である。第1の入力フィードに対応するモダリティなどのテキスト・ニュース・ドメインで学習された情報を、第2の入力フィードに対応する時系列モダリティをモデル化する際の全てのステップに緊密に統合することにより、ニューラル・ネットワークは、時系列データの進行に伴って第1の入力フィード内の関連データを発見する際の作業の負担を分散させる。
第1の入力フィードで発見された関連データは、第2の入力フィード内のパターンを学習するために利用される。AsyncLSTMは、時系列を徐々に進むにつれて、第2の入力フィードで学習されたパターンと最も合致しない、第1の入力フィードからのデータを徐々に排除する。ニューラル・ネットワークは、最後の確率質量ベクトルpによってキャプチャされた第1の入力フィード内のデータのセットに収束し、そのベクトルのエントリを使用して、第1の入力フィードで表された個々のニュース・ストーリーの重要度を解釈する。
図3を参照すると、リカレント・ニューラル・ネットワークを使用したマルチモーダル・データの融合を説明するためのフロー・チャート(300)が提供されている。2つのモダリティがデータ・フィードとして定義および構成され、これには、第1のモダリティの第1のデータ・フィードを確立すること(302)と、第2のモダリティの第2のデータ・フィードを確立すること(304)とが含まれる。図示および説明しているモダリティは、第1のデータ・フィードで受け取られたテキスト・データと、第2のデータ・フィードで受け取られた時系列データとを含む。1つの実施形態では、追加のまたは異なるモダリティが利用され得、したがって、本明細書で図示および説明しているモダリティは限定と見なされるべきではない。入力フィード(302)および(304)のそれぞれは、異なる長さを有し得る。第1のデータ・フィードのテキスト・データは、図2で図示および説明したように、ベクトルのシーケンスへとエンコードされる(306)。ステップ(306)におけるテキストのエンコードされたベクトルの数量は、テキスト・データのサンプリング・サイズに基づく。第2のデータ・フィードで表される時系列データは、AsyncLSTMによって取り込まれ、長期的な依存関係を学習するために隠れ状態ベクトルへとエンコードされる(308)。AsyncLSTMは、時系列モダリティをモデル化しながら、第1のデータ・フィードのテキスト・モダリティと相互に関係付ける複数のステップを実行し、無関係なデータを徐々に除外しつつ、時系列データの現在の挙動状態およびパフォーマンスと対応付くデータを保持する(310)。より具体的には、ステップ(310)でのフィルタリングは、時系列データとテキスト・データとを比較して、対応付け、すなわち、フィードで表されたデータの関係が存在するか否かを確認および実行することを含む。第1のデータ・フィードおよび第2のデータ・フィードからのエンコード結果は融合され、たとえば、組み合わせられ(312)、定義された時間間隔中の第2のデータ・フィードの挙動を解釈するかまたは別の方法で説明する、第1のデータ・フィードからのデータの対応付けを表す。融合されたデータ(312)、たとえば、融合されたベクトルを、本明細書ではモダリティ間データとも呼ぶ。融合されたデータ(312)は、第2の入力フィードからの時系列の挙動およびパフォーマンスと密接に対応付けられた第1の入力フィードからのテキスト・データを表す。結果的に、データ・モダリティにまたがったデータのサブセットの対応付けが確認され、出力データとして返される。
図4を参照すると、マルチモーダル・データの融合をサポートするための統合された人工知能プラットフォームを有するコンピュータ・システム(400)の概略図が示されている。図示のように、ネットワーク接続(405)を介して複数のコンピューティング・デバイス(480)、(482)、(484)、(486)、(488)、および(490)と通信するサーバ(410)が提供される。サーバ(410)は、バス(414)を介してメモリ(416)と通信する処理ユニット(412)を有して構成される。サーバ(410)は、コンピューティング・デバイス(480)、(482)、(484)、(486)、(488)、および(490)のうちの1つまたは複数からネットワーク(405)を介して深層学習ニューラル・ネットワークをサポートするように構成される人工知能(AI)プラットフォーム(450)を有するものとして示している。より具体的には、コンピューティング・デバイス(480)、(482)、(484)、(486)、(488)、および(490)は、1つまたは複数の有線または無線あるいはその両方のデータ通信リンクを介して互いに通信し、また、他のデバイスまたはコンポーネントと通信し、各通信リンクは、ワイヤ、ルータ、スイッチ、送信機、受信機などのうちの1つまたは複数を含み得る。このネットワーク化された構成では、サーバ(410)およびコンピュータ・ネットワーク(405)は、通信の検出、認識、および解決を可能にする。サーバ(410)は、通信リンク(402)および(404)を介してコンピュータ・ネットワークと動作可能に通信する。リンク(402)および(404)は、有線または無線であり得る。サーバ(410)の他の実施形態は、本明細書に示した以外のコンポーネント、システム、サブシステム、またはデバイス、あるいはそれらの組み合わせと共に使用され得る。
AIプラットフォーム(450)は、本明細書では、深層学習技術を利用して2つ以上のモダリティにまたがってデータを融合するためのツールを有して構成されるものとして示している。より具体的には、ツールは、異なるデータ・モダリティからのエンコードされた特徴を非同期的な方法で反復的に融合する。本明細書に示すツールは、第1のデータ・フィード・マネージャ(452)および第2のデータ・フィード・マネージャ(454)を含む。第1のデータ・フィード・マネージャ(452)は、動作可能に結合されたデバイス(480)~(490)のうちの1つからリンク(402)を介して伝達される第1のデータ・フィードfeed(452)に動作可能に結合される。第1のデータ・フィードfeed(452)で表されるデータは、第1のモダリティを有する。同様に、第2のデータ・フィード・マネージャ(454)は、動作可能に結合されたデバイス(480)~(490)のうちの1つからリンク(402)を介して伝達される第2のデータ・フィードfeed(452)に動作可能に結合される。第2のデータ・フィードfeed(452)で表されるデータは、第2のモダリティを有する。第1および第2のモダリティは異なる。したがって、第1および第2のデータ・フィード・マネージャ、それぞれ、(452)および(454)は、ネットワーク接続(405)を介して複数のソースから収集される異種のデータ向けのものである。
第1および第2のデータ・フィード、それぞれ、(452)および(452)の各々が、処理の対象となる。より具体的には、第1のデータ・フィード・マネージャ(452)は、feed(452)にエンコードまたはエンコード処理を施し、第2のデータ・フィード・マネージャ(454)は、feed(452)にエンコードまたはエンコード処理を施す。第1のフィード(452)は第1のデータ・フィード・マネージャ(452)によって第1のベクトルのセット(462)へとエンコードされ、第2のフィード(452)は第2のデータ・フィード・マネージャ(454)によって第2のベクトルのセット(464)へとエンコードされる。テキスト・ベースのモダリティの場合、対応するデータ・フィード・マネージャは、単語間の意味的依存関係を学習し、対応するテキストを各入力テキスト・ドキュメントの表現ベクトルへと集約する。1つの実施形態では、エンコードおよび対応するエンコード処理は、並列に行われる。したがって、異なるデータ・モダリティを表す第1および第2のデータ・フィードには、対応するベクトルへのエンコードが施される。
図示のように、人工リカレント・ニューラル・ネットワーク(RNN)分析器(456)は、第1および第2のフィード・マネージャ、それぞれ、(452)および(454)に動作可能に結合される。分析器は、エンコードされた第1のデータ・フィード・モダリティおよび第2のデータ・フィード・モダリティの両方をモデル化し、モダリティの一方または両方の挙動の説明を提供するように機能する。1つの実施形態では、RNNは、図1で図示および説明した非同期の長短期記憶(AsyncLSTM)である。分析器(456)は、第1および第2のエンコードされたデータ・セット、それぞれ、(462)および(464)を分析する。この分析は、第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、融合することは、第1および第2のデータ・セットからのベクトルを組み合わせることを含み、この組み合わせは相関する時間的挙動を示す。
たとえば、1つの実施形態では、第1のデータ・フィードfeed(452)はタイム・スタンプ付きのテキスト・モダリティを表し、これはテキスト・ベースの記事、レポート、およびソーシャル・メディア・データ・フィードの形態であり得、第2のデータ・フィードfeed(452)は時系列データ・モダリティを表す。この例では、分析器(456)は時系列モダリティおよびテキスト・モダリティの両方をモデル化し、反復的かつ非同期的な融合によって、競争力のある予測精度を維持しながら、関連するニュース・ストーリーの簡潔なセットによる時系列の挙動の説明を提供する。分析器(456)による分析は、同じまたは異なるサンプリング周波数の少なくとも2つの時間的シーケンスからの情報を相互に関係付けるための探索を含む。融合することは、分析器(456)が、エンコードされた第2のデータ・セット(464)で確認されたパターンとは無関係な1つまたは複数の表現ベクトルを第1のデータ・フィード(452A)から除外することを伴う。したがって、分析器(456)は、第1のデータ・フィードのモダリティから学習された意味情報を全ての時間ステップに直接組み込んで、第2のデータ・フィードの時系列データ・モダリティの挙動について理由付けを行えるようにして、これを可能にする。
本明細書に示すツールは、第1および第2のフィード・マネージャ、それぞれ、(452)および(454)、ならびに分析器(456)を含むが、これらに限定されない。AIプラットフォーム(450)は、ネットワーク(405)を介してコンピューティング・デバイス(480)~(490)のうちの2つ以上から入力を受信し、本明細書ではコーパスまたは知識ベースとも呼ぶデータ・ソース(470)を活用して、RNNおよび他のデータに選択的にアクセスし得る。図示のように、データ・ソース(470)は、分析器(456)によって作成および管理される複数のデータ・セットおよび対応するRNNを有するライブラリ(472)を用いて構成される。たとえば、本明細書に示すように、ライブラリ(472)は、RNN(474)およびRNN(476)を含む2つのRNN、ならびに関連する第1および第2のデータ・セットを有するものとして示している。RNN(474)は第1のデータ・セット(474)および第2のデータ・セット(474)を含み、第1および第2のデータ・セットは異なるモダリティを有し、RNN(476)は異なるモダリティを有する第1のデータ・セット(476)および第2のデータ・セット(476)を含む。第1のデータ・セット(474)および(476)は第1のデータ・フィード・マネージャ(452)によってエンコードされ、第2のデータ・セット(474)および(476)は第2のデータ・フィード・マネージャ(454)によってエンコードされる。1つの実施形態では、第3のデータ・モダリティからなる第3のデータ・セットが、分析器(456)によってエンコードおよび管理され得る。追加のデータ・モダリティの数量は限定と見なされるべきではない。したがって、データ・セットおよび対応するニューラル・モデルは、サーバ(410)およびAIプラットフォーム(450)に動作可能に結合された知識ベース(470)に対してローカルなものとして示している。
分析器および対応するRNNが、第2のデータ・フィードで表された所与の時系列を説明する関連するテキスト情報を第1のデータ・フィードから教師なしで発見することは当技術分野では理解される。以下は、RNNおよび対応するデータ探索の適用例である。金融市場のユースケースの場合、市場は楽観的または悲観的であると予測される。市場予測は、株式の調整後終値の2次微分を用いて計算される。第1のモダリティは、株式に関連するまたは株式を識別するテキスト・データであり、第2のモダリティは、株式の価格および一定期間にわたる価格の変化を対象とする時系列データである。
Figure 2023501469000040


Figure 2023501469000041

および
Figure 2023501469000042

を3つの隣接する取引データの調整後終値とする。
Figure 2023501469000043

である場合、t+1日の市場心理は楽観的である。
Figure 2023501469000044

である場合、t+1の市場心理は悲観的である。
Figure 2023501469000045

である場合、t+1の市場の動きは上昇である。
Figure 2023501469000046

である場合、t+1の市場の動きは下落である。
他の例では、株式および金融ニュースからのマルチモダリティ・データを使用して金融市場のパフォーマンスを把握し、金融ニュース・データのシグナルが利用できる場合、金融市場のボラティリティを把握し、テキスト・ニュース・データの次の語句などの特定の部分が市場パフォーマンスに今後影響を及ぼすか否かを把握する。図5を参照すると、金融市場に適用された図1のニューラル・ネットワーク・アーキテクチャ(520)を説明するためのブロック図(500)が提供されている。図示のように、四半期報告書が第1のフィード(502)で表され、ニュース記事が第2のフィード(504)で表される。四半期報告書およびニュース記事はどちらもテキスト・データであり、自然言語処理(NLP)用に構成されるテキスト・モジュール(512)によって受け取られる。テキスト・モジュール(512)は、第1のフィード(502)および第2のフィード(504)に存在する単語間の意味的依存関係を学習し、それらを各ドキュメントの表現ベクトルへと集約し、または1つの実施形態では各ニュース・ストーリーの表現ベクトルへと集約する。各期間tでのテキスト・モジュール(512)への入力は、ニュース・ストーリーまたは記事のシーケンスnである。各ニュース・ストーリーまたはニュース記事は個々に分析されてエンコードされる。同様に、第3のデータ・フィード(506)は、株式取引データの形態の時系列データである。第3のデータ・フィードは、動作可能に結合された非同期LSTM(AsyncLSTM)ネットワーク(530)によって受け取られ、AsyncLSTMは、エンコードされた文脈的特徴を生成するように学習する。ニューラル・ネットワーク・アーキテクチャの残りの要素については、図1で図示および説明している。このアーキテクチャからの出力(574)は、株式の時系列の挙動およびパフォーマンス(572)に関連付けて最も関連性の高いニュース(570)をハイライトすることによる、ニュースのフィルタリングに向けたものである。より具体的には、ニュース(570)およびパフォーマンスの挙動(572)が出力(574)へと融合される。
ネットワーク(405)は、様々な実施形態では、ローカル・ネットワーク接続およびリモート接続を含み得、それによって、人工知能プラットフォーム(450)は、ローカルおよびグローバル、たとえば、インターネットを含む任意の規模の環境で動作し得る。さらに、AIプラットフォーム(450)は、ネットワーク・アクセス可能なソースまたは構造化データ・ソースあるいはその両方から抽出された、またはそれらにおいて表現された様々な知識を利用できるようにするフロントエンド・システムとして機能する。このように、いくつかの処理がAIプラットフォーム(450)に入力し、AIプラットフォーム(450)は、要求を受信し、それに応じて応答するための1つまたは複数の入力インターフェースまたはポータルも含む。
アプリケーション・プログラム・インターフェース(API)は、1つまたは複数のコンピューティング環境で実行され得る2つ以上のアプリケーション間の、たとえば、呼び出しプロトコルなどのソフトウェア媒介として当技術分野では理解される。図4で図示および説明したAIプラットフォーム(450)に関して、ツール(452)~(456)のうちの1つまたは複数およびそれらに関連する機能をサポートするための1つまたは複数のAPIが利用され得る。図6を参照すると、ツール(452)~(456)およびそれらに関連するAPIを示すブロック図(600)が提供されている。図示のように、複数のツールがAIプラットフォーム(605)に組み込まれ、ツールは、本明細書で(652)として示し、API(612)に関連付けられた第1のデータ・フィード・マネージャ(452)と、本明細書で(654)として示し、API(614)に関連付けられた第2のデータ・フィード・マネージャ(454)と、本明細書で(656)として示し、API(616)に関連付けられた分析器(456)とを含むが、これらに限定されない。各APIは、図4で説明した、それぞれに結合されたマネージャの機能をサポートして使用可能にし、1つまたは複数の言語およびインターフェース規格で実装され得る。API(612)は、第1のモダリティを有する第1のデータ・フィードを処理およびエンコードする機能的サポートを提供し、API(614)は、第1のモダリティとは異なる第2のモダリティを有する第2のデータ・フィードを処理およびエンコードする機能的サポートを提供し、API(616)は、2つ以上のモダリティにまたがってデータを融合し、同じまたは異なるサンプリング周波数の少なくとも2つの時間的シーケンスからの情報を相互に関係付ける機能的サポートを提供する。
図示のように、API(612)、(614)、および(616)のそれぞれはAPIオーケストレータ(670)に動作可能に結合され、これは別名オーケストレーション層として知られており、別々のAPIを一緒に透過的にスレッド化する抽象化層として機能することが当技術分野で理解される。1つの実施形態では、別々のAPIの機能が結合され得、または組み合わせられ得る。そのため、本明細書に示すAPIの構成は限定と見なされるべきではない。したがって、本明細書に示すように、ツールの機能は、それぞれのAPIによって具現化またはサポートされ得る。
本明細書で図示および説明する実施形態は、リスクを最小化するために1つまたは複数のドメインにまたがる活動のオーケストレーションを提供するためのインテリジェントなコンピュータ・プラットフォームで使用するためのコンピュータ・システムの形態であり得る。ツール(452)~(456)およびそれらに関連する機能の態様は、単一の場所のコンピュータ・システム/サーバで具現化され得、または1つの実施形態では、コンピューティング・リソースを共有するクラウド・ベースのシステムで構成され得る。図7を参照すると、図1~図6に関して上記で説明したシステム、ツール、および処理を実装するための、クラウド・コンピューティング環境(710)における、以下ホスト(702)と呼ぶコンピュータ・システム/サーバ(702)の例を示すブロック図(700)が提供されている。ホスト(702)は、他の多くの汎用または専用のコンピューティング・システム環境または構成で動作可能である。ホスト(702)での使用に適し得るよく知られているコンピューティング・システム、環境、または構成、あるいはそれらの組み合わせの例には、パーソナル・コンピュータ・システム、サーバ・コンピュータ・システム、シン・クライアント、シック・クライアント、ハンドヘルドもしくはラップトップ・デバイス、マルチプロセッサ・システム、マイクロプロセッサベースのシステム、セット・トップ・ボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピュータ・システム、メインフレーム・コンピュータ・システム、および上記のシステム、デバイスのいずれかを含むファイル・システム(たとえば、分散ストレージ環境および分散クラウド・コンピューティング環境)、ならびにこれらの均等物が含まれるが、これらに限定されない。
ホスト(702)は、コンピュータ・システムによって実行されるプログラム・モジュールなどのコンピュータ・システム実行可能命令の一般的なコンテキストで説明し得る。一般に、プログラム・モジュールには、特定のタスクを実行するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、ロジック、データ構造などが含まれ得る。ホスト(702)は、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される分散クラウド・コンピューティング環境において実践され得る。分散クラウド・コンピューティング環境では、プログラム・モジュールは、メモリ・ストレージ・デバイスを含むローカルおよびリモート両方のコンピュータ・システム記憶媒体に配置され得る。
図7に示すように、ホスト(702)は、汎用コンピューティング・デバイスの形態で示している。ホスト(702)のコンポーネントは、1つまたは複数のプロセッサまたは処理ユニット(704)、たとえば、ハードウェア・プロセッサと、システム・メモリ(706)と、システム・メモリ(706)を含む様々なシステム・コンポーネントをプロセッサ(704)に結合するバス(708)とを含み得るが、これらに限定されない。バス(708)は、メモリ・バスまたはメモリ・コントローラ、ペリフェラル・バス、アクセラレーテッド・グラフィックス・ポート、および様々なバス・アーキテクチャのいずれかを使用するプロセッサまたはローカル・バスを含む、いくつかのタイプのバス構造のいずれかの1つまたは複数を表す。限定ではなく例として、そのようなアーキテクチャには、業界標準アーキテクチャ(ISA)バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオ・エレクトロニクス規格協会(VESA)ローカル・バス、および周辺機器相互接続(PCI)バスが含まれる。ホスト(702)は、典型的には、様々なコンピュータ・システム可読媒体を含む。そのような媒体は、ホスト(702)によってアクセス可能な任意の利用可能な媒体であり得、揮発性および不揮発性の媒体、取り外し可能および取り外し不可能な媒体の両方を含む。
メモリ(706)は、ランダム・アクセス・メモリ(RAM)(730)またはキャッシュ・メモリ(732)あるいはその両方などの、揮発性メモリの形態のコンピュータ・システム可読媒体を含むことができる。単なる例として、取り外し不可能な不揮発性の磁気媒体(図示しない、典型的には「ハード・ドライブ」と呼ばれるもの)に読み書きするためのストレージ・システム(734)を設けることができる。図示していないが、取り外し可能な不揮発性の磁気ディスク(たとえば、「フロッピー(R)・ディスク」)に読み書きするための磁気ディスク・ドライブと、CD-ROM、DVD-ROM、または他の光学媒体などの取り外し可能な不揮発性の光学ディスクに読み書きするための光学ディスク・ドライブと、を設けることができる。そのような例では、それぞれを、1つまたは複数のデータ・メディア・インターフェースによってバス(708)に接続することができる。
プログラム・モジュール(742)のセット(少なくとも1つ)を有するプログラム/ユーティリティ(740)は、限定ではなく例として、オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データと同様に、メモリ(706)に記憶され得る。オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データまたはそれらの何らかの組み合わせのそれぞれは、ネットワーキング環境の一実装形態を含み得る。プログラム・モジュール(742)は一般に、深層学習技術を利用して2つ以上のモダリティにまたがってデータを融合するための実施形態の機能または方法論あるいはその両方を実行する。たとえば、プログラム・モジュールのセット(742)は、図4で説明したツール(452)~(456)を含み得る。
ホスト(702)はまた、キーボード、ポインティング・デバイスなどの1つまたは複数の外部デバイス(714)、ディスプレイ(724)、ユーザがホスト(702)とやり取りすることを可能にする1つまたは複数のデバイス、ならびに/あるいはホスト(702)が1つまたは複数の他のコンピューティング・デバイスと通信することを可能にする任意のデバイス(たとえば、ネットワーク・カード、モデムなど)と通信し得る。そのような通信は、入力/出力(I/O)インターフェース(722)を介して行うことができる。またさらに、ホスト(702)は、ネットワーク・アダプタ(720)を介して、ローカル・エリア・ネットワーク(LAN)、一般的なワイド・エリア・ネットワーク(WAN)、またはパブリック・ネットワーク(たとえば、インターネット)、あるいはそれらの組み合わせなどの、1つまたは複数のネットワークと通信することができる。図示のように、ネットワーク・アダプタ(720)は、バス(708)を介してホスト(702)の他のコンポーネントと通信する。1つの実施形態では、分散ファイル・システム(図示せず)の複数のノードは、I/Oインターフェース(722)またはネットワーク・アダプタ(720)を介してホスト(702)と通信する。図示していないが、他のハードウェアまたはソフトウェアあるいはその両方のコンポーネントを、ホスト(702)と併用できることを理解されたい。例には、マイクロコード、デバイス・ドライバ、冗長処理ユニット、外部ディスク・ドライブ・アレイ、RAIDシステム、テープ・ドライブ、およびデータ・アーカイブ・ストレージ・システムなどが含まれるが、これらに限定されない。
本文書では、「コンピュータ・プログラム媒体」、「コンピュータ使用可能媒体」、および「コンピュータ可読媒体」という用語は一般に、RAM(730)、キャッシュ(732)、およびストレージ・システム(734)、たとえば、リムーバブル・ストレージ・ドライブおよびハード・ディスク・ドライブに取り付けられたハード・ディスクなどを含むメイン・メモリ(706)などの媒体を指すために使用する。
コンピュータ・プログラム(コンピュータ制御ロジックとも呼ばれる)は、メモリ(706)に記憶される。コンピュータ・プログラムはまた、ネットワーク・アダプタ(720)などの通信インターフェースを介して受信され得る。そのようなコンピュータ・プログラムは、実行された場合に、コンピュータ・システムが本明細書で論じている本実施形態の機能を実行することを可能にする。具体的には、コンピュータ・プログラムは、実行された場合に、処理ユニット(704)がコンピュータ・システムの機能を実行することを可能にする。したがって、そのようなコンピュータ・プログラムは、コンピュータ・システムのコントローラを表す。
コンピュータ可読記憶媒体は、命令実行デバイスによる使用のために命令を保持および記憶可能な有形のデバイスとすることができる。コンピュータ可読記憶媒体は、たとえば、限定はしないが、電子ストレージ・デバイス、磁気ストレージ・デバイス、光学ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、またはこれらの任意の適切な組み合わせであり得る。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストには、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ダイナミックまたはスタティック・ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能読み取り専用メモリ(EPROMまたはフラッシュ・メモリ)、磁気ストレージ・デバイス、ポータブル・コンパクト・ディスク読み取り専用メモリ(CD-ROM)、デジタル・バーサタイル・ディスク(DVD)、メモリー・スティック(R)、フロッピー(R)・ディスク、命令が記録されたパンチ・カードまたは溝の隆起構造などの機械的にコード化されたデバイス、およびこれらの任意の適切な組み合わせが含まれる。コンピュータ可読記憶媒体は、本明細書で使用する場合、たとえば、電波または他の自由に伝搬する電磁波、導波管もしくは他の伝送媒体を伝搬する電磁波(たとえば、光ファイバ・ケーブルを通過する光パルス)、または有線で伝送される電気信号などの一過性の信号自体であると解釈されるべきではない。
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、あるいは、たとえば、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、もしくは無線ネットワーク、またはそれらの組み合わせなどのネットワークを介して外部コンピュータまたは外部ストレージ・デバイスにダウンロードすることができる。ネットワークは、銅線伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはそれらの組み合わせを含み得る。各コンピューティング/処理デバイスのネットワーク・アダプタ・カードまたはネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶する。
本実施形態の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいは、Java(R)、Smalltalk(R)、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または類似のプログラミング言語などの従来の手続き型プログラミング言語を含む、1つまたは複数のプログラミング言語の任意の組み合わせで書かれたソース・コードまたはオブジェクト・コードであり得る。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、スタンドアロン・ソフトウェア・パッケージとして、部分的にユーザのコンピュータ上かつ部分的にリモート・コンピュータ上で、あるいは完全にリモート・コンピュータもしくはサーバまたはサーバのクラスタ上で実行され得る。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)またはワイド・エリア・ネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続され得、または(たとえば、インターネット・サービス・プロバイダを使用してインターネットを介して)外部コンピュータへの接続がなされ得る。いくつかの実施形態では、たとえば、プログラマブル論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)を含む電子回路は、実施形態の態様を実行するために、コンピュータ可読プログラム命令の状態情報を利用してコンピュータ可読プログラム命令を実行することによって、電子回路を個人向けにし得る。
1つの実施形態では、ホスト(702)は、クラウド・コンピューティング環境のノードである。当技術分野で知られているように、クラウド・コンピューティングは、最小限の管理労力またはサービスのプロバイダとのやり取りによって迅速にプロビジョニングおよび解放することができる、設定可能なコンピューティング・リソース(たとえば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共有プールへの便利なオンデマンドのネットワーク・アクセスを可能にするためのサービス配信のモデルである。このクラウド・モデルは、少なくとも5つの特徴と、少なくとも3つのサービス・モデルと、少なくとも4つのデプロイメント・モデルとを含み得る。そのような特徴の例は以下の通りである。
オンデマンド・セルフ・サービス:クラウド・コンシューマは、サービスのプロバイダとの人的な対話を必要とせずに、必要に応じて自動的に、サーバ時間およびネットワーク・ストレージなどのコンピューティング能力を一方的にプロビジョニングすることができる。
ブロード・ネットワーク・アクセス:能力はネットワークを介して利用することができ、異種のシンまたはシック・クライアント・プラットフォーム(たとえば、携帯電話、ラップトップ、およびPDA)による使用を促進する標準的なメカニズムを介してアクセスされる。
リソース・プーリング:プロバイダのコンピューティング・リソースをプールして、様々な物理リソースおよび仮想リソースが需要に応じて動的に割り当ておよび再割り当てされるマルチ・テナント・モデルを使用して複数のコンシューマにサービス提供する。一般にコンシューマは、提供されるリソースの正確な位置に対して何もできず、知っているわけでもないが、より上位の抽象化レイヤ(たとえば、国、州、またはデータセンタなど)では位置を特定可能であり得るという点で位置非依存の感覚がある。
迅速な弾力性:能力を迅速かつ弾力的に、場合によっては自動的にプロビジョニングして素早くスケール・アウトし、迅速に解放して素早くスケール・インすることができる。コンシューマにとって、プロビジョニング可能な能力は無制限であるように見えることが多く、任意の時間に任意の数量で購入することができる。
測定されるサービス:クラウドシステムは、サービスのタイプ(たとえば、ストレージ、処理、帯域幅、およびアクティブ・ユーザ・アカウント)に適したある抽象化レイヤでの計量機能を活用して、リソースの使用を自動的に制御し、最適化する。リソース使用量を監視、管理、および報告して、利用されるサービスのプロバイダおよびコンシューマの両方に透明性を提供することができる。
サービス・モデルは以下の通りである。
ソフトウェア・アズ・ア・サービス(SaaS):コンシューマに提供される能力は、クラウド・インフラストラクチャ上で動作するプロバイダのアプリケーションを使用することである。アプリケーションは、ウェブ・ブラウザ(たとえば、ウェブ・ベースの電子メール)などのシン・クライアント・インターフェースを介して様々なクライアント・デバイスからアクセス可能である。コンシューマは、限定されたユーザ固有のアプリケーション構成設定を可能性のある例外として、ネットワーク、サーバ、オペレーティング・システム、ストレージ、さらには個々のアプリケーション機能を含む、基盤となるクラウド・インフラストラクチャを管理も制御もしない。
プラットフォーム・アズ・ア・サービス(PaaS):コンシューマに提供される能力は、プロバイダによってサポートされるプログラミング言語およびツールを使用して作成された、コンシューマが作成または取得したアプリケーションをクラウド・インフラストラクチャ上にデプロイすることである。コンシューマは、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含む、基盤となるクラウド・インフラストラクチャを管理も制御もしないが、デプロイされたアプリケーションおよび場合によってはアプリケーション・ホスティング環境構成を制御する。
インフラストラクチャ・アズ・ア・サービス(IaaS):コンシューマに提供される能力は、オペレーティング・システムおよびアプリケーションを含むことができる任意のソフトウェアをコンシューマがデプロイして動作させることが可能な、処理、ストレージ、ネットワーク、および他の基本的なコンピューティング・リソースをプロビジョニングすることである。コンシューマは、基盤となるクラウド・インフラストラクチャを管理も制御もしないが、オペレーティング・システム、ストレージ、デプロイされたアプリケーションを制御し、場合によっては選択したネットワーキング・コンポーネント(たとえば、ホスト・ファイアウォール)を限定的に制御する。
デプロイメント・モデルは以下の通りである。
プライベート・クラウド:クラウド・インフラストラクチャは組織専用に運用される。これは組織または第三者によって管理され得、構内または構外に存在し得る。
コミュニティ・クラウド:クラウド・インフラストラクチャはいくつかの組織によって共有され、共通の懸念(たとえば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンスの考慮事項など)を有する特定のコミュニティをサポートする。これは組織または第三者によって管理され得、構内または構外に存在し得る。
パブリック・クラウド:クラウド・インフラストラクチャは、一般大衆または大規模な業界団体に対して利用可能にされ、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:クラウド・インフラストラクチャは、固有のエンティティのままであるが、データおよびアプリケーションの移植性を可能にする標準化技術または独自技術(たとえば、クラウド間の負荷分散のためのクラウド・バースティング)によって結合された2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)を合成したものである。
クラウド・コンピューティング環境は、ステートレス性、低結合性、モジュール性、および意味論的相互運用性に重点を置いたサービス指向型である。クラウド・コンピューティングの中核にあるのは、相互接続されたノードのネットワークを含むインフラストラクチャである。
ここで図8を参照すると、例示的なクラウド・コンピューティング・ネットワーク(800)が示されている。図示のように、クラウド・コンピューティング・ネットワーク(800)は、1つまたは複数のクラウド・コンピューティング・ノード(810)を有するクラウド・コンピューティング環境(850)を含み、これらを使用して、クラウド・コンシューマによって使用されるローカル・コンピューティング・デバイスが通信し得る。これらのローカル・コンピューティング・デバイスの例には、パーソナル・デジタル・アシスタント(PDA)もしくは携帯電話(854A)、デスクトップ・コンピュータ(854B)、ラップトップ・コンピュータ(854C)、または自動車コンピュータ・システム(854N)、あるいはそれらの組み合わせなどが含まれるが、これらに限定されない。さらに、ノード(810)内の個々のノードは相互に通信し得る。これらは、たとえば、上述のプライベート、コミュニティ、パブリック、もしくはハイブリッド・クラウド、またはそれらの組み合わせなど、1つまたは複数のネットワークにおいて物理的または仮想的にグループ化され得る(図示せず)。これにより、クラウド・コンピューティング環境(800)は、クラウド・コンシューマがローカル・コンピューティング・デバイス上にリソースを維持する必要がない、インフラストラクチャ・アズ・ア・サービス、プラットフォーム・アズ・ア・サービス、またはソフトウェア・アズ・ア・サービス、あるいはそれらの組み合わせを提供することが可能になる。図8に示したコンピューティング・デバイス(854A~N)のタイプは例示的なものにすぎないことを意図しており、クラウド・コンピューティング環境(850)は、任意のタイプのネットワークまたはネットワーク・アドレス指定可能接続(たとえば、ウェブ・ブラウザを使用)あるいはその両方を介して任意のタイプのコンピュータ化デバイスと通信できることを理解されたい。
ここで図9を参照すると、図8のクラウド・コンピューティング・ネットワークによって提供される機能的抽象化レイヤ(900)のセットが示されている。図9に示したコンポーネント、レイヤ、および機能は例示的なものにすぎないことを意図しており、実施形態はこれらに限定されないことを事前に理解されたい。図示のように、以下のレイヤ、すなわち、ハードウェアおよびソフトウェア・レイヤ(910)、仮想化レイヤ(920)、管理レイヤ(930)、およびワークロード・レイヤ(940)、ならびに対応する機能が提供される。
ハードウェアおよびソフトウェア・レイヤ(910)は、ハードウェア・コンポーネントおよびソフトウェア・コンポーネントを含む。ハードウェア・コンポーネントの例には、メインフレーム、一例では、IBM(R)zSeries(R)システム、RISC(縮小命令セット・コンピュータ)アーキテクチャ・ベースのサーバ、一例では、IBM(R)pSeries(R)システム、IBM(R)xSeries(R)システム、IBM(R)BladeCenter(R)システム、ストレージ・デバイス、ネットワークおよびネットワーキング・コンポーネントが含まれる。ソフトウェア・コンポーネントの例には、ネットワーク・アプリケーション・サーバ・ソフトウェア、一例では、IBM(R)WebSphere(R)アプリケーション・サーバ・ソフトウェア、およびデータベース・ソフトウェア、一例では、IBM(R)DB2(R)データベース・ソフトウェアが含まれる。(IBM(R)、zSeries(R)、pSeries(R)、xSeries(R)、BladeCenter(R)、WebSphere(R)、およびDB2(R)は、世界中の多くの管轄区域で登録されたインターナショナル・ビジネスマシーン・コーポレーションの商標である)。
仮想化レイヤ(920)は抽象化レイヤを提供し、抽象化レイヤから、仮想エンティティの以下の例、すなわち、仮想サーバ、仮想ストレージ、仮想プライベート・ネットワークを含む仮想ネットワーク、仮想アプリケーションおよびオペレーティング・システム、ならびに仮想クライアントが提供され得る。
一例では、管理レイヤ(930)は、以下の機能、すなわち、リソース・プロビジョニング、計量および価格決定、ユーザ・ポータル、サービス・レイヤ管理、およびSLA計画および履行を提供し得る。リソース・プロビジョニングは、クラウド・コンピューティング環境内でタスクを実行するために利用されるコンピューティング・リソースおよび他のリソースの動的調達を提供する。計量および価格決定は、クラウド・コンピューティング環境内でリソースが利用されたときの費用追跡と、これらのリソースの消費に対する会計または請求とを提供する。一例では、これらのリソースはアプリケーション・ソフトウェア・ライセンスを含み得る。セキュリティは、クラウド・コンシューマおよびタスクの同一性検証だけでなく、データおよび他のリソースに対する保護も提供する。ユーザ・ポータルは、コンシューマおよびシステム管理者にクラウド・コンピューティング環境へのアクセスを提供する。サービス・レイヤ管理は、要求されるサービス・レイヤが満たされるような、クラウド・コンピューティング・リソースの割り当ておよび管理を提供する。サービス・レイヤ合意(SLA)の計画および履行は、SLAによれば将来要求されると予想されるクラウド・コンピューティング・リソースの事前手配および調達を提供する。
ワークロード・レイヤ(940)は、クラウド・コンピューティング環境が利用され得る機能性の例を提供する。このレイヤから提供され得るワークロードおよび機能の例には、マッピングおよびナビゲーション、ソフトウェア開発およびライフサイクル管理、仮想教室教育配信、データ分析処理、取引処理、ならびに深層学習モダリティ間データ分析、が含まれるが、これらに限定されない。
自然言語入力を評価し、対応するコミュニケーションにおいて質問を検出し、検出された質問を回答またはサポート・コンテンツあるいはその両方で解決するためのシステム、方法、装置、およびコンピュータ・プログラム製品を本明細書で開示していることは理解されよう。
本実施形態の特定の実施形態を図示および説明してきたが、実施形態およびそのより広い態様から逸脱することなく、本明細書の教示に基づいて変更および修正が行われ得ることは当業者には明らかであろう。したがって、添付の特許請求の範囲は、実施形態の真の範囲内にある全てのそのような変更および修正をその範囲内に包含するものとする。さらに、実施形態が、添付の特許請求の範囲によってのみ定義されることを理解されたい。導入する請求項要素の特定の数を意図する場合、そのような意図はその請求項に明示的に記載し、そのような記載がない場合、そのような制限は存在しないことが当業者によって理解されよう。非限定的な例では、理解を助けるものとして、以下の添付の特許請求の範囲は、請求項要素を導入するための導入語句「少なくとも1つ」および「1つまたは複数」の使用を含む。しかしながら、そのような語句の使用は、同じ請求項が「1つまたは複数」または「少なくとも1つ」という導入語句および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項要素の導入が、そのような導入した請求項要素を含む特定の請求項を、そのような要素をただ1つ含む実施形態に限定することを意味すると解釈されるべきではなく、特許請求の範囲での定冠詞の使用についても同じことが言える。
本実施形態は、システム、方法、またはコンピュータ・プログラム製品、あるいはそれらの組み合わせであり得る。さらに、本実施形態の選択した態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、あるいはソフトウェアもしくはハードウェアまたはその両方の態様を組み合わせた実施形態の形を取り得、これらの全てを一般に本明細書では「回路」、「モジュール」、または「システム」と呼び得る。さらに、本実施形態の態様は、本実施形態の態様をプロセッサに実行させるためのコンピュータ可読プログラム命令をその上に有するコンピュータ可読記憶媒体(または複数の媒体)に具現化されたコンピュータ・プログラム製品の形態を取り得る。開示したシステム、方法、またはコンピュータ・プログラム製品、あるいはそれらの組み合わせは、このように具現化されているので、深層学習技術を利用して2つ以上のモダリティにまたがってデータを融合するように機能する人工知能プラットフォームの機能および動作を改善するように動作する。
本実施形態の態様は、実施形態による方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照して本明細書で説明している。フローチャート図またはブロック図あるいはその両方の各ブロック、およびフローチャート図またはブロック図あるいはその両方におけるブロックの組み合わせが、コンピュータ可読プログラム命令によって実装できることは理解されよう。
これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラム可能データ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックにおいて指定された機能/動作を実装するための手段を生成するように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供されてマシンを作り出すものであってよい。また、これらのコンピュータ可読プログラム命令は、命令が記憶されたコンピュータ可読記憶媒体が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックにおいて指定された機能/動作の態様を実装する命令を含む製造品を構成するように、コンピュータ可読記憶媒体に記憶され、コンピュータ、プログラム可能データ処理装置、または他のデバイス、あるいはそれらの組み合わせに特定の方法で機能するように指示することができるものであってもよい。
また、コンピュータ可読プログラム命令は、コンピュータ、他のプログラム可能装置、または他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックにおいて指定された機能/動作を実装するように、コンピュータ実装処理を生成すべく、コンピュータ、他のプログラム可能データ処理装置、または他のデバイスにロードされ、コンピュータ、他のプログラム可能装置、または他のデバイス上で一連の動作ステップを実行させるものであってもよい。
図中のフローチャートおよびブロック図は、本実施形態の様々な実施形態によるシステム、方法、およびコンピュータ・プログラム製品の可能な実装形態のアーキテクチャ、機能、および動作を示している。これに関して、フローチャートまたはブロック図の各ブロックは、指定された論理的機能を実装するための1つまたは複数の実行可能命令を含むモジュール、セグメント、または命令の一部を表し得る。いくつかの代替的実装形態では、ブロックに記載した機能は、図示した順序以外で行われ得る。たとえば、関与する機能に応じて、連続して示した2つのブロックは、実際には実質的に同時に実行され得、またはそれらのブロックは、場合により逆の順序で実行され得る。ブロック図またはフローチャート図あるいはその両方の各ブロック、およびブロック図またはフローチャート図あるいはその両方におけるブロックの組み合わせは、指定された機能もしくは動作を実行するか、または専用ハードウェアおよびコンピュータ命令の組み合わせを実行する専用のハードウェア・ベースのシステムによって実装できることにも気付くであろう。
本明細書では特定の実施形態を例示の目的で記載しているが、実施形態の範囲から逸脱することなく様々な修正が行われ得ることは理解されよう。たとえば、本明細書で図示および説明したモダリティで表されるデータは、金融データ、気候データ、医療データ、およびコンピュータ・ビジョン・データを含み得る。したがって、実施形態の保護の範囲は、以下の特許請求の範囲およびそれらの均等物によってのみ限定される。

Claims (20)

  1. コンピュータ・システムであって、
    メモリに動作可能に結合されたプロセッサと、
    前記プロセッサと通信し、深層学習技術を利用してモダリティにまたがってデータを融合するための機械学習(ML)ツールを有する人工知能(AI)プラットフォームと、
    含み、前記ツールは、
    第1のデータ・セットに動作可能に結合された第1のデータ・フィード・マネージャであって、前記第1のデータ・セットは第1のデータ・フォーマットの第1のモダリティを有する、前記第1のデータ・フィード・マネージャと、
    第2のデータ・セットに動作可能に結合された第2のデータ・フィード・マネージャであって、前記第2のデータ・セットは第2のデータ・フォーマットの第2のモダリティを有し、前記第2のモダリティは前記第1のモダリティとは異なる、前記第2のデータ・フィード・マネージャと、
    を含み、
    前記第1のデータ・フィード・マネージャは、前記第1のデータ・セットを第1のベクトルのセットへとエンコードし、
    前記第2のデータ・フィード・マネージャは、前記第2のデータ・セットを第2のベクトルのセットへとエンコードし、
    前記ツールはさらに、
    前記第1および第2のデータ・フィード・マネージャに動作可能に結合された分析器であって、前記分析器は、人工リカレント・ニューラル・ネットワーク(RNN)を活用して、前記エンコードされた第1および第2のデータ・セットを分析し、前記分析は、前記第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、前記融合することは、相関する時間的挙動を示す前記第1および第2のデータ・セットからのベクトルを組み合わせることを含む、前記分析器
    を含み、
    前記融合されたベクトルは出力データとして返される、コンピュータ・システム。
  2. 前記第1のデータ・セットからの第1の入力データはタイム・スタンプ付きのテキスト・データ・フィードを表し、前記第2のデータ・セットからの第2の入力データは時系列データを表す、請求項1に記載のシステム。
  3. 前記反復的かつ非同期的な融合は、前記RNNが、前記第2のデータ・セットの前記時系列データの時間的挙動を前記第1のデータ・セットからのエンコードされた表現ベクトルと相互に関連付けることを含む、請求項2に記載のシステム。
  4. 前記反復的かつ非同期的な融合は、前記RNNが、前記エンコードされた第2のデータ・セットで確認されたパターンに無関係な1つまたは複数の表現ベクトルを前記第1のデータ・セットから除外することを含む、請求項2に記載のシステム。
  5. テキスト・ベースのモダリティをエンコードすることは、前記第1のデータ・フィード・マネージャが、単語間の意味的依存関係を学習し、前記テキストを各入力テキスト・ドキュメントの表現ベクトルへと集約することを含む、請求項2ないし4のいずれかに記載のシステム。
  6. 前記エンコードされた第1および第2のデータ・セットの分析は、前記RNNが、異なるサンプリング周波数の少なくとも2つの時間的シーケンスから情報を探索して相互に関係付けることをさらに含む、請求項1ないし5のいずれかに記載のシステム。
  7. 深層学習技術を利用してモダリティにまたがってデータを融合するための方法であって、
    コンピューティング・デバイスによって、マルチモーダル・データ・セットを受け取ることであって、前記マルチモーダル・データ・セットは、第1のモダリティを有する第1のデータ・セットおよび第2のモダリティを有する第2のデータ・セットを含む2つ以上のモダリティからの異なるフォーマットのデータを含む、前記受け取ることと、
    前記第1のデータ・セットを1つまたは複数の第1のベクトルへとエンコードすることと、前記第2のデータ・セットを1つまたは複数の第2のベクトルへとエンコードすることとを含む、前記第1および第2のデータ・セットを別々に処理することと、
    前記処理されたマルチモーダル・データ・セットを分析することであって、前記分析することは、前記第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、前記融合することは、相関する時間的挙動を示す前記第1および第2のデータ・セットからのベクトルを組み合わせることを含む、前記分析することと、
    前記融合されたベクトルを出力データとして返すことと、
    を含む、方法。
  8. 前記第1のデータ・セットからの第1の入力データはタイム・スタンプ付きのテキスト・データ・フィードを表し、前記第2のデータ・セットからの第2の入力データは時系列データを表す、請求項7に記載の方法。
  9. 前記反復的かつ非同期的な融合は、前記第2のデータ・セットの前記時系列データの時間的挙動を前記第1のデータ・セットからのエンコードされた表現ベクトルと相互に関連付けることを含む、請求項8に記載の方法。
  10. 前記反復的かつ非同期的な融合は、前記エンコードされた第2のデータ・セットで確認されたパターンに無関係な1つまたは複数の表現ベクトルを前記第1のデータ・セットから除外することを含む、請求項8に記載の方法。
  11. テキスト・ベースのモダリティをエンコードすることは、単語間の意味的依存関係を学習し、前記テキストを各入力テキスト・ドキュメントの表現ベクトルへと集約することを含む、請求項8ないし10のいずれかに記載の方法。
  12. 前記処理されたマルチモーダル・データ・セットを分析することは、異なるサンプリング周波数の少なくとも2つの時間的シーケンスから情報を探索して相互に関係付けることをさらに含む、請求項8ないし11のいずれかに記載の方法。
  13. 前記処理されたマルチモーダル・データ・セットを分析することであって、前記分析することは、前記第1および第2のデータ・モダリティからのエンコードされた特徴を反復的かつ非同期的に融合することを含み、前記融合することは、相関する時間的挙動を示す前記第1および第2のデータ・セットからのベクトルを組み合わせることを含む、前記分析することは、前記処理されたマルチモーダル・データ・セットを分析することであって、前記分析することは、前記第1および第2のデータ・モダリティからのエンコードされたベクトルを融合することを含み、前記融合することは、前記マルチモーダル・データに含まれる前記モダリティのデータのパフォーマンス挙動間の相関する時間的挙動を示す前記第1および第2のデータ・セットからのベクトルを組み合わせることを含む、前記分析することを含み、
    前記融合されたベクトルを出力データとして返すことは、共通の挙動をエンコードした前記融合されたベクトルを返すことを含む、
    請求項9ないし12のいずれかに記載の方法。
  14. 前記第1のモダリティはテキスト・データであり、前記第2のモダリティは時系列データであり、前記融合することは、前記時系列モダリティの現在の状態についての前記テキスト・データへのアテンションの確率質量を取得することをさらに含む、請求項13に記載の方法。
  15. 前記処理されたマルチモーダル・データ・セットを分析することは、深層学習技術を利用して前記モダリティにまたがってデータを融合することを含む、請求項13または14に記載の方法。
  16. 前記第1のデータ・セットからの第1の入力データはタイム・スタンプ付きのテキスト・データ・フィードを表し、前記第2のデータ・セットからの第2の入力データは数値の時系列データを表し、前記エンコードされたベクトルを融合することは、前記タイム・スタンプ付きのテキスト・データに照らして前記数値の時系列データを参照することをさらに含む、請求項14または15に記載の方法。
  17. 前記エンコードされたベクトルを融合することは教師なしで行われる、請求項13ないし16のいずれかに記載の方法。
  18. 前記マルチモーダル・データは、医療データ、気候データ、コンピュータ・ビジョン・データ、金融データ、またはそれらの組み合わせのうちの1つまたは複数を含む、請求項13ないし17のいずれかに記載の方法。
  19. 深層学習技術を利用してモダリティにまたがってデータを融合するためのコンピュータ・プログラム製品であって、
    処理回路によって読み取り可能であり、請求項7ないし18のいずれかに記載の方法を実行するための、前記処理回路によって実行するための命令を記憶するコンピュータ可読記憶媒体
    を備える、コンピュータ・プログラム製品。
  20. コンピュータ可読媒体に記憶され、デジタル・コンピュータの内部メモリにロード可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行された場合に、請求項7ないし18のいずれかに記載の方法を実行するためのソフトウェア・コード部分を含む、コンピュータ・プログラム。
JP2022526694A 2019-11-14 2020-11-10 リカレント・ニューラル・ネットワークを用いたマルチモーダル・データの融合 Pending JP2023501469A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/683,649 2019-11-14
US16/683,649 US11915123B2 (en) 2019-11-14 2019-11-14 Fusing multimodal data using recurrent neural networks
PCT/IB2020/060577 WO2021094920A1 (en) 2019-11-14 2020-11-10 Fusing multimodal data using recurrent neural networks

Publications (1)

Publication Number Publication Date
JP2023501469A true JP2023501469A (ja) 2023-01-18

Family

ID=75908197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022526694A Pending JP2023501469A (ja) 2019-11-14 2020-11-10 リカレント・ニューラル・ネットワークを用いたマルチモーダル・データの融合

Country Status (6)

Country Link
US (1) US11915123B2 (ja)
JP (1) JP2023501469A (ja)
CN (1) CN114730383A (ja)
AU (1) AU2020385264B2 (ja)
GB (1) GB2604552A (ja)
WO (1) WO2021094920A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102189311B1 (ko) * 2018-08-21 2020-12-09 두산중공업 주식회사 학습된 모델을 이용한 해석 장치 및 이를 위한 방법
JP2020052145A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 音声認識装置、音声認識方法、及び音声認識プログラム
US20210027157A1 (en) * 2019-07-24 2021-01-28 Nec Laboratories America, Inc. Unsupervised concept discovery and cross-modal retrieval in time series and text comments based on canonical correlation analysis
US11915123B2 (en) * 2019-11-14 2024-02-27 International Business Machines Corporation Fusing multimodal data using recurrent neural networks
CN113254741B (zh) * 2021-06-16 2021-09-28 苏州大学 基于融合模态内和模态间关系的数据处理方法及系统
CN113239184B (zh) * 2021-07-09 2021-11-02 腾讯科技(深圳)有限公司 知识库获取方法、装置、计算机设备及存储介质
CN113779934B (zh) * 2021-08-13 2024-04-26 远光软件股份有限公司 多模态信息提取方法、装置、设备及计算机可读存储介质
US20230206058A1 (en) * 2021-12-29 2023-06-29 Fidelity Information Services, Llc Processing sequences of multi-modal entity features using convolutional neural networks
CN115062328B (zh) * 2022-07-12 2023-03-10 中国科学院大学 一种基于跨模态数据融合的信息智能解析方法
CN115994541B (zh) * 2023-03-22 2023-07-07 金蝶软件(中国)有限公司 界面语义数据生成方法、装置、计算机设备和存储介质
CN116452241B (zh) * 2023-04-17 2023-10-20 广西财经学院 一种基于多模态融合神经网络的用户流失概率计算方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415268B1 (en) 1998-07-20 2002-07-02 Semmen I. Korisch Method of recovering the real value of a stock from the stock pricing data
US6532449B1 (en) 1998-09-14 2003-03-11 Ben Goertzel Method of numerical times series prediction based on non-numerical time series
US6745150B1 (en) 2000-09-25 2004-06-01 Group 1 Software, Inc. Time series analysis and forecasting program
US8285619B2 (en) 2001-01-22 2012-10-09 Fred Herz Patents, LLC Stock market prediction using natural language processing
US8867891B2 (en) * 2011-10-10 2014-10-21 Intellectual Ventures Fund 83 Llc Video concept classification using audio-visual grouplets
US8699852B2 (en) * 2011-10-10 2014-04-15 Intellectual Ventures Fund 83 Llc Video concept classification using video similarity scores
US11534122B2 (en) * 2012-09-20 2022-12-27 Virginia Tech Intellectual Properties, Inc. Stationary source computed tomography and CT-MRI systems
US9734730B2 (en) * 2013-01-31 2017-08-15 Sri International Multi-modal modeling of temporal interaction sequences
US9892745B2 (en) * 2013-08-23 2018-02-13 At&T Intellectual Property I, L.P. Augmented multi-tier classifier for multi-modal voice activity detection
US9476730B2 (en) * 2014-03-18 2016-10-25 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
WO2016100816A1 (en) 2014-12-19 2016-06-23 United Technologies Corporation Sensor data fusion for prognostics and health monitoring
DE102016101643A1 (de) * 2015-01-29 2016-08-04 Affectomatics Ltd. Filterung von durch bias verzerrten messwerten der affektiven reaktion
US10303768B2 (en) 2015-05-04 2019-05-28 Sri International Exploiting multi-modal affect and semantics to assess the persuasiveness of a video
US10185996B2 (en) 2015-07-15 2019-01-22 Foundation Of Soongsil University Industry Cooperation Stock fluctuation prediction method and server
US11087228B2 (en) * 2015-08-12 2021-08-10 Bae Systems Information And Electronic Systems Integration Inc. Generic probabilistic approximate computational inference model for streaming data processing
JP6966439B2 (ja) * 2015-11-20 2021-11-17 ジェネテック インコーポレイテッド メディア・ストリーミング
US10884503B2 (en) * 2015-12-07 2021-01-05 Sri International VPA with integrated object recognition and facial expression recognition
US10410113B2 (en) * 2016-01-14 2019-09-10 Preferred Networks, Inc. Time series data adaptation and sensor fusion systems, methods, and apparatus
US9805255B2 (en) * 2016-01-29 2017-10-31 Conduent Business Services, Llc Temporal fusion of multimodal data from multiple data acquisition systems to automatically recognize and classify an action
US10799186B2 (en) * 2016-02-12 2020-10-13 Newton Howard Detection of disease conditions and comorbidities
US10402697B2 (en) * 2016-08-01 2019-09-03 Nvidia Corporation Fusing multilayer and multimodal deep neural networks for video classification
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US10339421B2 (en) 2017-03-30 2019-07-02 Toyota Motor Engineering & Manufacturing North America, Inc. RGB-D scene labeling with multimodal recurrent neural networks
US20180300621A1 (en) 2017-04-13 2018-10-18 International Business Machines Corporation Learning dependencies of performance metrics using recurrent neural networks
US10431000B2 (en) 2017-07-18 2019-10-01 Sony Corporation Robust mesh tracking and fusion by using part-based key frames and priori model
US10664716B2 (en) * 2017-07-19 2020-05-26 Vispek Inc. Portable substance analysis based on computer vision, spectroscopy, and artificial intelligence
US10891539B1 (en) * 2017-10-31 2021-01-12 STA Group, Inc. Evaluating content on social media networks
CN108229662A (zh) 2018-01-03 2018-06-29 华南理工大学 一种基于两阶段学习的多模态时间序列建模方法
US20190341025A1 (en) * 2018-04-18 2019-11-07 Sony Interactive Entertainment Inc. Integrated understanding of user characteristics by multimodal processing
CN108805087B (zh) 2018-06-14 2021-06-15 南京云思创智信息科技有限公司 基于多模态情绪识别系统的时序语义融合关联判断子系统
CN108846375B (zh) 2018-06-29 2019-06-18 山东大学 一种基于神经网络的多模态协同学习方法及装置
US10223586B1 (en) * 2018-07-15 2019-03-05 Cognigo Research Ltd. Multi-modal electronic document classification
CN109376896B (zh) 2018-08-29 2022-05-20 国网重庆市电力公司南岸供电分公司 一种基于多模融合的配电网短期负荷预测方法
US11034357B2 (en) * 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
US10482334B1 (en) * 2018-09-17 2019-11-19 Honda Motor Co., Ltd. Driver behavior recognition
US10860873B2 (en) * 2018-09-17 2020-12-08 Honda Motor Co., Ltd. Driver behavior recognition and prediction
US20210397926A1 (en) * 2018-09-29 2021-12-23 VII Philip Alvelda Data representations and architectures, systems, and methods for multi-sensory fusion, computing, and cross-domain generalization
US20200175148A1 (en) * 2018-12-04 2020-06-04 George Mason University Collaborative context-aware visual authentication question protocol
CN109598387A (zh) 2018-12-14 2019-04-09 华东师范大学 基于双向跨模态注意力网络模型的股价预测方法及系统
CN110021165A (zh) 2019-03-18 2019-07-16 浙江工业大学 一种基于Autoencoder-LSTM融合模型的交通流预测方法
US11568315B2 (en) * 2019-03-22 2023-01-31 Royal Bank Of Canada Systems and methods for learning user representations for open vocabulary data sets
US11862145B2 (en) * 2019-04-20 2024-01-02 Behavioral Signal Technologies, Inc. Deep hierarchical fusion for machine intelligence applications
US11915123B2 (en) 2019-11-14 2024-02-27 International Business Machines Corporation Fusing multimodal data using recurrent neural networks
JP2023050146A (ja) 2021-09-29 2023-04-10 Ntn株式会社 スクロールコンプレッサの環状シール部材

Also Published As

Publication number Publication date
GB202208680D0 (en) 2022-07-27
US20210150315A1 (en) 2021-05-20
GB2604552A (en) 2022-09-07
WO2021094920A1 (en) 2021-05-20
US11915123B2 (en) 2024-02-27
AU2020385264B2 (en) 2023-12-14
CN114730383A (zh) 2022-07-08
AU2020385264A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
JP2023501469A (ja) リカレント・ニューラル・ネットワークを用いたマルチモーダル・データの融合
US11455473B2 (en) Vector representation based on context
US20200380017A1 (en) Automatic feature learning from a relational database for predictive modelling
US20220083906A1 (en) Federated learning technique for applied machine learning
US20200394542A1 (en) Automatic visualization and explanation of feature learning output from a relational database for predictive modelling
US10885332B2 (en) Data labeling for deep-learning models
US10956816B2 (en) Enhancing rating prediction using reviews
CN115461724A (zh) 应用的多对象优化
JP2023526579A (ja) 強化学習を用いた教師なしテキスト要約
US10671928B2 (en) Adaptive analytical modeling tool
CN113557534A (zh) 深度森林模型开发和训练
JP2023537082A (ja) 機械学習パイプラインの自動選択を最適化するためのメタ学習の活用
JP2023510241A (ja) 仮想エージェント対話システムの会話ログの検索方法、システム、プログラム
US11620334B2 (en) Commercial video summaries using crowd annotation
US11681501B2 (en) Artificial intelligence enabled open source project enabler and recommendation platform
US11556558B2 (en) Insight expansion in smart data retention systems
US20220207384A1 (en) Extracting Facts from Unstructured Text
US11734602B2 (en) Methods and systems for automated feature generation utilizing formula semantification
US20220083876A1 (en) Shiftleft topology construction and information augmentation using machine learning
US20220188674A1 (en) Machine learning classifiers prediction confidence and explanation
US11288322B2 (en) Conversational agents over domain structured knowledge
US11455467B2 (en) Relation extraction using full dependency forests
US11645110B2 (en) Intelligent generation and organization of user manuals
US10902046B2 (en) Breaking down a high-level business problem statement in a natural language and generating a solution from a catalog of assets
WO2022194086A1 (en) A neuro-symbolic approach for entity linking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240419

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20240419