JP7547653B2 - 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル - Google Patents

文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル Download PDF

Info

Publication number
JP7547653B2
JP7547653B2 JP2023561822A JP2023561822A JP7547653B2 JP 7547653 B2 JP7547653 B2 JP 7547653B2 JP 2023561822 A JP2023561822 A JP 2023561822A JP 2023561822 A JP2023561822 A JP 2023561822A JP 7547653 B2 JP7547653 B2 JP 7547653B2
Authority
JP
Japan
Prior art keywords
text
contextual
language model
text string
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023561822A
Other languages
English (en)
Other versions
JP2024520994A (ja
Inventor
ノーム・シェイザー
ダニエル・デ・フレイタス・アディワルダナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to JP2024065417A priority Critical patent/JP7547677B2/ja
Publication of JP2024520994A publication Critical patent/JP2024520994A/ja
Priority to JP2024141989A priority patent/JP7769062B2/ja
Priority to JP2024144022A priority patent/JP7793705B2/ja
Application granted granted Critical
Publication of JP7547653B2 publication Critical patent/JP7547653B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)
  • Stored Programmes (AREA)
  • Devices For Executing Special Programs (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

関連出願
本出願は、2021年5月21日に出願された米国仮特許出願第63/191,563号の優先権および利益を主張する。米国仮特許出願第63/191,563号は、その全体が参照により本明細書に組み込まれる。
本開示は、一般に、言語モデリングに対する機械学習の使用に関する。より詳細には、本開示は、文脈テキスト生成のサービスにおいて中間テキスト分析(たとえば、APIなどの構造ツールの使用を含む)を生成する機械学習済み言語モデルに関する。
自然言語処理(NLP)は、近年急速な発展が見られ、そのような進歩は主に、学習ベースのアルゴリズムおよび機械学習または「ニューラル」学習の他の態様における改善に起因する。NLPの分野における1つの特定のタスクは、文脈テキスト生成である。文脈テキスト生成タスクでは、エージェント(たとえば、機械学習モデル)が、与えられた文脈から出力テキストを生成する任務を負う。たとえば、与えられた文脈は、1つまたは複数の文脈テキスト文字列を含み得る。そのため、文脈テキスト生成タスクに対するいくつかの例示的な手法において、テキストツーテキストモデルが、入力文脈テキストを読み出し、次いで出力テキストを直接作成する。
文脈テキスト生成タスクの1つの例は、質問応答タスクである。質問応答タスクでは、質問が入力文脈であり、所望の出力が質問に対する応答である。文脈テキスト生成タスクの別の例は、対話生成である。対話生成では、入力文脈は会話履歴であり、所望の出力は次の発話であり、ここで次の発話は、会話履歴の文脈に応答するか、または場合によっては会話履歴の文脈の中で合理的である。
文脈テキスト生成に対する現在の最先端モデルは、GPT3(Brownら、Language Models are Few-Shot Learners, arXiv:2005.14165)のような左から右への言語モデル、ここで"<input> <output>"は1つのシーケンスと見なされる、かまたは、元のトランスフォーマ(Vaswaniら、Attention is All You Need, arXiv:1706.03762)のようなシーケンスツーシーケンスモデルのいずれかの、トランスフォーマベースのニューラルモデルである傾向がある。
しかしながら、GPT3およびトランスフォーマなどのニューラル言語モデルは、いくつかの欠点の影響を受ける。具体的には、ニューラル言語モデルは著しい知性を示すが、それらの知識は、それらの訓練データセットの中に含まれる(およびそれらから学習される)情報および/または文脈テキスト入力の中で導入された情報に制約される。したがって、事実情報のそれらの知識は極めて限定され、一般に時間的に凍結されている。そのため、事実情報を含む出力を作成することを要求されるとき、モデルは、一般的に、間違った事実を錯覚するか、または古い情報を供給するかのいずれかである。間違った事実情報への依存は、非効率性をもたらすことがあり、そこにおいて、間違った行動(たとえば、コンピューター化された行動)が取られ、訂正または場合によっては修正される必要があり、冗長で不必要なリソース(たとえば、計算リソース)の使用をもたらす。
ニューラル言語モデルの別の例示的な欠点として、それらの出力は、解釈または理解することが困難である。具体的には、そのようなモデルはしばしば、入力から出力を直接生成するので、そのようなモデルがなぜその出力を生成したのか、または入力のどの態様がその出力につながったのかを正確に理解することは困難である。言語モデル出力における解釈可能性の欠如は、モデル出力に対する信頼または信用の欠如をもたらすことがあり、それは、モデルの出力の正確さまたは有用性を「ダブルチェック」しようとする、不必要なオーバーヘッドまたは他の努力(たとえば、コンピュータ化された動作)をもたらすことがある。
Brownら、Language Models are Few-Shot Learners, arXiv:2005.14165 Vaswaniら、Attention is All You Need, arXiv:1706.03762
本開示の実施形態の態様および利点は、以下の説明において部分的に記載されるか、または説明から知ることができるか、または実施形態の実施を通して知ることができる。
本開示の1つの例示的な態様は、改善された解釈可能性を有する文脈テキスト生成のためのコンピューティングシステムを対象とする。コンピューティングシステムは、1つまたは複数のプロセッサと1つまたは複数の非一時的コンピュータ可読媒体とを含み、1つまたは複数の非一時的コンピュータ可読媒体は、文脈テキスト生成のサービスにおいてテキスト分析を実行する機械学習済み言語モデルと、1つまたは複数のプロセッサによって実行されるときにコンピューティングシステムに動作を実行させる命令とをまとめて記憶する。動作は、1つまたは複数の文脈テキストトークンを含む文脈テキスト文字列を取得することを含む。動作は、1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列を生成するために、機械学習済み言語モデルを用いて文脈テキスト文字列を処理することを含む。動作は、1つまたは複数の出力テキストトークンを含む出力テキスト文字列を生成するために、機械学習済み言語モデルを用いて1つまたは複数の中間テキスト文字列を処理することを含む。1つまたは複数の中間テキスト文字列は、出力テキスト文字列をサポートする文脈テキスト文字列のテキスト分析を含む。
本開示の別の例示的な態様は、改善された文脈テキスト生成のためのコンピュータ実装方法を対象とする。
方法は、複数の訓練タプルを取得するステップを含み、各訓練タプルは、1つまたは複数の文脈テキストトークンを含む例示的な文脈テキスト文字列と、1つまたは複数の中間テキストトークンを含む1つまたは複数の例示的な中間テキスト文字列と、1つまたは複数の出力テキストトークンを含む例示的な出力テキスト文字列とを含む。方法は、各訓練タプルに対して、訓練タプルの少なくとも一部を言語モデルに入力するステップと、予測される次のトークンを言語モデルの出力として受信するステップであって、予測される次のトークンは訓練タプルの一部を処理することによって言語モデルによって生成される、ステップと、言語モデルによって生成された予測される次のトークンを訓練タプルに含まれる実際の次のトークンと比較する損失関数を評価するステップと、損失関数の評価に基づいて言語モデルの1つまたは複数のパラメータの1つまたは複数の値を修正するステップとを含む。
本開示の他の態様は、様々なシステム、装置、非一時的コンピュータ可読媒体、ユーザインターフェース、および電子デバイスを対象とする。
本開示の様々な実施形態のこれらおよび他の特徴、態様、および利点は、以下の説明および添付の特許請求の範囲を参照すると、よりよく理解されよう。本明細書に組み込まれ、本明細書の一部を構成する添付の図面は、本開示の例示的実施形態を示し、この説明とともに、関連する原理について説明するために役立つ。
当業者を対象とする実施形態の詳細な説明が本明細書に記載され、本明細書は添付の図を参照する。
本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する例示的な機械学習済み言語モデルのブロック図である。 本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する例示的な機械学習済み言語モデルのブロック図である。 本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する機械学習済み言語モデルのための例示的な訓練プロセスのブロック図である。 本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する機械学習済み言語モデルのための例示的な訓練プロセスのブロック図である。 本開示の例示的な実施形態による、例示的コンピューティングシステムのブロック図である。 本開示の例示的な実施形態による、例示的コンピューティングデバイスのブロック図である。 本開示の例示的な実施形態による、例示的コンピューティングデバイスのブロック図である。
複数の図にわたって繰り返される参照番号は、様々な実装形態において同じ特徴を識別するものである。
概要
一般に、本開示は、文脈テキスト生成のサービスにおいて中間テキスト分析(たとえば、APIなどの構造ツールの使用を含む)を生成する1つまたは複数の機械学習済み言語モデルを含むかつ/または活用するシステムおよびモデルを対象にする。たとえば、コンピューティングシステムは、1つまたは複数の文脈テキストトークンを含む文脈テキスト文字列を取得することができる。コンピューティングシステムは、1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列を生成するために、機械学習済み言語モデルを用いて文脈テキスト文字列を処理することができる。コンピューティングシステムは、1つまたは複数の出力テキストトークンを含む出力テキスト文字列を生成するために、機械学習済み言語モデルを用いて1つまたは複数の中間テキスト文字列を処理することができる。1つまたは複数の中間テキスト文字列は、出力テキスト文字列をサポートする文脈テキスト文字列のテキスト分析を含むことができる。
したがって、本開示の態様は、文脈テキスト入力に応答して出力テキストを生成する(たとえば、質問または前の対話に対する応答を生成する)前に(たとえば、そのサービス中に)テキスト分析を生成するようにモデルに教示することによって、知識、基礎訓練(grounding)、および機械学習済み言語モデルの解釈可能性を改善する。そのような中間テキスト分析の生成は、モデル出力の解釈可能性を改善することができる。特に、中間テキスト分析は、モデルが文脈入力に応答して出力をどのように生成したかを解釈または理解するために再検討または検査され得る。これはまた、特定のタスクをサービスすることにおいて出力の信頼性および/または適合性の評価を容易にし得る。
本開示の別の態様によれば、いくつかの実装形態では、テキスト分析は、追加の情報へのアクセスを提供する構造ツールの使用を含むかつ/または活用することができる。たとえば、中間テキスト分析に含まれる1つまたは複数の中間テキストトークンは、文脈テキスト文字列に含まれないおよび/またはモデルが訓練された訓練データに含まれない追加の情報にアクセスするために構造ツールの使用を引き起こす少なくとも1つのツールトークンを含むことができる。したがって、言語モデルは、最新式、事実、ドメイン固有、クライアントもしくはユーザ固有などであり得る追加の情報へのアクセスを有するためにそのような構造ツールを呼び出して使用することができる。これは、テキスト出力を形成するときに言語モデルに利用可能な知識を改善し、様々な使用事例に対する様々な情報源の導入を可能にすることによってシステムの柔軟性をさらに改善する。機械学習プロセスは、そのようなサービス、たとえばツールトークンの呼び出しにおける計算オーバーヘッドを最小化するために適用され得、それらが生成される順序は、レイテンシおよび/またはネットワーク使用などの計算オーバーヘッドを最小化するように適応され得るので、本開示の手法は、外部ツールとの改善されたまたは最適化された一体化を達成し得る。
例として、機械学習済み言語モデルの構造ツールは、データベースから追加の情報にアクセスするためのデータベース検索、アプリケーションプログラミングインターフェース(API)を介して追加の情報を要求して受信するためのAPI呼び出し、入力テキストトークン上で1つまたは複数の動作のシーケンスを実行するプログラミング言語インタープリタ、検索エンジン、ナレッジグラフまたはデジタルアシスタントからの結果をクエリするクエリサービス、通信(たとえば、電子メール、ショートメッセージサービスメッセージ、マルチメディアメッセージングサービスメッセージ、アプリケーションベースのチャットメッセージなど)を生成して別のデバイスまたはユーザに送信する通信クライアント、および/または追加の情報へのアクセスを生成するかまたは場合によっては提供する様々な他の形式の構造ツールを含めるためのアクセスを有し得る。したがって、構造ツールは、情報を調べることに限定されず、副次効果を有すること、または行動(たとえば、会議を予約すること、何かを購買すること、チケットを人に提出することなど)を引き起こすこともできる。
本明細書で説明する機械学習済み言語モデルは、いくつかの異なる手法において訓練され得る。一例では、ヒューマンボランティアまたはクラウドワーカーは、いくつかの(たとえば、数千の)例に対して例示的な中間分析テキストを生成することができる。たとえば、ヒューマンワーカーは、文脈入力テキストと出力テキストのペアを与えられ、ヒューマンワーカーは、出力テキストをもたらすかまたは場合によってはサポートする文脈入力テキストの分析を示す中間分析テキストを生成することができる。ヒューマンワーカーは、構造ツールおよびそのようなツールのそれらの使用へのアクセスを与えられ得、取得された対応する情報は、例示的な中間分析テキスト内に含められ得る。
中間分析(事例を訓練中、またはモデルによって生成されるときのいずれか)は、いくつかの例では、代数の問題に対する多段階解法など、人間が読み取れる形成におけるステップバイステップ論理を含むことができる。それは、本明細書の他の場所で説明するように、データベース、pythonインタープリタ、検索エンジンなど、外部のテキストツーテキストツールの使用も含むことができる。いくつかの実装形態では、中間分析セクションにおけるツール使用は、どのツールが使用されたかを明記し、ツールの入力および出力を記述する特別なタグによってマークおよび/またはトリガされ得る。中間テキストは、ツール使用の複数のインスタンス、ならびに任意の量の自由形式テキストを含むことができる。
したがって、中間分析は、入力パラメータの構造化リストを取り込み、構造化出力(たとえば、do_thing(a: int, b: List[str]) --> response_object)を戻すツール(たとえば、API)の使用を含むことができる。しかしながら、任意の構造化入力/出力はまた、Google ProtosまたはJSONのテキストシリアライゼーションなど、いくつかのシリアライゼーション方法を使用して自由テキストにシリアライズされ、フリーテキストからパースされ得る。その観点から、テキストツーテキストインターフェースは、構造化インターフェースの上位集合であり得る。
例示的な訓練データセットを生成するために、ヒューマンアノテータによって生成された例示的な中間分析テキストが、訓練タプルを形成するために文脈入力テキストと出力テキストのペアと組み合わされ得、訓練タプルは、1つまたは複数の文脈テキストトークンを含む例示的な文脈テキスト文字列と、1つまたは複数の中間テキストトークンを含む1つまたは複数の例示的な中間テキスト文字列と、1つまたは複数の出力テキストトークンを含む例示的な出力テキストストリングとを含む。したがって、いくつかの実装形態では、ヒューマンアノテータは、例示的な文脈テキスト文字列および例示的な出力テキスト文字列を与えられ得、ヒューマンアノテータは、例示的な中間テキスト文字列を生成することができる。他の実装形態では、ヒューマンアノテータは、例示的な文脈テキスト文字列だけを与えられ得、ヒューマンアノテータは、例示的な中間テキスト文字列と例示的な出力テキスト文字列の両方を生成することができる。
本明細書で説明するような訓練データセットは、言語モデルを訓練するために使用され得る。たとえば、訓練データセットは、テラスケールの教師なしデータ上で事前訓練されたモデルを微調整するために使用され得る。一例として、モデルは、訓練タプルに含まれる次のトークン(たとえば、次の中間テキストトークンまたは次の出力テキストトークン)を予測するためにモデルを使用することによって訓練され得る。損失関数は、次のトークンを予測するためにモデルの能力を評価するために使用され得る。モデルのパラメータは、損失関数に基づいて(たとえば、逆伝搬ベースの技法を介して)更新され得る。いくつかの実装形態では、各訓練タプル上でモデルを訓練することは、中間テキスト文字列に含まれる各トークン上でトークンごとに反復して訓練し、続いて各トークンが出力テキスト文字列に含められることを含むことができる。
別の例では、言語モデルは、強化学習手法を使用して文脈言語生成のサービスにおいて中間テキストを生成するように訓練され得る。たとえば、モデルによって生成された中間テキストおよび/または出力テキストの態様は、報酬を決定するために目的関数によって評価され得、次いで報酬はモデルパラメータを更新するために使用され得る。
次いで、推論時に、言語モデルは、入力を与えられた中間分析を生成するために使用され得る。いくつかの実装形態では、中間分析は、一度に1つのトークンを生成され得る。いくつかの実装形態では、モデルが外部ツールへの入力の生成を終えるたびに、ツール自体が、ツール出力を生成するためにこの入力によって呼び出され、ツール出力は中間テキストに付加され、モデルはそこから生成することを継続する。
したがって、本開示の態様は、同じくテキストである中間分析部を有するために、(入力、出力)訓練例および言語生成パラダイムを拡張することを提案する。そのため、単に入力を与えられて出力を生成する代わりに、言語モデルは、入力を与えられて中間分析を生成し、次いで入力および中間分析を与えられて出力を生成するように学習することができる。
したがって、対話エージェント(または、任意の他の文脈テキスト生成モデル)が、与えられた文脈に対する応答を直接生成することができるために、(文脈、応答)ペア上で一般的に訓練されるのに反して、本開示の例示的な実装形態では、言語モデルは、代わりに、(文脈、中間分析、応答)トリプル上で訓練することができ、モデルは、(中間分析|文脈)および(応答|文脈、中間分析)を生成するように学習する。
いくつかの実装形態では、本明細書で説明するように生成された出力テキストは、オーディオ出力を生成するために音声合成システム(text to speech system)を使用してさらに処理され得る。別の例として、入力テキストが、テキストシステムに対する発話を使用してオーディオ入力から生成され得る。たとえば、仮想アシスタントが、オーディオ入力および出力を介してユーザと対話することができ、オーディオ/発話からテキストへの変換は、仮想アシスタントによる処理が本明細書で説明するテキストドメイン内で発生することを可能にするために使用され得る。
本開示のシステムおよび方法は、いくつかの技術的効果と利益とを提供する。一例として、提案されたモデルは、改善された解釈可能性を示す。たとえば、モデルによって生成された中間テキスト分析は、モデルが文脈入力に応答して出力をどのように生成したかを解釈または理解するために再検討または検査され得る。改善された解釈可能性は、プロセッサ使用量、メモリ使用量などの計算リソースのより効率的な使用につながることができる。たとえば、言語モデル出力における解釈可能性の欠如は、モデル出力に対する信頼または信用の欠如をもたらすことがあり、それは、モデルの出力の正確さまたは有用性を「ダブルチェック」しようとする、不必要なオーバーヘッドまたは他の努力(たとえば、コンピュータ化された動作)をもたらすことがある。解釈可能性を改善することによって、コンピュータ化されたシステムにおける信頼が改善され得る。特に、モデル出力の信頼性は、特定のタスクに対するシステムの有用性を確立するために検証および/または評価され得る。
別の例示的な技術的効果および利益として、提案された手法は、言語モデルが追加の事実情報などの追加の情報にアクセスするために構造ツールを活用することを可能にする。したがって、言語モデルは、最新式、事実、ドメイン固有、クライアントもしくはユーザ固有などであり得る追加の情報へのアクセスを有するためにそのような構造ツールを呼び出して使用することができる。これは、テキスト出力を形成するときに言語モデルに利用可能な知識を改善し、様々な使用事例に対する様々な情報源の導入を可能にすることによってシステムの柔軟性をさらに改善する。
モデルの出力の品質を改善することに加えて、構造ツールの提案される使用はまた、プロセッサ使用量、メモリ使用量、ネットワーク帯域幅などの計算リソースの節約につながる。具体的には、以前の言語モデルに利用可能な知識は、それらの訓練データセットに含まれる(およびそれらから学習される)情報および/または文脈テキスト入力の中で導入された情報に制約された。したがって、事実情報のそれらの知識は極めて限定され、一般に時間的に凍結されている。そのため、事実情報を含む出力を作成することを要求されるとき、モデルは、一般的に、間違った事実を錯覚するか、または古い情報を供給するかのいずれかである。それゆえ、言語モデル全体は、実世界の事実の変化につれて言語モデルを最新のものに保つため、言語モデルをユーザ情報の新しいドメインまたはセットに移植するため、または場合によってはモデルを新しい情報が未解決であった新しい状況に展開するために、再訓練される必要がある。言語モデルの再訓練は、プロセッサ使用量、メモリ使用量、ネットワーク帯域幅などの計算リソースの使用を必要とする。
しかしながら、本開示によって提案される構造ツールの使用は、実世界の事実の変化につれて言語モデルを最新のものに保つため、言語モデルをユーザ情報の新しいドメインまたはセットに移植するため、または場合によってはモデルを新しい情報が未解決であった新しい状況に展開するためにモデルを再訓練する必要を取り除く。代わりに、モデルは、単に、最新式、事実、ドメイン固有、クライアントもしくはユーザ固有などであり得る追加の情報へのアクセスを(たとえば、構造ツールを介して)を与えられ得る。したがって、モデルは、異なるドメイン、使用、ユーザなどに容易に移植され得、かつ/またはモデルを再訓練する必要なしに、最新の事実情報を活用する応答を提供することができ、それにより計算リソースを大幅に節約する。(潜在的に外部の)情報源とインターフェースし得る中間分析の形式の文脈を符号化することによって、処理は、情報および/または機能の提供における技術的制約の解決に寄与し得る。
同様に、別の例示的な技術的効果が、様々な入力に応答するために必要な情報のすべてを(たとえば、学習済みの関係性の形式で)記憶することを必要とせずに、情報を取得するために外部ソースを活用するためにモデルの能力から導出される。特に、過去の手法は、様々な入力および出力の間の関係性を学習して記憶するために十分なサイズ(たとえば、パラメータの数)を有する大きいモデルの記憶および(たとえば、制約されたメモリおよび/またはバッテリの利用可能性を有するユーザデバイス上での)使用を必要とした。対照的に、本開示のいくつかの例示的な実装形態は、ユーザデバイスまたは他のモバイルクライアントもしくはブラウザ上で存在するために「薄い」(より小さい)モデルを可能にし得る。薄いモデルは、バッテリ、計算、記憶、更新などを節約するために様々な構造ツール(たとえば、クラウドサービス)を活用することができる。したがって、構造ツールへのアクセスを有するより小さいモデルが、大きい自己完結型のモデルと同様の、またはそれより優れた性能を達成することができ、それによりメモリ使用量、ネットワーク帯域幅、エネルギー消費などの計算リソースを節約する。
次に図を参照しながら、本開示の例示的実施形態について、さらに詳細に説明する。
中間テキスト分析を生成する例示的な言語モデル
図1は、本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する例示的な機械学習済み言語モデルのブロック図を示す。具体的には、言語モデル14は、1つまたは複数の文脈テキストトークンを含む文脈テキスト文字列12を受信することができる。言語モデル14は、1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列16を生成するために、文脈テキスト文字列12を処理することができる。言語モデル14は、1つまたは複数の出力テキストトークン18を含む出力テキスト文字列を生成するために、1つまたは複数の中間テキスト文字列16を処理することができる。1つまたは複数の中間テキスト文字列16は、出力テキスト文字列18を生成するために文脈テキスト文字列12の論理分析をサポートする、もたらす、証明する、または場合によっては示す文脈テキスト文字列12のテキスト分析を含むことができる。
本開示の態様によれば、いくつかの実装形態では、1つまたは複数の中間テキストトークン16は、文脈テキスト文字列12に含まれない追加の情報にアクセスするために構造ツール15の使用を引き起こす少なくとも1つのツールトークンを含むことができる。いくつかの実装形態では、構造ツール15は、データベースから追加の情報にアクセスするためのデータベース検索を含むことができる。いくつかの実装形態では、構造ツール15は、アプリケーションプログラミングインターフェース(API)を介して追加の情報を要求して受信するためのAPI呼び出しを含むことができる。いくつかの実装形態では、構造ツール15は、入力テキストトークン上で1つまたは複数の動作のシーケンスを実行するプログラミング言語インタープリタを含むことができる。いくつかの実装形態では、構造ツール15は、検索エンジン、ナレッジグラフ、またはデジタルアシスタントからの結果をクエリするクエリサービスを含むことができる。ツールトークンに加えて、1つまたは複数の中間テキストトークン16は、少なくとも1つの自然言語テキストトークンをさらに含むことができる。
いくつかの実装形態では、機械学習済み言語モデル14がツールトークンを生成するとき、コンピューティングシステムは、機械学習済み言語モデルを中断することと、追加の情報にアクセスするために構造ツール15を実行することと、1つまたは複数の中間テキスト文字列16の現在のバージョンに追加の情報を付加することと、1つまたは複数の中間テキスト文字列16の現在のバージョンおよび付加された追加の情報に基づいて機械学習済み言語モデル14を用いてテキスト生成を再開することとを行うことができる。
いくつかの実装形態では、機械学習済み言語モデル14は、トークンごとに動作する。そのような実装形態の一部では、1つまたは複数の中間テキスト文字列16を生成するとき、言語モデル14は、各生成された中間テキストトークン16を再帰的に入力として受信する。
したがって、いくつかの実装形態では、1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列16を生成するために機械学習済み言語モデル14を用いて文脈テキスト文字列12を処理することが、いくつかの反復にわたって実行され得る。第1の反復において、コンピューティングシステムは、1つまたは複数の中間テキストトークンを含む第1の中間テキスト文字列16を生成するために、機械学習済み言語モデル14を用いて文脈テキスト文字列12を処理することができる。次いで、コンピューティングシステムは、更新された文脈テキスト文字列を生成するために、文脈テキスト文字列12に第1の中間テキスト文字列16を付加することができる。次いで、1つまたは複数の追加の反復の各々に対しておよび機械学習済み言語モデルが閉止トークンを出力するまで、コンピューティングシステムは、1つまたは複数の中間テキストトークンを含む追加の中間テキスト文字列16を生成するために、機械学習済み言語モデル14を用いて更新された文脈テキスト文字列を処理することができる。コンピューティングシステムは、次の反復に対して更新された文脈テキスト文字列を生成するために、更新された文脈テキスト文字列に追加の中間テキスト文字列を付加することができる。
機械学習済み言語モデル14は、例として回帰型ニューラルネットワーク、マルチヘッドセルフアテンションモデル、シーケンスツーシーケンスモデル、および/または他の形式の言語モデルを含む様々なタイプのモデルであり得るか、またはそれらを含むことができる。言語モデルは、クローズモデル(cloze model)であり得るか、または左から右へのモデルであり得る。言語モデルは、随意に、エンコーダデコーダアーキテクチャを有することができる。
いくつかの例示的な実装形態では、機械学習済み言語モデル14は、質問応答モデルであり得、文脈テキスト文字列12は、質問であり得るか、またはそれを含むことができる。いくつかの例示的な実装形態では、機械学習済み言語モデル14は対話モデルであり得、文脈テキスト文字列12は対話履歴であり得るか、またはそれを含むことができる。
いくつかの実装形態では、文脈テキスト文字列12の少なくとも一部は、ユーザによって入力されたテキストを含むか、またはそれに対応する。いくつかの実装形態では、コンピューティングシステムは、ユーザに表示するために少なくとも出力テキスト文字列18を提供することができる。
図2は、本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する例示的な機械学習済み言語モデル14のブロック図を示す。特に、図2において文脈テキスト文字列12がベース言語モデル202に追加で入力されることを除いて、図2は図1と同様である。ベース言語モデル202は、いくつかの実装形態では、中間テキスト文字列を生成することなく、文脈テキスト文字列12からベース出力204を直接生成するように構成される。図2に示すように、ベース出力204は、文脈テキスト文字列12と組み合わされ(たとえば、それに付加または連結され)、組み合わされたストリングは、次いで機械学習済み言語モデル14に入力される。
この方式でのベース言語モデル202の使用は、機械学習済み言語モデル14の役割が、誤り訂正または「事実確認」の役割に変わることを可能にすることができる。特に、図1では、モデル14は主に、出力テキスト18を生成する責任を負う。対照的に、図2では、モデル14の役割は、ベース出力204に含まれる事実を補足または訂正することであり得る。このようにして、既存のベース言語モデル202は、構造ツール15へのアクセスを有するモデル14の追加を通して拡張または活用され得る。
たとえば、これは、様々なタスク、文脈、ドメイン、ユーザ、アプリケーションなどに対してすでに訓練されている、任意の数の様々な既存のベースモデルにモデル14およびツール15を適用することを可能にする。したがって、カスタム言語モデルをすでに有する任意のアプリケーションが、文脈言語出力を生成するときに事実情報または最新の情報の改善された使用を提供するために、追加のモデル14と組み合わされ得る。
図3は、本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する機械学習済み言語モデルのための例示的な訓練プロセスのブロック図を示す。具体的には、図3は、教師あり訓練手法を示す。
図3に示すように、いくつかの訓練テキストトークン312が取得され得る。訓練テキストトークン312の一部が、言語モデル314に入力され得る。モデル314は、訓練テキストトークン312に対する次の予測されるテキストトークン316を予測することができる。たとえば、次の予測されるテキストトークンは、例示的な中間テキストトークンであり得るか、または例示的な出力トークンであり得る。次の予測されるテキストトークン316は、損失関数318を使用して訓練テキストトークン312に含まれるグラウンドトゥルーステキストトークンと比較され得る。モデル314のパラメータは、(たとえば、対数損失関数または同様の)損失関数318に基づいて更新され得る。図3に示すプロセスは、訓練テキストトークン312に含まれる各テキストトークンに対して反復して連続的に実行され得る。たとえば、これを行うための1つの方法は、トークンシーケンス[<tokenized-context>, EOS, <tokenized-reasoning>, EOS, <tokenized-response>, EOS]上で左から右への言語モデルを訓練することである。プロセスは、いくつかの異なる訓練例にわたって実行され得る。
いくつかの例では、訓練データは、ボランティア/クラウドワーカーインターフェースを介して収集され得る。一例として、ヒューマンアノテータは、ベース言語モデルと対話することができる。ベース言語モデルが応答を発行した後、ヒューマンアノテータは、ユーザが「中間分析」に入ること、および/またはベース言語モデルの応答の出力を編集することを可能にするフィードバックインターフェースを開き得る。「中間分析」は、ベース言語ツールに対する呼び出しで開始することができ、ベース言語ツールの出力は、ベース言語モデルによって生成される、現在の文脈に対するいくつかの例示的な応答を含むことができる。次いで、ヒューマンアノテータは、追加のツール使用を含み得る中間分析を追加し得る。ツール使用を促進するために、ヒューマンアノテータがツールをクエリすることを可能にする形式が提供され得、ツールは、ツール入力/出力を中間分析に付加するためのボタンを有する。ヒューマンアノテータが中間分析を追加することを終了すると、ヒューマンアノテータは、随意に、ベースモデルの応答を修正して「セーブ」をクリックし、それによりヒューマンアノテータは会話インターフェースに戻る。変更はベースモデルの応答に反映され、何かを言うのは、ヒューマンアノテータの番である。いくつかの実装形態では、ベースモデルは、単に、使用された別のツールと見なされ得る。
図4は、本開示の例示的な実施形態による、文脈テキスト生成のサービスにおいてテキスト分析を生成する機械学習済み言語モデルのための例示的な訓練プロセスのブロック図を示す。具体的には、図4は、強化訓練手法を示す。
図4に示すように、1つまたは複数の文脈トークン412は、図1および図2で説明したような機械学習済み言語モデル414に入力され得る。モデル414は、中間テキスト文字列(たとえば、それは構造ツール415にアクセスすることまたはそれを活用することを含み得る)を生成することができる。最後に、モデル414は、1つの出力トークン416を生成することができる。報酬関数418は、出力トークン416に基づいて報酬を決定することができる。報酬関数418は、出力トークン416がどれほど十分に、いくつかの目的の満足度(たとえば、ユーザ満足度)を満たしたか、またはもたらしたかを決定することができる。随意に、出力トークン416は、ユーザまたは他の対話エージェントに供給され、追加の新しい文脈トークンをもたらすことができ、その文脈トークンは説明したプロセスを再開することができる。
中間分析による例示的なテキスト生成
このセクションは、様々な例示的なアプリケーションを示す中間テキスト分析のいくつかの例を提供する。
ベースエージェントを呼び出し、次いで事実確認/補足:
文脈:
エージェント: ハイ
ユーザ: ハイ、メキシコについて私に何か教えてもらえますか?
中間分析:
<tool: base-pass-context> #が文脈を自動的に得る
<tool-output>
- メキシコは、公式にはメキシコ合衆国であり、北アメリカの南部にある国家です。
- メキシコは北でアメリカ合衆国に隣接し、南および西で太平洋に、南東でグアテマラ、ベリーズおよびカリブ海に、東でメキシコ湾に隣接しています。
- メキシコの大統領は国家の長であり、メキシコ政府の長でもあります。
</tool>
<tool: assistant>
メキシコの現在の大統領
<tool-output>
Andres Manuel Lopez Obrador
</tool>
応答:
- メキシコは、公式にはメキシコ合衆国であり、北アメリカの南部にある国家です。メキシコの現在の大統領は、Andres Manuel Lopez Obradorです。
エンドツーエンド顧客サポート
文脈1:
顧客: ハイ。パスワードがわからなくなってしまいました
中間分析1:
<tool internet provider API>
パスワードを忘れたときの対処法
<tool-output>
internetprovider.com/passwordに進んでください
</tool>
出力1:
エージェント: ハイ。こんなことになってお気の毒です。あなたは
パスワードをinternetprovider.com/passwordにおいてリセットすることができます
文脈2:
顧客: オーケー...上手くいきました。しかしインターネットが遅いです
中間分析2:
<tool internet provider API>
インターネットが遅いときの対処方法
<tool-output>
カスタムインターネットプロバイダメーターを用いて速度を測定してください
</tool>
<tool meter>
顧客id 777
<tool-output>
1234Mbps
</tool>
<tool cust-acct>
顧客id777
<tool-output>
John Doe
インターネットプロバイダ最終プラン
予期される速度: 1000Mbps
</tool>
出力2:
エージェント: オーケー。あなたが1000Mbpsパッケージを購入し、1234Mbpsをお持ちであることを確認しました。すべて問題なく進んでいます。更新を行いますか?
例示的なデバイスおよびシステム
図5Aは、本開示の例示的実施形態による例示的コンピューティングシステム100のブロック図を示す。システム100は、ネットワーク180を介して通信可能に結合されている、ユーザコンピューティングデバイス102、サーバコンピューティングシステム130、およびトレーニング用コンピューティングシステム150を含む。
ユーザコンピューティングデバイス102は、たとえば、パーソナルコンピューティングデバイス(たとえば、ラップトップまたはデスクトップ)、モバイルコンピューティングデバイス(たとえば、スマートフォンまたはタブレット)、ゲーミングコンソールもしくはコントローラ、ウェアラブルコンピューティングデバイス、埋込み型コンピューティングデバイス、または任意の他のタイプのコンピューティングデバイスなどの、任意のタイプのコンピューティングデバイスであってもよい。
ユーザコンピューティングデバイス102は、1つまたは複数のプロセッサ112およびメモリ114を含む。1つまたは複数のプロセッサ112は、どの適切な処理デバイス(たとえば、プロセッサコア、マイクロプロセッサ、ASIC、FPGA、コントローラ、マイクロコントローラなど)であってもよく、1つのプロセッサまたは動作可能に接続されている複数のプロセッサであってよい。メモリ114は、RAM、ROM、EEPROM、EPROM、フラッシュメモリデバイス、磁気ディスクなど、およびそれらの組合せのような、1つまたは複数の非一時的コンピュータ可読記憶媒体を含み得る。メモリ114は、データ116と、ユーザコンピューティングデバイス102に動作を実施させるようにプロセッサ112によって実行される命令118とを記憶することができる。
いくつかの実装形態では、ユーザコンピューティングシステム102は、1つまたは複数の機械学習済みモデル120を記憶するか、または含むことができる。たとえば、機械学習済みモデル120は、ニューラルネットワーク(たとえば、ディープニューラルネットワーク)または非線形モデルおよび/もしくは線形モデルを含む他のタイプの機械学習済みモデルなど、様々な機械学習済みモデルであってよく、またはそうでなければ、それらの機械学習済みモデルを含むことができる。ニューラルネットワークは、フィードフォワードニューラルネットワーク、回帰型ニューラルネットワーク(たとえば、長短期メモリ回帰型ニューラルネットワーク)、畳み込みニューラルネットワーク、または他の形のニューラルネットワークを含み得る。いくつかの例示的な機械学習済みモデルは、セルフアテンションなどのアテンションメカニズムを活用することができる。たとえば、いくつかの例示的な機械学習済みモデルは、マルチヘッドセルフアテンションモデル(たとえば、トランスフォーマモデル)を含むことができる。例示的な機械学習済みモデル120については、図1~図4を参照して論じる。
いくつかの実装形態では、1つまたは複数の機械学習済みモデル120は、ネットワーク180を介してサーバコンピューティングシステム130から受信され、ユーザコンピューティングデバイスメモリ114に記憶され、次いで、1つまたは複数のプロセッサ112によって使われ、またはそうでなければ実装され得る。いくつかの実装形態では、ユーザコンピューティングデバイス102は、(たとえば、言語生成タスクの複数の例にわたってパラレル言語生成を実行するために)単一機械学習済みモデル120の複数の並列インスタンスを実装することができる。
追加または代替として、1つまたは複数の機械学習済みモデル140は、クライアント-サーバ関係に従ってユーザコンピューティングデバイス102と通信するサーバコンピューティングシステム130に含まれ、またはそうでなければ、サーバコンピューティングシステム130によって記憶され、実装され得る。たとえば、機械学習済みモデル140は、ウェブサービス(たとえば、質問応答サービスなどの言語生成サービス、対話サービス(たとえば、「チャットボット」もしくはデジタルアシスタントによって使用される)など)の一部としてサーバコンピューティングシステム130によって実装され得る。したがって、1つまたは複数のモデル120が、ユーザコンピューティングデバイス102において記憶され、実装されてよく、かつ/または1つもしくは複数のモデル140が、サーバコンピューティングシステム130において記憶され、実装されてよい。モデル120および/または140は、質問応答サービス、対話サービス(たとえば、「チャットボット」もしくはデジタルアシスタントによって使用される)などの任意の言語生成サービスによって使用され得る。
ユーザコンピューティングデバイス102は、ユーザ入力を受信する1つまたは複数のユーザ入力構成要素122も含み得る。たとえば、ユーザ入力構成要素122は、ユーザ入力オブジェクト(たとえば、指またはスタイラス)のタッチに敏感な、タッチ感応構成要素(たとえば、タッチ感応表示画面またはタッチパッド)であってよい。タッチ感応構成要素は、仮想キーボードを実装するのに役立ち得る。他の例示的ユーザ入力構成要素は、マイクロフォン、従来のキーボード、またはユーザがユーザ入力を与えることができる他の手段を含む。
サーバコンピューティングシステム130は、1つまたは複数のプロセッサ132およびメモリ134を含む。1つまたは複数のプロセッサ132は、どの適切な処理デバイス(たとえば、プロセッサコア、マイクロプロセッサ、ASIC、FPGA、コントローラ、マイクロコントローラなど)であってもよく、1つのプロセッサまたは動作可能に接続されている複数のプロセッサであってよい。メモリ134は、RAM、ROM、EEPROM、EPROM、フラッシュメモリデバイス、磁気ディスクなど、およびそれらの組合せのような、1つまたは複数の非一時的コンピュータ可読記憶媒体を含み得る。メモリ134は、データ136と、サーバコンピューティングシステム130に動作を実施させるようにプロセッサ132によって実行される命令138とを記憶することができる。
いくつかの実装形態では、サーバコンピューティングシステム130は、1つまたは複数のサーバコンピューティングデバイスを含むか、またはそうでなければ、1つまたは複数のサーバコンピューティングデバイスによって実装される。サーバコンピューティングシステム130が複数のサーバコンピューティングデバイスを含む事例では、そのようなサーバコンピューティングデバイスは、順次コンピューティングアーキテクチャ、並列コンピューティングアーキテクチャ、またはそれらの何らかの組合せに従って動作することができる。
上述したように、サーバコンピューティングシステム130は、1つまたは複数の機械学習済みモデル140を記憶するか、またはそうでなければ含むことができる。たとえば、モデル140は、様々な機械学習済みモデルであってよく、または、そうでなければそれらを含んでよい。例示的機械学習済みモデルは、ニューラルネットワークまたは他のマルチレイヤ非線形モデルを含む。例示的ニューラルネットワークは、フィードフォワードニューラルネットワーク、ディープニューラルネットワーク、回帰型ニューラルネットワーク、および畳み込みニューラルネットワークを含む。いくつかの例示的な機械学習済みモデルは、セルフアテンションなどのアテンションメカニズムを活用することができる。たとえば、いくつかの例示的な機械学習済みモデルは、マルチヘッドセルフアテンションモデル(たとえば、トランスフォーマモデル)を含むことができる。例示的モデル140については、図1~図4を参照して論じる。
ユーザコンピューティングデバイス102および/またはサーバコンピューティングシステム130は、ネットワーク180を介して通信可能に結合されるトレーニング用コンピューティングシステム150との対話により、モデル120および/または140をトレーニングすることができる。トレーニング用コンピューティングシステム150は、サーバコンピューティングシステム130とは別個であってよく、またはサーバコンピューティングシステム130の一部分であってよい。
トレーニング用コンピューティングシステム150は、1つまたは複数のプロセッサ152およびメモリ154を含む。1つまたは複数のプロセッサ152は、どの適切な処理デバイス(たとえば、プロセッサコア、マイクロプロセッサ、ASIC、FPGA、コントローラ、マイクロコントローラなど)であってもよく、1つのプロセッサまたは動作可能に接続されている複数のプロセッサであってよい。メモリ154は、RAM、ROM、EEPROM、EPROM、フラッシュメモリデバイス、磁気ディスクなど、およびそれらの組合せのような、1つまたは複数の非一時的コンピュータ可読記憶媒体を含み得る。メモリ154は、データ156と、トレーニング用コンピューティングシステム150に動作を実施させるようにプロセッサ152によって実行される命令158とを記憶することができる。いくつかの実装形態では、トレーニング用コンピューティングシステム150は、1つまたは複数のサーバコンピューティングデバイスを含むか、またはそうでなければ、サーバコンピューティングデバイスによって実装される。
トレーニング用コンピューティングシステム150は、ユーザコンピューティングデバイス102および/またはサーバコンピューティングシステム130において記憶された機械学習済みモデル120および/または140を、たとえば、誤差逆伝播など、様々なトレーニングまたは学習技法を使ってトレーニングするモデル訓練器160を含み得る。たとえば、損失関数は、(たとえば、損失関数の勾配に基づいて)モデルの1つまたは複数のパラメータを更新するために、モデルを通して逆伝搬され得る。平均2乗誤差、尤度損失、交差エントロピー損失、ヒンジ損失、および/または様々な他の損失関数など、様々な損失関数が使用され得る。勾配降下技法は、いくつかのトレーニング反復に対してパラメータを反復的に更新するために使用され得る。
いくつかの実装形態では、誤差逆伝播を実行することは、短縮された時通的逆伝播を実行することを含み得る。モデル訓練器160は、トレーニングされるモデルの汎化能力を向上するために、いくつかの汎化技法(たとえば、重み減衰、ドロップアウトなど)を実施することができる。
特に、モデル訓練器160は、トレーニングデータのセット162に基づいて、機械学習済みモデル120および/または140をトレーニングすることができる。訓練データ162は、たとえば、複数の訓練タプルを含むことができる。各訓練タプルは、1つまたは複数の文脈テキストトークンを含む例示的な文脈テキスト文字列と、1つまたは複数の中間テキストトークンを含む1つまたは複数の例示的な中間テキスト文字列と、1つまたは複数の出力テキストトークンを含む例示的な出力テキスト文字列とを含むことができる。
いくつかの実装形態では、ユーザが承諾を与えた場合、トレーニング例は、ユーザコンピューティングデバイス102によって提供され得る。したがって、そのような実装形態では、ユーザコンピューティングデバイス102に提供されるモデル120は、ユーザコンピューティングデバイス102から受信されるユーザ固有データに対してトレーニングコンピューティングシステム150によってトレーニングされ得る。場合によっては、このプロセスは、モデルの個人化と呼ばれることがある。
モデル訓練器160は、所望の機能性を提供するのに使用されるコンピュータ論理を含む。モデル訓練器160は、汎用プロセッサを制御するハードウェア、ファームウェア、および/またはソフトウェアで実装することができる。たとえば、いくつかの実装形態では、モデル訓練器160は、記憶デバイス上に記憶され、メモリにロードされ、1つまたは複数のプロセッサによって実行されるプログラムファイルを含む。他の実装形態では、モデル訓練器160は、RAM、ハードディスク、または光学もしくは磁気媒体などの有形コンピュータ可読記憶媒体に記憶されるコンピュータ実行可能命令の1つまたは複数のセットを含む。
ネットワーク180は、ローカルエリアネットワーク(たとえば、イントラネット)、ワイドエリアネットワーク(たとえば、インターネット)、またはそれらの何らかの組合せなど、どのタイプの通信ネットワークであってもよく、任意の数のワイヤードまたはワイヤレスリンクを含み得る。概して、ネットワーク180を介した通信は、非常に様々な通信プロトコル(たとえば、TCP/IP、HTTP、SMTP、FTP)、符号化もしくはフォーマット(たとえば、HTML、XML)、および/または保護方式(たとえば、VPN、セキュアHTTP、SSL)を使って、どのタイプのワイヤードおよび/またはワイヤレス接続を介しても搬送することができる。
図5Aは、本開示を実装するために使用され得る1つの例示的コンピューティングシステムを示す。他のコンピューティングシステムが同様に使用されてもよい。たとえば、いくつかの実装形態では、ユーザコンピューティングデバイス102は、モデル訓練器160および訓練データセット162を含み得る。そのような実装形態では、モデル120は、ユーザコンピューティングデバイス102においてローカルにトレーニングされることと使われることの両方が可能である。そのような実装形態のいくつかでは、ユーザコンピューティングデバイス102は、ユーザ固有データに基づいて、モデル訓練器160を実装して、モデル120を個人化し得る。
図5Bは、本開示の例示的実施形態に従って実行する例示的コンピューティングデバイス10のブロック図を示す。コンピューティングデバイス10は、ユーザコンピューティングデバイスまたはサーバコンピューティングデバイスであってよい。
コンピューティングデバイス10は、いくつかのアプリケーション(たとえば、アプリケーション1~N)を含む。各アプリケーションは、それ自体の機械学習ライブラリおよび機械学習済みモデルを含む。たとえば、各アプリケーションは、機械学習済みモデルを含み得る。例示的アプリケーションは、テキストメッセージングアプリケーション、eメールアプリケーション、ディクテーションアプリケーション、仮想キーボードアプリケーション、ブラウザアプリケーションなどを含む。
図5Bに示すように、各アプリケーションは、コンピューティングデバイスのいくつかの他の構成要素、たとえば、1つもしくは複数のセンサ、コンテキストマネージャ、デバイス状態構成要素、および/または追加構成要素などと通信することができる。いくつかの実装形態では、各アプリケーションは、API(たとえば、パブリックAPI)を使って、各デバイス構成要素と通信することができる。いくつかの実装形態では、各アプリケーションによって使用されるAPIは、そのアプリケーションに固有である。
図5Cは、本開示の例示的実施形態に従って実行する例示的コンピューティングデバイス50のブロック図を示す。コンピューティングデバイス50は、ユーザコンピューティングデバイスまたはサーバコンピューティングデバイスであってよい。
コンピューティングデバイス50は、いくつかのアプリケーション(たとえば、アプリケーション1~N)を含む。各アプリケーションは、中央インテリジェンスレイヤと通信する。例示的アプリケーションは、テキストメッセージングアプリケーション、eメールアプリケーション、ディクテーションアプリケーション、仮想キーボードアプリケーション、ブラウザアプリケーションなどを含む。いくつかの実装形態では、各アプリケーションは、API(たとえば、すべてのアプリケーションにわたる共通API)を使って、中央インテリジェンスレイヤ(およびその中に記憶されるモデル)と通信することができる。
中央インテリジェンスレイヤは、いくつかの機械学習済みモデルを含む。たとえば、図5Cに示すように、それぞれの機械学習済みモデルが、各アプリケーションに与えられ、中央インテリジェンスレイヤによって管理され得る。他の実装形態では、2つ以上のアプリケーションが、単一の機械学習済みモデルを共有することができる。たとえば、いくつかの実装形態では、中央インテリジェンスレイヤは、アプリケーションすべてに単一モデルを提供することができる。いくつかの実装形態では、中央インテリジェンスレイヤは、コンピューティングデバイス50のオペレーティングシステムに含まれるか、またはそうでなければ、オペレーティングシステムによって実装される。
中央インテリジェンスレイヤは、中央デバイスデータレイヤと通信することができる。中央デバイスデータレイヤは、コンピューティングデバイス50向けのデータの集中型リポジトリであってよい。図5Cに示すように、中央デバイスデータレイヤは、コンピューティングデバイスのいくつかの他の構成要素、たとえば、1つまたは複数のセンサ、コンテキストマネージャ、デバイス状態構成要素、および/または追加構成要素などと通信することができる。いくつかの実装形態では、中央デバイスデータレイヤは、API(たとえば、プライベートAPI)を使用して、各デバイス構成要素と通信することができる。
追加開示
本明細書において論じた技術は、サーバ、データベース、ソフトウェアアプリケーション、および他のコンピュータベースのシステム、ならびに行われるアクションおよびそのようなシステムとの間で送られる情報を参照する。コンピュータベースのシステムに固有の柔軟性によって、構成要素の間のタスクおよび機能の多種多様な可能な構成、組合せ、および分割が可能になる。たとえば、本明細書で説明するプロセスは、単一のデバイスもしくは構成要素、または組合せにおいて働く複数のデバイスもしくは構成要素を使用して実装され得る。データベースおよびアプリケーションは、単一のシステム上で実装されるか、または複数のシステムにわたって分散され得る。分散構成要素は、順次または並行して動作することができる。
本主題は、その様々な特定の例示的実施形態に関して詳細に説明されてきたが、各例は、本開示の限定ではなく、説明として与えられる。当業者は、上記を理解すると、そのような実施形態の改変、変形、および等価物を容易に作り出すことができる。したがって、本開示は、当業者には容易に明らかであろうように、本主題へのそのような修正、変形および/または追加を含めることを排除しない。たとえば、1つの実施形態の一部として示されるかまたは説明される特徴は、またさらなる実施形態をもたらすために、別の実施形態とともに使用され得る。したがって、本開示がそのような改変、変形、および等価物をカバーすることが意図されている。
10 コンピューティングデバイス
12 文脈テキスト文字列
14 言語モデル
15 構造ツール
16 中間テキスト文字列
18 出力テキスト文字列
50 コンピューティングデバイス
100 コンピューティングシステム
102 ユーザコンピューティングデバイス
112 プロセッサ
114 メモリ
116 データ
118 命令
120 機械学習済みモデル
122 ユーザ入力構成要素
130 サーバコンピューティングシステム
132 プロセッサ
134 メモリ
136 データ
138 命令
140 機械学習済みモデル
150 トレーニング用コンピューティングシステム
152 プロセッサ
154 メモリ
156 データ
158 命令
160 モデル訓練器
162 トレーニングデータのセット
180 ネットワーク
202 ベース言語モデル
204 ベース出力
312 訓練テキストトークン
314 言語モデル
316 次の予測されるテキストトークン
318 損失関数
412 文脈トークン
414 機械学習済み言語モデル
415 構造ツール
416 出力トークン
418 報酬関数

Claims (19)

  1. 改善された解釈可能性を有する文脈テキスト生成のためのコンピューティングシステムであって、
    1つまたは複数のプロセッサと、
    1つまたは複数の非一時的コンピュータ可読媒体とを含み、前記1つまたは複数の非一時的コンピュータ可読媒体が、
    文脈テキスト生成のサービスにおいてテキスト分析を実行する機械学習済み言語モデルと、
    前記1つまたは複数のプロセッサによって実行されるときに前記コンピューティングシステムに動作を実行させる命令とをまとめて記憶し、前記動作が、
    1つまたは複数の文脈テキストトークンを含む文脈テキスト文字列を取得することと、
    1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記文脈テキスト文字列を処理することであって、前記1つまたは複数の中間テキストトークンが、前記文脈テキスト文字列に含まれない追加の情報にアクセスするために構造ツールの使用を引き起こす少なくとも1つのツールトークンを含む、ことと、
    1つまたは複数の出力テキストトークンを含む出力テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記1つまたは複数の中間テキスト文字列を処理することとを含み、
    前記1つまたは複数の中間テキスト文字列は、前記出力テキスト文字列をサポートする前記文脈テキスト文字列のテキスト分析を含む、コンピューティングシステム。
  2. 前記構造ツールが、データベースから追加の情報にアクセスするためにデータベース検索を含む、請求項1に記載のコンピューティングシステム。
  3. 前記構造ツールが、アプリケーションプログラミングインターフェース(API)を介して追加の情報を要求して受信するために、API呼び出しを含む、請求項1に記載のコンピューティングシステム。
  4. 前記構造ツールが、入力テキストトークン上で1つまたは複数の動作のシーケンスを実行するプログラミング言語インタープリタを含む、請求項1に記載のコンピューティングシステム。
  5. 前記構造ツールが、検索エンジン、ナレッジグラフ、またはデジタルアシスタントからの結果をクエリするクエリサービスを含む、請求項1に記載のコンピューティングシステム。
  6. 前記機械学習済み言語モデルが前記ツールトークンを生成するとき、前記動作が、
    前記機械学習済み言語モデルを中断することと、
    前記追加の情報にアクセスするために前記構造ツールを実行することと、
    前記1つまたは複数の中間テキスト文字列の現在のバージョンに前記追加の情報を付加することと、
    前記1つまたは複数の中間テキスト文字列の前記現在のバージョンおよび前記付加された追加の情報に基づいて前記機械学習済み言語モデルを用いてテキスト生成を再開することとを含む、請求項1に記載のコンピューティングシステム。
  7. オーディオ出力を生成するために音声合成システムを用いて出力テキスト文字列を処理することをさらに含む、請求項1に記載のコンピューティングシステム。
  8. 前記機械学習済み言語モデルは、トークンごとに動作し、前記1つまたは複数の中間テキスト文字列を生成するとき、各生成された中間テキストトークンを再帰的に入力として受信する、請求項1に記載のコンピューティングシステム。
  9. 1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列を生成するために前記機械学習済み言語モデルを用いて前記文脈テキスト文字列を処理することが、
    第1の反復に対して、
    1つまたは複数の中間テキストトークンを含む第1の中間テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記文脈テキスト文字列を処理することと、
    更新された文脈テキスト文字列を生成するために、前記文脈テキスト文字列に前記第1の中間テキスト文字列を付加することと、
    1つまたは複数の追加の反復の各々に対して、前記機械学習済み言語モデルが閉止トークンを出力するまで、
    1つまたは複数の中間テキストトークンを含む追加の中間テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記更新された文脈テキスト文字列を処理することと、
    次の反復に対して前記更新された文脈テキスト文字列を生成するために、前記更新された文脈テキスト文字列に前記追加の中間テキスト文字列を付加することとを含む、請求項1に記載のコンピューティングシステム。
  10. 前記機械学習済み言語モデルが、複数の訓練タプル上で訓練されており、各訓練タプルは、例示的な文脈テキスト文字列、1つまたは複数の例示的な中間テキスト文字列、および例示的な出力テキスト文字列を含む、請求項1に記載のコンピューティングシステム。
  11. 少なくとも前記1つまたは複数の例示的な中間テキスト文字列が、ヒューマンラベラーによって生成されている、請求項10に記載のコンピューティングシステム。
  12. 前記機械学習済み言語モデルが質問応答モデルを含み、前記文脈テキスト文字列が質問を含む、請求項1に記載のコンピューティングシステム。
  13. 前記機械学習済み言語モデルが対話モデルを含み、前記文脈テキスト文字列が対話履歴を含む、請求項1に記載のコンピューティングシステム。
  14. 前記機械学習済み言語モデルが、
    回帰型ニューラルネットワーク、
    マルチヘッドセルフアテンションモデル、または
    シーケンスツーシーケンスモデルを含む、請求項1に記載のコンピューティングシステム。
  15. 前記文脈テキスト文字列の少なくとも一部が、ユーザによって入力されたテキストを含み、前記動作が、前記ユーザに表示するために少なくとも前記出力テキスト文字列を提供することをさらに含む、請求項1に記載のコンピューティングシステム。
  16. 前記文脈テキスト文字列が、中間テキスト文字列を生成することなく、元の文脈テキスト文字列からベース出力を直接生成するように構成された機械学習済み言語モデルによって生成された前記ベース出力と連結された前記元の文脈テキスト文字列を含む、請求項1に記載のコンピューティングシステム。
  17. 改善された文脈テキスト生成のためのコンピュータ実装方法であって、
    複数の訓練タプルを取得するステップであって、各訓練タプルは、1つまたは複数の文脈テキストトークンを含む例示的な文脈テキスト文字列、1つまたは複数の中間テキストトークンを含む1つまたは複数の例示的な中間テキスト文字列、および1つまたは複数の出力テキストトークンを含む例示的な出力テキスト文字列を含む、ステップと、
    各訓練タプルに対して、
    前記訓練タプルの少なくとも一部を言語モデルに入力するステップと、
    予測された次のトークンを前記言語モデルの出力として受信するステップであって、前記予測される次のトークンは、前記訓練タプルの前記一部を処理することによって前記言語モデルによって生成される、ステップと、
    前記言語モデルによって生成された前記予測される次のトークンを、前記訓練タプルに含まれる実際の次のトークンと比較する損失関数を評価するステップと、
    前記損失関数の前記評価に基づいて前記言語モデルの1つまたは複数のパラメータの1つまたは複数の値を修正するステップとを含
    前記訓練タプルのうちの少なくとも1つに対して、前記1つまたは複数の中間テキストトークンが、前記例示的な文脈テキスト文字列に含まれない追加の情報にアクセスするために、構造ツールの使用を引き起こす少なくとも1つのツールトークンを含み、前記追加の情報が、前記1つまたは複数の中間テキストトークンに含まれる、コンピュータ実装方法。
  18. 各訓練タプルに対して、前記入力するステップ、受信するステップ、評価するステップ、および修正するステップが、前記1つまたは複数の例示的な中間テキスト文字列および前記例示的な出力テキスト文字列に含まれる各トークンに対して実行される、請求項17に記載のコンピュータ実装方法。
  19. 改善された解釈可能性を有する文脈テキスト生成のためのコンピューティングシステムであって、
    1つまたは複数のプロセッサと、
    1つまたは複数の非一時的コンピュータ可読媒体とを含み、前記1つまたは複数の非一時的コンピュータ可読媒体が、
    文脈テキスト生成のサービスにおいてテキスト分析を実行する機械学習済み言語モデルと、
    前記1つまたは複数のプロセッサによって実行されるときに前記コンピューティングシステムに動作を実行させる命令とをまとめて記憶し、前記動作が、
    1つまたは複数の文脈テキストトークンを含む文脈テキスト文字列を取得することと、
    1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記文脈テキスト文字列を処理することであって、1つまたは複数の中間テキストトークンを含む1つまたは複数の中間テキスト文字列を生成するために前記機械学習済み言語モデルを用いて前記文脈テキスト文字列を処理することが、
    第1の反復に対して、
    1つまたは複数の中間テキストトークンを含む第1の中間テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記文脈テキスト文字列を処理することと、
    更新された文脈テキスト文字列を生成するために、前記文脈テキスト文字列に前記第1の中間テキスト文字列を付加することと、
    1つまたは複数の追加の反復の各々に対して、前記機械学習済み言語モデルが閉止トークンを出力するまで、
    1つまたは複数の中間テキストトークンを含む追加の中間テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記更新された文脈テキスト文字列を処理することと、
    次の反復に対して前記更新された文脈テキスト文字列を生成するために、前記更新された文脈テキスト文字列に前記追加の中間テキスト文字列を付加することとを含む、ことと、
    1つまたは複数の出力テキストトークンを含む出力テキスト文字列を生成するために、前記機械学習済み言語モデルを用いて前記1つまたは複数の中間テキスト文字列を処理することとを含み、
    前記1つまたは複数の中間テキスト文字列は、前記出力テキスト文字列をサポートする前記文脈テキスト文字列のテキスト分析を含む、コンピューティングシステム。
JP2023561822A 2021-05-21 2022-05-20 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル Active JP7547653B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2024065417A JP7547677B2 (ja) 2021-05-21 2024-04-15 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024141989A JP7769062B2 (ja) 2021-05-21 2024-08-23 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024144022A JP7793705B2 (ja) 2021-05-21 2024-08-26 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163191563P 2021-05-21 2021-05-21
US63/191,563 2021-05-21
PCT/US2022/030249 WO2022246194A1 (en) 2021-05-21 2022-05-20 Machine-learned language models which generate intermediate textual analysis in service of contextual text generation

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2024065417A Division JP7547677B2 (ja) 2021-05-21 2024-04-15 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024144022A Division JP7793705B2 (ja) 2021-05-21 2024-08-26 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル

Publications (2)

Publication Number Publication Date
JP2024520994A JP2024520994A (ja) 2024-05-28
JP7547653B2 true JP7547653B2 (ja) 2024-09-09

Family

ID=82156703

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2023561822A Active JP7547653B2 (ja) 2021-05-21 2022-05-20 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024065417A Active JP7547677B2 (ja) 2021-05-21 2024-04-15 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024141989A Active JP7769062B2 (ja) 2021-05-21 2024-08-23 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024144022A Active JP7793705B2 (ja) 2021-05-21 2024-08-26 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2024065417A Active JP7547677B2 (ja) 2021-05-21 2024-04-15 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024141989A Active JP7769062B2 (ja) 2021-05-21 2024-08-23 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
JP2024144022A Active JP7793705B2 (ja) 2021-05-21 2024-08-26 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル

Country Status (8)

Country Link
US (4) US11574131B2 (ja)
EP (1) EP4298547A1 (ja)
JP (4) JP7547653B2 (ja)
KR (7) KR20250083582A (ja)
CN (3) CN119691246A (ja)
BR (1) BR112023021621A2 (ja)
CA (1) CA3213522A1 (ja)
WO (1) WO2022246194A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119691246A (zh) * 2021-05-21 2025-03-25 谷歌有限责任公司 生成中间文本分析以服务于上下文文本生成的机器学习语言模型
WO2023235346A1 (en) * 2022-06-03 2023-12-07 Google Llc Prompting machine-learned models using chains of thought
US20240184982A1 (en) * 2022-12-01 2024-06-06 Deepmind Technologies Limited Hierarchical text generation using language model neural networks
US20240256762A1 (en) * 2023-01-31 2024-08-01 Shopify Inc. Methods and systems for prompting large language model to process inputs from multiple user elements
US12541638B2 (en) 2023-02-15 2026-02-03 Microsoft Technology Licensing, Llc Generative collaborative publishing system
US20240273286A1 (en) * 2023-02-15 2024-08-15 Microsoft Technology Licensing, Llc Generative collaborative publishing system
US12493740B2 (en) 2023-02-15 2025-12-09 Microsoft Technology Licensing, Llc Generative collaborative publishing system
US20240281487A1 (en) * 2023-02-17 2024-08-22 Snowflake Inc. Enhanced search result generation using multi-document summarization
US20240290462A1 (en) * 2023-02-28 2024-08-29 Microsoft Technology Licensing, Llc Generating Multi-Sensory Content based on User State
CN115952274B (zh) * 2023-03-10 2023-06-27 北京百度网讯科技有限公司 基于深度学习模型的数据生成方法、训练方法和装置
US20240419912A1 (en) * 2023-06-13 2024-12-19 Microsoft Technology Licensing, Llc Detecting hallucination in a language model
US20250054405A1 (en) * 2023-08-08 2025-02-13 Google Llc System for Providing Step-by-Step Explanations of Pedagogical Exercises Using Machine-Learned Models
CN117033030B (zh) * 2023-08-25 2024-07-12 玻尔科技成都有限公司 基于大规模语言模型的应用程序接口调度系统及方法
WO2025149761A1 (en) * 2024-01-10 2025-07-17 Technology Innovation Institute-Sole Proprietorship Llc Edge prompt personalization in large language models
CN118394422A (zh) * 2024-03-13 2024-07-26 中国科学院自动化研究所 用于智能硬件协同控制的提示工程方法、系统及设备
CN118194881B (zh) * 2024-04-16 2025-07-25 摩尔线程智能科技(北京)股份有限公司 文本生成系统及方法
US20250348628A1 (en) * 2024-05-10 2025-11-13 The Regents Of The University Of Michigan Automated framework for simulated time-series data generation based on user-defined criteria
US20250371041A1 (en) * 2024-05-29 2025-12-04 Microsoft Technology Licensing, Llc Semantic-tree-based ai content management platform
CN118838155B (zh) * 2024-06-07 2025-02-28 天津大学 一种基于大语言模型的经验学习自适应预瞄控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130305A1 (en) 2017-10-27 2019-05-02 Intuit Inc. Methods, systems, and computer program product for implementing an intelligent system with dynamic configurability
US20200110803A1 (en) 2018-10-08 2020-04-09 Tableau Software, Inc. Determining Levels of Detail for Data Visualizations Using Natural Language Constructs
US20210073465A1 (en) 2019-09-11 2021-03-11 Oracle International Corporation Semantic parser including a coarse semantic parser and a fine semantic parser
JP2021524623A (ja) 2018-05-18 2021-09-13 セールスフォース ドット コム インコーポレイティッド 質問応答としてのマルチタスク学習

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243554A1 (en) * 2003-05-30 2004-12-02 International Business Machines Corporation System, method and computer program product for performing unstructured information management and automatic text analysis
US20040243556A1 (en) * 2003-05-30 2004-12-02 International Business Machines Corporation System, method and computer program product for performing unstructured information management and automatic text analysis, and including a document common analysis system (CAS)
US7139752B2 (en) * 2003-05-30 2006-11-21 International Business Machines Corporation System, method and computer program product for performing unstructured information management and automatic text analysis, and providing multiple document views derived from different document tokenizations
US7146361B2 (en) * 2003-05-30 2006-12-05 International Business Machines Corporation System, method and computer program product for performing unstructured information management and automatic text analysis, including a search operator functioning as a Weighted AND (WAND)
CA2529037A1 (en) 2003-08-15 2005-02-24 Silverbrook Research Pty Ltd Natural language recognition using distributed processing
US20110196864A1 (en) * 2009-09-03 2011-08-11 Steve Mason Apparatuses, methods and systems for a visual query builder
US9472189B2 (en) * 2012-11-02 2016-10-18 Sony Corporation Language processing method and integrated circuit
US9342502B2 (en) * 2013-11-20 2016-05-17 International Business Machines Corporation Contextual validation of synonyms in otology driven natural language processing
US10095689B2 (en) * 2014-12-29 2018-10-09 International Business Machines Corporation Automated ontology building
US20200143247A1 (en) * 2015-01-23 2020-05-07 Conversica, Inc. Systems and methods for improved automated conversations with intent and action response generation
WO2016183229A1 (en) * 2015-05-11 2016-11-17 Olsher Daniel Joseph Universal task independent simulation and control platform for generating controlled actions using nuanced artificial intelligence
US20170075877A1 (en) * 2015-09-16 2017-03-16 Marie-Therese LEPELTIER Methods and systems of handling patent claims
CN106844368B (zh) * 2015-12-03 2020-06-16 华为技术有限公司 用于人机对话的方法、神经网络系统和用户设备
US10831800B2 (en) * 2016-08-26 2020-11-10 International Business Machines Corporation Query expansion
US11367074B2 (en) * 2016-10-28 2022-06-21 Fair Isaac Corporation High resolution transaction-level fraud detection for payment cards in a potential state of fraud
CN108021549B (zh) * 2016-11-04 2019-08-13 华为技术有限公司 序列转换方法及装置
TWI753034B (zh) * 2017-03-31 2022-01-21 香港商阿里巴巴集團服務有限公司 特徵向量的產生、搜索方法、裝置及電子設備
US10817650B2 (en) 2017-05-19 2020-10-27 Salesforce.Com, Inc. Natural language processing using context specific word vectors
WO2018232623A1 (en) * 2017-06-21 2018-12-27 Microsoft Technology Licensing, Llc Providing personalized songs in automated chatting
US10877735B1 (en) * 2017-09-25 2020-12-29 Amazon Technologies, Inc. Automated generation of software applications using analysis of submitted content items
CN110020010A (zh) * 2017-10-10 2019-07-16 阿里巴巴集团控股有限公司 数据处理方法、装置及电子设备
EP3625699A1 (en) * 2017-10-25 2020-03-25 Google LLC Natural language processing with an n-gram machine
DE102017219631A1 (de) * 2017-11-06 2019-05-09 Heidelberger Druckmaschinen Ag CAD/CAM Analyse Werkzeug mit Rückverbindung zu CAD/CAM Daten
US11222627B1 (en) * 2017-11-22 2022-01-11 Educational Testing Service Exploring ASR-free end-to-end modeling to improve spoken language understanding in a cloud-based dialog system
US11030414B2 (en) 2017-12-26 2021-06-08 The Allen Institute For Artificial Intelligence System and methods for performing NLP related tasks using contextualized word representations
US10977711B1 (en) * 2018-01-03 2021-04-13 Amazon Technologies, Inc. Artificial intelligence system with hierarchical machine learning for interaction session optimization
US10769295B2 (en) * 2018-01-18 2020-09-08 Sap Se Join operations on encrypted database tables
JP6523498B1 (ja) * 2018-01-19 2019-06-05 ヤフー株式会社 学習装置、学習方法および学習プログラム
US10169315B1 (en) * 2018-04-27 2019-01-01 Asapp, Inc. Removing personal information from text using a neural network
CN109271878B (zh) * 2018-08-24 2020-04-21 北京地平线机器人技术研发有限公司 图像识别方法、图像识别装置和电子设备
CN110162799B (zh) 2018-11-28 2023-08-04 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法以及相关装置和设备
US11194815B1 (en) * 2019-02-11 2021-12-07 Amazon Technologies, Inc. Constrained query execution
US11475329B2 (en) * 2019-04-03 2022-10-18 RELX Inc. Systems and methods for adaptive training of a machine learning system processing textual data
US11475216B2 (en) * 2019-06-17 2022-10-18 Microsoft Technology Licensing, Llc Constructing answers to queries through use of a deep model
CN110415022B (zh) * 2019-07-05 2023-08-18 创新先进技术有限公司 处理用户行为序列的方法及装置
CN118349673A (zh) * 2019-09-12 2024-07-16 华为技术有限公司 文本处理模型的训练方法、文本处理方法及装置
CN110781312B (zh) * 2019-09-19 2022-07-15 平安科技(深圳)有限公司 基于语义表征模型的文本分类方法、装置和计算机设备
KR20210043995A (ko) * 2019-10-14 2021-04-22 삼성전자주식회사 모델 학습 방법 및 장치, 및 시퀀스 인식 방법
US11269907B1 (en) * 2019-11-15 2022-03-08 Palantir Technologies Inc. Object-centric data analysis system and graphical user interface
CN112818671B (zh) * 2019-11-15 2024-11-12 阿里巴巴集团控股有限公司 文本信息的处理方法、装置、存储介质和处理器
US20230009370A1 (en) * 2019-12-09 2023-01-12 Nippon Telegraph And Telephone Corporation Model learning apparatus, voice recognition apparatus, method and program thereof
GB2590509B (en) * 2019-12-20 2022-06-15 Sonantic Ltd A text-to-speech synthesis method and system, and a method of training a text-to-speech synthesis system
CN111382582B (zh) 2020-01-21 2023-04-07 沈阳雅译网络技术有限公司 一种基于非自回归的神经机器翻译解码加速方法
US11921711B2 (en) * 2020-03-06 2024-03-05 Alibaba Group Holding Limited Trained sequence-to-sequence conversion of database queries
CN111428470B (zh) 2020-03-23 2022-04-22 北京世纪好未来教育科技有限公司 文本连贯性判定及其模型训练方法、电子设备及可读介质
US20210319338A1 (en) * 2020-04-09 2021-10-14 Royal Bank Of Canada System and method for testing machine learning
CN111611377B (zh) * 2020-04-22 2021-10-29 淮阴工学院 基于知识蒸馏的多层神经网络语言模型训练方法与装置
CN111723220B (zh) 2020-06-18 2023-03-10 中南大学 基于注意力机制和哈希的图像检索方法、装置及存储介质
CN111538908B (zh) 2020-06-22 2020-10-20 腾讯科技(深圳)有限公司 搜索排序方法、装置、计算机设备和存储介质
CN111860785A (zh) 2020-07-24 2020-10-30 中山大学 基于注意力机制循环神经网络的时间序列预测方法及系统
US11514888B2 (en) * 2020-08-13 2022-11-29 Google Llc Two-level speech prosody transfer
CN111967224A (zh) 2020-08-18 2020-11-20 深圳市欢太科技有限公司 对话文本的处理方法、装置、电子设备及存储介质
US11734510B2 (en) * 2020-08-27 2023-08-22 Bayerische Motoren Werke Aktiengesellschaft Natural language processing of encoded question tokens and encoded table schema based on similarity
CN112434212B (zh) 2020-09-18 2021-11-23 昆明理工大学 基于神经自回归分布估计的涉案新闻主题模型构建方法及装置
US11749264B2 (en) * 2020-11-03 2023-09-05 Salesforce, Inc. System and methods for training task-oriented dialogue (TOD) language models
CN112347780B (zh) 2020-11-27 2023-09-12 浙江大学 基于深度神经网络的司法事实查明生成方法、装置、介质
US11481210B2 (en) * 2020-12-29 2022-10-25 X Development Llc Conditioning autoregressive language model to improve code migration
US11829449B2 (en) * 2020-12-30 2023-11-28 Zoox, Inc. Intermediate input for machine learned model
US11620903B2 (en) * 2021-01-14 2023-04-04 Baidu Usa Llc Machine learning model to fuse emergency vehicle audio and visual detection
CN114973393B (zh) * 2021-02-26 2025-01-07 北京市商汤科技开发有限公司 一种关系检测方法、装置、计算机设备及存储介质
CN113052246B (zh) * 2021-03-30 2023-08-04 北京百度网讯科技有限公司 用于训练分类模型及图像分类的方法和相关装置
CN119691246A (zh) * 2021-05-21 2025-03-25 谷歌有限责任公司 生成中间文本分析以服务于上下文文本生成的机器学习语言模型
JP7804056B2 (ja) * 2021-07-28 2026-01-21 グーグル エルエルシー 自己回帰言語モデルニューラルネットワークを使用して出力系列を評価すること
US12148421B2 (en) * 2021-09-07 2024-11-19 Google Llc Using large language model(s) in generating automated assistant response(s

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130305A1 (en) 2017-10-27 2019-05-02 Intuit Inc. Methods, systems, and computer program product for implementing an intelligent system with dynamic configurability
JP2021524623A (ja) 2018-05-18 2021-09-13 セールスフォース ドット コム インコーポレイティッド 質問応答としてのマルチタスク学習
US20200110803A1 (en) 2018-10-08 2020-04-09 Tableau Software, Inc. Determining Levels of Detail for Data Visualizations Using Natural Language Constructs
US20210073465A1 (en) 2019-09-11 2021-03-11 Oracle International Corporation Semantic parser including a coarse semantic parser and a fine semantic parser

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
栗林 樹生、外6名,論述構造解析におけるスパン分散表現,自然言語処理,日本,一般社団法人言語処理学会,2020年12月15日,第27巻,第4号,p.753-779

Also Published As

Publication number Publication date
EP4298547A1 (en) 2024-01-03
JP2024520994A (ja) 2024-05-28
KR20250080920A (ko) 2025-06-05
KR20230169361A (ko) 2023-12-15
JP2024164164A (ja) 2024-11-26
KR20240053010A (ko) 2024-04-23
CA3213522A1 (en) 2022-11-24
JP2024167290A (ja) 2024-12-03
US12481834B2 (en) 2025-11-25
US20220374608A1 (en) 2022-11-24
BR112023021621A2 (pt) 2023-12-19
JP7793705B2 (ja) 2026-01-05
KR102812249B1 (ko) 2025-05-26
JP2024096882A (ja) 2024-07-17
KR20250080921A (ko) 2025-06-05
CN118445461A (zh) 2024-08-06
KR102815829B1 (ko) 2025-05-30
JP7769062B2 (ja) 2025-11-12
KR20250083582A (ko) 2025-06-10
CN118445461B (zh) 2025-01-14
CN117178274A (zh) 2023-12-05
US20230177276A1 (en) 2023-06-08
US20240220734A1 (en) 2024-07-04
KR20250083584A (ko) 2025-06-10
JP7547677B2 (ja) 2024-09-09
US11574131B2 (en) 2023-02-07
US20240256786A1 (en) 2024-08-01
KR20250083583A (ko) 2025-06-10
WO2022246194A1 (en) 2022-11-24
CN119691246A (zh) 2025-03-25
US11960848B2 (en) 2024-04-16
US12430515B2 (en) 2025-09-30
CN117178274B (zh) 2024-11-22

Similar Documents

Publication Publication Date Title
JP7547677B2 (ja) 文脈テキスト生成のサービスにおいて中間テキスト分析を生成する機械学習済み言語モデル
CN112567394B (zh) 用于在有限的知识领域中构建知识图的技术
JP2024036354A (ja) 言語タスクのための対照事前トレーニング
US20200342347A1 (en) Machine learning quantum algorithm validator
US20240354065A1 (en) Machine Learning for Automated Development of Data Schema from Natural Language Inputs
EP4589442A1 (en) Synthetic data generation utilizing generative artifical intelligence and scalable data generation tools
US12306837B2 (en) Intuitive data retrieval and visualization with large language models and logic programming
CN115699021A (zh) 子任务自适应神经网络
US20260037746A1 (en) Machine-Learned Language Models Which Generate Intermediate Textual Analysis in Service of Contextual Text Generation
US20260037745A1 (en) Machine-Learned Language Models Which Generate Intermediate Textual Analysis in Service of Contextual Text Generation
US20260037744A1 (en) Machine-Learned Language Models Which Generate Intermediate Textual Analysis in Service of Contextual Text Generation
US20260037747A1 (en) Machine-Learned Language Models Which Generate Intermediate Textual Analysis in Service of Contextual Text Generation
US20240354070A1 (en) Machine Learning for Automated Development of Declarative Model Application Definition from Natural Language Inputs
EP4636650A1 (en) Dynamic determination of inference-time parameters
Chandran Explainable Artificial Intelligence (XAI) for Transparent Decision Systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240412

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240828

R150 Certificate of patent or registration of utility model

Ref document number: 7547653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150