JP2020509486A - 適応可能な処理コンポーネント - Google Patents

適応可能な処理コンポーネント Download PDF

Info

Publication number
JP2020509486A
JP2020509486A JP2019545255A JP2019545255A JP2020509486A JP 2020509486 A JP2020509486 A JP 2020509486A JP 2019545255 A JP2019545255 A JP 2019545255A JP 2019545255 A JP2019545255 A JP 2019545255A JP 2020509486 A JP2020509486 A JP 2020509486A
Authority
JP
Japan
Prior art keywords
application
component
candidate
components
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019545255A
Other languages
English (en)
Other versions
JP7089330B2 (ja
Inventor
パトワーダン、シッダールタ、アジート
パク、ヨンジャ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2020509486A publication Critical patent/JP2020509486A/ja
Application granted granted Critical
Publication of JP7089330B2 publication Critical patent/JP7089330B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Stored Programmes (AREA)
  • Logic Circuits (AREA)

Abstract

【課題】適応可能な処理コンポーネントを利用するアプリケーションとともに処理システムを構成する方法、装置、コンピュータ・プログラム製品、およびコンピュータ・プログラムを提供する。【解決手段】機械学習コンポーネントから構成されたアプリケーションとともに処理システムを構成する際に、ここで、アプリケーションが1組のトレーニング・データに関してトレーニングされ、このアプリケーションは、別の組のトレーニング・データを使用して処理システム上で実行される。グラウンド・トゥルース・データと一致する、上記別の組のトレーニング・データから作成されたアプリケーションの出力が識別される。コンポーネントは、アプリケーションの識別された出力を使用してグラウンド・トゥルース・データと一致するアプリケーションの出力を作成するように構成される。【選択図】図2

Description

本発明の実施形態は、機械学習に関し、より詳細には、様々なアプリケーション環境において個々の機械学習コンポーネントを適応させることに関する。
機械学習は、コンピュータ処理システムが明示的なプログラミングなしに学習することができるコンピュータ・サイエンスの分野である。機械学習は、明示的なアルゴリズムを設計およびプログラミングすることが実行不可能である様々なコンピューティング・タスクにおいて使用され、例示的なアプリケーションは、限定はされないが、ネットワーク・セキュリティ、スパム・フィルタリング、光学式文字認識(OCR)、検索エンジン、コンピュータ・ビジョン、および自然言語処理(NLP)を含む。機械学習コンポーネントまたは「学習者(learner)」の主目的は、学習データ・セットを経験した後、新しい見知らぬ例/タスクを正確に実行するために、その経験から一般化することである。発生空間の典型と見なされるトレーニングの例が提供される場合があり、学習者は、新しい事例において十分に正確な予測を作成することを可能にする、この空間に関する一般モデルを構築する。
いくつかのコンピュータ処理システムならびにその上で実行されるアプリケーションおよびタスクは、多くのコンポーネントを含み、それらのコンポーネントのうちの1つまたは複数は、学習者であってもよい。いくつかのシステムでは、学習者の各々は、互いに独立して、またシステム全体のトレーニングから独立してトレーニングされなければならない。現代の大規模なNLPアプリケーションは、たとえば、互いに独立して、またコンポーネントが使用されるアプリケーションから独立して従来方式でトレーニングされる多くの個々の機械学習ベースのコンポーネントから成る。新しいドメインまたは新しいジャンルのテキストあるいはその両方がアプリケーションに導入されたとき、アプリケーションは、新しいドメインにおいて精度を維持するために新しいトレーニング・データを用いて再トレーニングされる必要がある。そのアプリケーション内の各NLPコンポーネントは、個別にトレーニングされるか、あるいは、そのドメインもしくはジャンルまたはその両方に手動で適応させなければならない。新しいドメインに関するそのようなNLPコンポーネントのためのトレーニング・データを取得することは、極めて高価であり、そのドメインにおける人間の専門家からの入力を必要とする。大きいアプリケーションにおける各すべてのNLPコンポーネントを再トレーニングすることは、法外に高価になり、場合によっては、アプリケーション精度を犠牲にして無視される。
本発明の目的は、適応可能な処理コンポーネントを利用するアプリケーションとともに処理システムを構成する方法等を提供することである。
第1の態様から見ると、本発明は、複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成するための方法を提供し、アプリケーションは1組のトレーニング・データに関してトレーニングされ、方法は、別の組のトレーニング・データを使用して処理システム上でアプリケーションを実行することと、グラウンド・トゥルース・データと一致する、上記別の組のトレーニング・データから作成されたアプリケーションの出力を識別することと、アプリケーションの識別された出力を使用してグラウンド・トゥルース・データと一致するアプリケーションの出力を作成するために複数のコンポーネントを適応させることとを含む。
さらなる態様から見ると、本発明は、複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成するための装置を提供し、アプリケーションは1組のトレーニング・データに関してトレーニングされ、装置は、別の組のトレーニング・データを使用して処理システム上でアプリケーションを実行することと、グラウンド・トゥルース・データと一致する、上記別の組のトレーニング・データから作成されたアプリケーションの出力を識別することと、アプリケーションの識別された出力を使用してグラウンド・トゥルース・データと一致するアプリケーションの出力を作成するために複数のコンポーネントを適応させることとを行うように構成されたプロセッサを含む。
さらなる態様から見ると、本発明は、複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成するためのコンピュータ・プログラム製品を提供し、アプリケーションは1組のトレーニング・データに関してトレーニングされ、コンピュータ・プログラム製品は、処理回路によって読取可能であって、本発明のステップを実行するための方法を実行するために処理回路による実行のための命令を記憶するコンピュータ読取可能記憶媒体を含む。
さらなる態様から見ると、本発明は、コンピュータ・プログラムを提供し、コンピュータ・プログラムは、コンピュータ読取可能媒体上に記憶され、デジタル・コンピュータの内部メモリ内にロード可能であり、前記プログラムがコンピュータ上で実行されるとき、本発明のステップを実行するためのソフトウェア・コード部分を含む。
本発明の実施形態は、各コンポーネントを個別に再トレーニングするのと対照的に、アプリケーションのNLPコンポーネントを適応させトレーニングするためにアプリケーション自体からのフィードバックを使用することによって技術の先行の欠陥を克服する。
本発明は、複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成するためのシステム、方法、またはコンピュータ・プログラム製品あるいはその組合せであってもよく、ここで、アプリケーションは、1組のトレーニング・データに関してトレーニングされ、このアプリケーションは、別の組のトレーニング・データを使用して処理システム上で実行される。グラウンド・トゥルース・データと一致する、上記別の組のトレーニング・データから作成されたアプリケーションの出力が識別される。コンポーネントは、アプリケーションの識別された出力を使用してグラウンド・トゥルース・データと一致するアプリケーションの出力を作成するように適応する。
任意選択で、第1の数の候補出力が、コンポーネントの各々から生成されてもよい。コンポーネント・モデルは、そのコンポーネントから生成された第1の複数の候補出力の各々に関してアプリケーションを実行することによってコンポーネントの各々に関してトレーニングされる。コンポーネント・モデルは、アプリケーションによって作成された結果に基づいて調整される。アプリケーションは、各コンポーネントから第2の数の候補出力を生成することによって複数のコンポーネントの各々に関してトレーニングされたコンポーネント・モデルとともに実行される。各コンポーネントに関してトレーニングされたコンポーネント・モデルは、そのコンポーネントから生成された第2の数の候補出力の中からそのコンポーネントに関する候補出力を選択するために適用される。アプリケーションは、コンポーネントの各々に関する選択された候補出力を利用して実行される。
任意選択で、第1の数の候補出力を生成することは、初期候補出力のバリエーションとして第1の数の候補出力を生成することを含んでもよい。
任意選択で、特徴は、コンポーネントの各々から生成された第1の数の候補出力に関して決定されてもよく、コンポーネントの各々に関するコンポーネント・モデルは、アプリケーションに関する候補出力の選択を可能にするためにアプリケーションによって作成された結果に基づいて、そのコンポーネントから生成された第1の数の候補出力の各々の特徴を重み付けすることによってトレーニングされてもよい。
任意選択で、コンポーネント・モデルは、1組のコンポーネントから生成された第1の数の候補出力の各々からの1つとともにアプリケーションを実行することによって1組のコンポーネントに関してトレーニングされてもよい。コンポーネント・モデルは、アプリケーションによって作成された結果に基づいて1組のコンポーネントに関して調整されてもよい。アプリケーションは、1組のコンポーネントに関してトレーニングされたコンポーネント・モデルとともに実行される。
任意選択で、コンポーネント・モデルは、アプリケーションにおける新しいドメインに応答してアプリケーションからの出力に基づきトレーニングされてもよい。
任意選択で、コンポーネント・モデルをトレーニングすることは、第1の数の候補出力の各々に関してアプリケーションの実行の精度を測定することと、精度に基づいて対応するコンポーネント・モデルを調整することとを含む。特徴を重み付けすることは、高い精度を作成する候補出力に関連付けられた特徴に対する重み付けを増加させることと、低い精度を作成する候補出力に関連付けられた重み付けを減少させることとを含んでもよい。
上記は、発明の概要であり、したがって、必然的に、単純化、一般化、および詳細の省略を含み、この発明の概要は、単なる例示であり、いかなる限定も意図するものではない。本発明の他の態様、発明の特徴および利点は、もっぱら主題の特許出願の特許請求の範囲によって定義されるが、以下の非限定的な発明を実施するための形態から明らかになるであろう。
次に、本発明は、以下の図に示されるように、好ましい実施形態を参照して、単なる例として説明される。
本発明を具体化することができる例示的な環境を示す図である。 本発明を具体化することができる、適応可能なコンポーネントを含む例示的なNLPアプリケーションの概略ブロック図である。 本発明を具体化することができる、適応可能なコンポーネントを含む例示的なNLPアプリケーションの概略ブロック図である。 本発明を具体化することができる自然言語コア・コンポーネントの図である。 本発明の実施形態における、コンポーネント適応モデル・トレーニングおよびランタイム利用の概略ブロック図である。 本発明の実施形態における、コンポーネント適応モデル・トレーニングおよびランタイム利用の概略ブロック図である。 本発明を具体化することができる、従属コンポーネントのコンポーネント適応トレーニングおよびランタイム利用のブロック図である。 本発明を具体化することができる、コンポーネント・トレーニングおよびランタイム動作プロセスのフロー図である。 本発明を具体化することができる、コンポーネント・トレーニングおよびランタイム動作プロセスのフロー図である。
異なるドメイン、ジャンル、またはアプリケーションにおける使用のための自然言語処理(NLP)コンポーネントにトレーニングを提供するために、本発明の実施形態は、各個別のコンポーネントを別々にトレーニングするのとは対照的に、コンポーネントがアプリケーションのトレーニング中に取得された情報を使用してトレーニングされる技法を提供する。本明細書で使用する「アプリケーション」という用語は、通常はユーザ入力に応答して1つまたは複数のタスクを実行する、プロセッサ命令(ソフトウェア)の制御の下でハードウェアを処理することを指す。この定義は、コンピュータ関連の分野における用語の一般的な使用法に沿っていることが意図される。本発明の実施形態は、新しい会話ドメインに順応するために、または、他の機械学習アプリケーションにおいて使用するために、あるいはその両方のために、NLPアプリケーションなどの機械学習を利用するアプリケーションのコンポーネントを再トレーニングすることができる手段を提供する。本発明は、機械学習自体の改良であり、定義上は、「コンピュータ関連技術」であることを理解されたい。本明細書で説明する改良は、コンピュータにより実装される機械学習システムによって前に実行されなかった、自然言語および他の機械学習機能のコンピュータ動作を可能にする。
本発明の実施形態に関する例示的な環境は、ネットワーク・インフラストラクチャ10として図1に示される。図示されるように、この環境は、本明細書では代表してサーバ・システム12と呼ぶ、1つまたは複数のサーバ・システム12a〜12jと、本明細書では代表してクライアント・システム14と呼ぶ、1つまたは複数のクライアント・システムまたはエンドユーザ・システム14a〜14kとを含む。サーバ・システム12およびクライアント・システム14は、互いに離れていてもよく、ネットワーク13を介して通信してもよい。ネットワーク13は、たとえば、金属導体、光ファイバ、空気などの任意の数の適切な通信媒体を介して、1つまたは複数の信号伝達技法を使用して、場合によっては、たとえば、インターネット・プロトコル(IP)、通信制御プロトコル(TCP)、ユーザ・データグラム・プロトコル(UDP)などの1つまたは複数の標準通信プロトコルに従って実装されてもよい。ネットワーク13は、ワイド・エリア・ネットワーク(WAN)、ローカル・エリア・ネットワーク(LAN)、インターネット、イントラネットなどを実装するために適切なハードウェア・コンポーネントによってサポートされてもよい。代替として、サーバ・システム12およびクライアント・システム14は、たとえば、無線リンク、ファイバレス光リンクなどの直接技法または見通し線技法を介して通信するために、互いに十分に接近していてもよい。いくつかの実装形態では、サーバ・システム12のサービスおよび機能ならびにクライアント・システム14のサービスおよび機能は、共通の回路、およびワークステーションなどの単一のデバイスにおける共有の計算資源によって実行されてもよい。
サーバ・システム12およびクライアント・システム14は、ディスプレイまたはモニタと、ベース(たとえば、少なくとも1つのプロセッサ(図示せず)、1つまたは複数のメモリ(図示せず)を含む)と、たとえば、モデム、ネットワーク・カードなどの内部または外部のネットワーク・インターフェースまたは通信デバイス(図示せず)と、たとえば、キーボード、マウス、または他の入力デバイスなどの任意選択の入力デバイスと、たとえば、オペレーティング・システム、サーバ/通信ソフトウェア、ブラウザ/インターフェース・ソフトウェアなどの任意の市販のオープン・ソース特注ソフトウェアとが装備されているのが好ましい、任意の従来のまたは他のコンピュータ・システムによって実装されてもよい。
1つもしくは複数のクライアント・システム14または1つもしくは複数のサーバ・システム12あるいはその両方は、情報技術インフラストラクチャ(ITI)20を実装するように構築され、または別途、構成されてもよい。ITI20は、企業データが収集され、記憶され、取得され、管理される統一的フレームワークを表す。ITI20は、特に、NLPプラットフォーム22を実装してもよい。NLPプラットフォーム22は、上に示したNLPアプリケーションなどのNLPアプリケーションをサポートする機械フレームワークを表す。
NLPプラットフォーム22は、処理されたデータをITI20の情報スキームに一体化することができるように、確立された情報モデル26に従って、代表して非構造化テキスト15で示される非構造化入力テキストを収集および処理してもよい。本明細書で使用する「情報モデル」は、ITI20内で実現される各会話ドメインに関する言語学的概念と、テキスト・コンテンツがその基礎となる意味を導出するために構文解析される、これらの概念間、制約間、規則間、および動作間の関係とを表す。情報モデル26は、複数のオントロジを包含してもよいが、本明細書で使用する「オントロジ」は、会話ドメインにおいてエージェント間で意味が伝達される言語学的エンティティの仕様である。オントロジは、限定はされないが、会話ドメインに関する、辞書学、形態論、文法規則および構文規則、テキストの特別なパターンなどを含む。オントロジは、一般的な言語および企業内部の言語学的エンティティならびにドメイン固有のオントロジを指定することができる、ローカルなオントロジまたは一般的なオントロジあるいはその両方を含んでもよく、ドメイン固有のオントロジは、健康管理、法律、ファイナンス、科学的研究などの分野における特異的なボキャブラリまたは形態論あるいはその両方を有する会話ドメインなどの高度に専門化した会話ドメインの言語学的エンティティを指定する。本発明は、情報技術インフラストラクチャ20においてオントロジが実現される特定の技法に限定されない。本開示を検討すれば、計算言語学の当業者は、本発明の意図された範囲から逸脱することなく、特定の情報統合アプリケーションにおいてオントロジを実現することができる様々な技法を認識するであろう。
図1に示されるように、ITI20は、情報オブジェクト100などの構造化情報が記憶されるデータベース(DB)24を実装してもよい。たとえば、情報モデル、ドメイン・モデル、ランキング・モデルなどの、本明細書で説明する様々なモデルも、DB24に記憶されてもよい。本発明は、DB24の特定の実装形態に限定されず、本開示を検討すれば、情報技術の当業者は、本発明の意図された範囲から逸脱することなく、本発明と併せて使用することができる多数の構造化情報記憶技法を認識するであろう。
情報オブジェクト100は、本発明のいくつかの実施形態が、様々な自然言語処理動作を通していくつかのオブジェクトまたはエンティティに関するコンピュータ読取可能情報を運ぶ、例示的なデータ構造である。図1には単一の情報オブジェクト100が示されているが、DB24は、各々が様々なサイズであって様々な情報データを含む、何十億もの情報オブジェクト100を含んでもよいことを理解されたい。
情報オブジェクト100は、特に、情報オブジェクト100によって表されるオブジェクトの記憶状態を表してもよい。属性110は、代表して変数112で示されるそれぞれの変数と、代表して値114として図1に表される、これらの変数に割り当てられたそれぞれの値とを含んでもよい。本発明は、コンピュータ読取可能な形式のオブジェクトを表す特定の方法に限定されず、情報オブジェクト100は1つの例にすぎない。さらに、値114は、数値またはテキスト値の表現に制限されないことを理解されたい。たとえば、値114は、ポインタ、他の情報オブジェクト100(たとえば、文が構成される単語情報オブジェクトへの参照を含む文情報オブジェクト)へのリンクまたは参照を含んでもよい。本発明は、情報オブジェクト100内で表すことができる属性の特定の組に限定されない。
メタデータ120は、表されたオブジェクトに関する様々な他の情報を表す。たとえば、メタデータ120は、たとえば、表された状態が人間にとって何を意味するのか、個々の変数に割り当てられた値が人間にとって何を意味するのかなどの、属性110に関するコンピュータ読取可能情報を含んでもよい。メタデータ120は、ランタイムおよびトレーニング情報を含む、データ処理自体に関連するコンピュータ読取可能情報を含むこともできる。他の情報も、自然言語処理およびデータベース技術の当業者が認識するように、メタデータ120内に表すことができる。
NLPアプリケーションは、ドメイン固有の知識を表すドメイン・モデル28を介してトレーニングされてもよい。そのようなドメイン固有の知識は、たとえば、アプリケーションの各処理ステージが、そのステージの入力情報オブジェクト100からそのステージの出力情報オブジェクト100を生成する、バックグラウンド・データ、規則、式、変換、定数などを含んでもよい。たとえば、健康管理ドメインでは、ドメイン・モデル28は、いくつかの医療診断が、たとえば、医療履歴、検査結果、医師の注釈などの収集されたデータから導出される、方法論を実現する。NLPプラットフォーム22の様々な処理ステージまたはコンポーネントは、ドメイン・モデル28に従って、数式を計算すること、テキストを処理することなどに応答して、情報オブジェクト100に新しい属性110を挿入してもよく、ドメイン・モデル28によって定義されるようにアプリケーションの処理機能に基づいて、数字、テキスト、画像、ビデオ、ハイパーリンクなどを含む変数112に値114を割り当ててもよい。
図2および図3は、NLPプラットフォーム22の下で実行されるか、または別途NLPプラットフォーム22によってサポートされる例示的な質問回答(QA)システム200の概略ブロック図である。QAシステム200は、自然言語処理、認知処理、機械学習、および機械推論技法を使用して、ユーザ選択された質問(問合せの順番(lines of inquiry))に対する回答(結果)を生成するように構築されるか、または別途構成されてもよい。図2は、QAシステム200のランタイム構成を示し、図3は、QAシステム200のトレーニング構成を示す。
NLP処理プラットフォーム22は、QAシステム200などのNLPアプリケーションの様々なコンポーネントにおいて使用することができるNLPコア300の具体化またはNLPコア300に対するアプリケーション・サポート(たとえば、アプリケーション・プログラミング・インターフェース)あるいはその両方を与えてもよい。いくつかの実施形態では、NLPコア300またはそのコンポーネントあるいはその両方は、NLPコア300のコンポーネントを個別にトレーニングする必要なしに、NLPプラットフォーム22の下で新しい会話ドメインまたは新しいアプリケーションあるいはその両方に適応することができる。例示的なNLPコア300は、図4を参照して以下に詳細に論じられる。
図2に示されるように、回答が求められる質問205は、NLPアプリケーションのユーザ・インターフェースなどを介してランタイムにQAシステム200に導かれてもよい。質問205は、動的なユーザ構築データベース問合せであってもよく、あるいは、標準的な出力生成物(回答)もしくは通常の出力生成物またはその両方を生成するように設計された、前に確立された問合せの順番であってもよく、あるいはその両方であってもよい。
質問分析ステージ210は、質問205の性質を決定してもよく、特別な処理を必要とする質問タイプまたは質問の一部分を識別する質問分類技法を使用してもよい。質問分析ステージ210は、本明細書では語彙回答タイプ(LAT:lexical answer type)と呼ぶ、質問の回答の情報タイプを指定する問題の単語または名詞句を識別することもできる。候補回答は、後に、候補回答がLATの例と見なされるかどうかに関する確信度(confidence)指標によってスコアリングすることができる。
初期検索ステージ220は、質問205に関する情報を求めてテキスト・コーパス280の検索を実行する。テキスト・コーパス280は、特定の課題空間(たとえば、健康管理、ファイナンスなど)において生じる問題の種類を説明するか、または別途これらの種類を示す情報などの、ターゲット・ドメインに関する情報を含んでもよい。初期検索ステージ220は、質問分析ステージ210の結果に基づいて、できるだけ多くの潜在的に回答を生むコンテンツを見出すためにテキスト・コーパス280を介して検索を行ってもよい。初期検索ステージ220は、様々な基礎となるアプローチ、文書検索、ならびに、パッセージ検索、知識ベースの検索、単一の質問に関する複数の検索問合せの生成、およびその他を用いた、複数のテキスト検索エンジンの使用を含む、様々な検索技法を実現することができる。
候補生成ステージ230は、質問205に対する候補回答を生成するために初期検索ステージ220によって生成された結果を使用する。候補生成ステージ230は、取得された検索結果の種類に適した技法を使用してもよい。たとえば、「タイトル指向」リソースからの文書検索結果の事例では、タイトルは、候補回答として抽出される場合がある。このシステムは、部分列分析またはリンク分析(基礎となるソースがハイパーリンクを含む場合)に基づいて同じタイトルからいくつかの候補回答異表記(variant)を生成することができる。パッセージ検索結果は、候補回答を識別するためにパッセージ・テキストのより詳細な分析を必要とする。たとえば、パッセージから候補回答を抽出するために、固有表現検出(named entity detection)が使用されてもよい。トリプルストアおよび辞書の逆引きなどのいくつかのソースは、それらの検索結果として候補回答を直接生成する。
エビデンス取得ステージ240では、候補回答は、各候補回答に関する追加のサポート用のエビデンスを収集することと、サポート用のエビデンスを評価するために多種多様の深層スコアリング・アナリティクス(deep scoring analytics)を適用することとを含む、厳格な評価プロセスを受ける。エビデンスは、候補回答がサポートまたは反証される情報である。たとえば、候補回答が、構造、文脈、および意味においてエビデンスとして収集された他の使用例と類似している場合、回答が正しいという確信度がより大きくなる。候補回答に一致する使用例がまったく無い(または少ない)場合、候補の確信度は低くなる。
本発明の実施形態は、代表してエビデンス・コーパス290で示される、様々なソースにおいて様々なエビデンス収集技法を実施することができる。例示的な技法は、候補回答が質問から導出された検索問合せにおける必要な用語として追加される、初期検索ステージ220におけるパッセージ検索を実行する。このことは、元の質問用語の文脈における候補回答を含むパッセージを取得する。サポート用のエビデンスは、トリプルストアなどの他のソースから来ることもできる。取得されたサポート用のエビデンスは、深層(正確に目標に定められた)エビデンス・スコアリング動作を受けてもよく、この動作は、サポート用のエビデンスの文脈における候補回答を評価する。
回答スコアリングおよびランキング・ステージ250は、エビデンス取得ステージ240によって取得されたエビデンスに基づいて、候補回答が正しいという確信度を決定するスコアリング・アルゴリズムを実行する。QAシステム200は、エビデンスの様々な次元を検討し、エビデンスが所与の質問に対する候補回答をどの程度良くサポートするかに対応するスコアを生成する、多くの異なるスコアリング技法をサポートしてもよい。そのようなスコアリング技法は、様々なタイプのソースからのエビデンスに基づいて、正規の確率から分類別特徴のカウントまでの範囲に及んでもよい。スコアリング技法は、パッセージの述語項構造と質問との間のマッチ度、パッセージ・ソース信頼性、地理空間的な位置、時間的な関係、分類学による分類、候補が関与することがわかっている語彙および意味の関係、候補と質問用語との相関関係、その需要(または曖昧さ)、その別名などのことを検討する場合がある。
「1974年9月8日に大統領によってだれが赦免されたか」という質問を検討すれば、生成された候補回答の1つである「ニクソン」と正しく答えられる。エビデンスとして使用される取得されたパッセージの1つは、「1974年9月8日にフォードがニクソンを赦免した。」である可能性がある。例示的なパッセージ・スコアラは、質問とパッセージとの間の共通の逆文書頻度(IDF:inverse document frequency)重み付き用語の数をカウントしてもよい。別のパッセージ・スコアラは、質問とパッセージとの間の最も長い類似の部分列の長さを測定してもよい。第3のタイプのパッセージ・スコアリングは、質問およびパッセージの論理形式のアラインメントを測定する。論理形式は、ノードがテキスト内の用語であり、エッジが文法的関係または深層の意味的関係あるいはその両方を表す、テキストの視覚的抽象化である。上記の例では、論理形式アラインメントは、パッセージ内の赦免の対象としてニクソンを識別し、質問は、赦免の対象を求めている。論理形式アラインメントは、このエビデンスが与えられれば、「ニクソン」に良いスコアを与える。対照的に、「フォード」などの候補回答は、このパッセージとの用語マッチおよびパッセージ・アラインメントに関しては「ニクソン」とほぼ同一のスコアを受け取るが、より低い論理形式アラインメント・スコアを受け取る。
他のタイプのスコアは、トリプルストア内の知識、ならびに、タイプ分類および地理空間的かつ時間的な推論における包含および排反などの簡単な推論を使用する。地理空間的な推論は、地理的エンティティ(geoentity)間の方向性、境界、および包含などの空間的な関係の存在または不在を検出するために使用されてもよい。たとえば、質問がアジアの都市を求める場合、空間的包含は、北京は適切な候補であるが、シドニーはそうでないというエビデンスを提供する。同様に、エンティティに関連付けられた地理座標情報は、相対的な方向性(たとえば、カリフォルニアはモンタナの南西にある、GWブリッジはリンカーン・トンネルの北にある、など)を計算するために使用されてもよい。
時間的な推論は、エビデンスの日付と候補回答に関連付けられた日付との間の不一致を検出するために使用されてもよい。たとえば、「1594年にアンダルシアにおいて、だれが収税官の仕事に就いたか」という質問に対して生成された、2つの最も起こり得る候補回答は、「ソロー」および「セルバンテス」である。この事例では、時間的な推論は、ソローは1594年には生存しておらず、1817年に生まれた一方で、正解であるセルバンテスは1547年に生まれ、1616年に死亡したので、ソローを除外するために使用される。
回答スコアリングおよびランキング・ステージ250は、エビデンスが与えられれば、単一の最もサポートされた候補回答を識別するために、潜在的な何十万ものスコアに基づいて、何百もの候補回答を評価することができる。特定の候補回答の確信度、すなわち特定の回答が正しいという尤度が推定されてもよい。質問に対する複数の候補回答が、極めて異なる表層形式(surface form)にもかかわらず、等しい場合があるので、候補間の相対的な差を利用するランキング技法におけるコンフリクトを避けるために回答スコアリングおよびランキング・ステージ250によって、回答併合が適用されてもよい。そのような回答併合が無ければ、ランキング・アルゴリズムは、同じ回答を表す複数の表層形式を識別しようとして、これらの表層形式を比較するかもしれない。しかし、異なる表層形式は、しばしば、エビデンスにおいて共通点のない状態でサポートされ、根本的に異なるが、潜在的に相補的なスコアをもたらす。本発明の実施形態は、マッチング・アルゴリズム、正規化アルゴリズム、および共参照解析アルゴリズムの集合を適用し、それによって、等しい関連の仮説(たとえば、エイブラハム・リンカーンと正直なエイブ)が識別される。
図2および図3に示されるように、QAシステム200は、どの候補回答がランキングされたかによるランキング・モデル270を含み、確信度は、候補回答の併合されたスコアに基づいて推定される。本発明の実施形態は、スコアに基づいてランキング・モデル270をトレーニングするために既知の回答を用いて1組のトレーニング質問にわたって動作する機械学習技法を実装する。
トレーニング・ランキング・モデル270は、既知の回答を用いて1組のトレーニング質問203にわたってシステムを実行することを含む機械学習技法によって達成される場合がある。1組のトレーニング質問203およびそれぞれの既知の回答は、グラウンド・トゥルース・データ209として機能してもよい。図3に示されるように、トレーニング質問203は、トレーニング・モードにおいてQAシステム200に提供されてもよい。トレーニング質問203は、図2に示されたランタイム・モードを参照して説明した方法と実質的に同一の方法でQAシステム200によって処理されてもよい。しかし、回答スコアリング・ステージ250’は、候補回答ランキングを控え、その出力においてスコアリングされた回答207’を提供する。スコアリングされた回答207’は、回答スコアおよびグラウンド・トゥルース・データ209に基づいてランキング・モデル270を構築するための機械学習技法を適用するQAトレーニング・ステージ260に提供される。本発明は、QAトレーニング・ステージ260によって利用される特定の機械学習技法に限定されない。本開示を検討すれば、機械学習の当業者は、その意図された範囲から逸脱することなく、本発明と併せて使用することができる様々な技法を認識することができる。
図4は、本発明の実施形態において使用することができる例示的なNLPコア300のブロック図である。図に示されるように、NLPコア300は、1組のNLPコア・コンポーネント310、すなわち、トークナイザ・コンポーネント310a、品詞(POS:part−of−speech)タガー・コンポーネント310b、構文パーサ・コンポーネント310c、固有表現抽出器(NER:named entity recognizer)コンポーネント310d、関係検出器コンポーネント310e、および共参照解析器コンポーネント310fであってもよい。本発明は、図4に示される特定のNLPコア・コンポーネント310に限定されず、これらのNLPコア・コンポーネント310は、様々なNLPアプリケーションにおける使用のためのNLPプラットフォーム22によってサポートされる場合がある、一般に使用されるNLPプロセスの適切な例である。加えて、NLPコア・コンポーネント310は、オープン・ソース・ソフトウェア・パッケージ、市販のソフトウェア・パッケージ、および独自のソフトウェア・パッケージを含む、公に知られているアルゴリズムおよび技法を介して実現されてもよい。
例示的なトークナイザ・コンポーネント310aは、入力テキスト305に含まれるトークン(たとえば、単語、無意味な語など)を(適切に構築された情報オブジェクト100などによって)識別および説明する。特定のNLPコア300が利用されるQAシステム200のアプリケーション・コンポーネントに応じて、入力テキスト305は、NLPコア300によるさらなる処理のために、(質問分析ステージ210において)質問205から、(初期検索ステージ220において)テキスト・コーパス280から、または(エビデンス取得ステージ240において)エビデンス・コーパス290から取得される場合がある。
図4に示されるように、品詞(POS)タガー・コンポーネント310bは、いくつかの既知の言語のテキスト(入力トークン)を読み取ってもよく、品詞を、名詞、動詞、形容詞、副詞、複数名詞などの各単語(および他のトークン)に割り当ててもよい。
構文パーサ・コンポーネント310cは、たとえば、句、文などの文法的構造を識別するために品詞を分析することができる。構文パーサ・コンポーネント310cは、たとえば、どの単語グループが(句として)相伴うか、および、どの単語が主語または動詞の目的語であるか、を決定することができる。確率的パーサは、新しい文の最も起こり得る分析を生成しようとするために前に構文解析された文から得られた言語の知識を使用する。
固有表現抽出器(NER)コンポーネント310dは、固有エンティティ(named entity)(たとえば、人、場所、組織など)、数的なエンティティ(たとえば、金銭、数、序数、パーセントなど)、および時間的なエンティティ(たとえば、日付、時間、期間、セットなど)を認識する。固有エンティティは、様々なコーパス上でトレーニングされた系列タガー(sequence tagger)を使用して認識されてもよい。
関係抽出器コンポーネント310eは、2つのエンティティ間の関係(たとえば、修飾語句と動詞の主語/目的語などの構文関係、参加者などのイベント・フレーム関係など)を見出す。ほとんどの質問は、それらが構文の主語−動詞−目的語型の述語であるかなどの関係、またはエンティティ間の意味的関係を含む。
共参照解析器コンポーネント310fは、テキスト内の同じエンティティを指すすべての表現を見出す。たとえば、共参照解析器コンポーネント310fは、同じ人を指すとき、「ジャックは彼の犬を愛する。」という文において「ジャック」および「彼の」という単語を識別するように構成されてもよい。共参照を解析する技法は、しばしば、指示表現(referring expression)に適合する、テキスト内の最も近い先行するオブジェクト参照表現を最初に探す。しかし、他の共参照解析技法も、本発明と併せて使用することができる。
図4に示されるように、各NLPコア・コンポーネント310は、本明細書では代表して候補出力320と呼ぶ、候補出力を生成するか、または別途作成する。たとえば、トークナイザ・コンポーネント310aは、候補トークン320aを作成することができ、POSタガー・コンポーネント310bは、候補品詞320bを作成することができ、構文パーサ・コンポーネント310cは、候補文法的構造320cを作成することができ、固有表現抽出器コンポーネント310dは、候補固有エンティティ320dを作成することができ、関係検出器コンポーネント310eは、候補関係320eを作成することができ、共参照解析器コンポーネント310fは、候補等価エンティティ320fを作成することができる。各候補出力320は、たとえば、属性110における注釈付きのテキストまたは他のラベル付きのテキストとして、適用可能な場合はメタデータ120として、情報オブジェクト100内に表されてもよい。加えて、図4に示されるように、各候補出力320は、1つまたは複数の特徴330によって特徴付けられる場合があり、対応する情報オブジェクト100のメタデータ120内に記憶される場合がある。本明細書で使用する「特徴」は、何らかのエンティティを表す情報のコンピュータ読取可能項目である。いくつかの実施形態では、各候補出力320は、特徴ベクトル内に構成された、いくつかのそのような特徴によって特徴付けられる場合がある。そのように具体化されるとき、各候補出力320は、対応する特徴ベクトルを分析することによって、その構成に関して評価されることが可能である。説明のために、特徴330も、本明細書では特徴ベクトル330と呼ばれるが、本発明は、ベクトル表現に限定されない。
特徴ベクトル330は、機械学習技法が前進することができる情報データおよび識別データである。新しいドメインにアプリケーションを適応させるとき、特徴ベクトル330は、トレーニングの結果として、新しいドメインに関連する候補回答が、重み付け技法などによって、他のドメイン内の回答よりも好ましくなるように、新しいドメインの意味を取得するために注意深く選択または設計されるべきである。そのような特徴ベクトル330または新しいドメインに関する特徴生成機能あるいはその両方は、ドメイン・モデル28の一部分として構築されるか、または別途構成されてもよい。
図4に示されるように、単一の入力に対する任意のNLPコア・コンポーネント310によって作成される候補出力320の数は、他のNLPコア・コンポーネント310によって作成される候補出力320の数と無関係でもよい。個々のNLPコア・コンポーネント310によって生成されるか、または別途作成される候補出力320の数は、ユーザ構成可能なパラメータであってもよい。
1つのNLPコア・コンポーネント310からの候補出力320が、QAシステム200の出力における正解207に対応するとき、QAシステム200の後続のステージにおけるNLPコア300の候補出力320のすべても、正しくなければならない。これらの候補出力320は、適切な重み付けなどによって優先権を与えられてもよい。候補出力320が不正解207を作成するとき、QAシステム200の別のステージにおける何らかの候補出力320として生成されたその出力320は、正しくない。したがって、障害となる元の候補出力320は、それに対する適切な重みを適用することによって避けることができる。
本発明の実施形態は、質問に対する正解によりつながりそうな候補出力320を作成し、正解にあまりつながりそうにない候補出力320の数を低減するために、NLPコア300のコンポーネント310をトレーニング、構成、および利用する。そのようなトレーニングは、従来、ドメイン主題エキスパートおよび情報技術者によって手動の技法を介して達成される。有利にも、本発明の実施形態は、QAシステム200などのアプリケーションの出力からのフィードバックを使用してそのようなトレーニングを達成する。
図5および図6は、トレーニング・モードを示す図5およびランタイム・モードを示す図6を有する、本発明の例示的な実施形態におけるQAシステム200の概略ブロック図である。図5のトレーニング・モードでは、QAシステム200の各ステージの各NLPコア・コンポーネント310は、QAシステム200自体の出力からのフィードバックを使用してトレーニングされる。NLPコア・コンポーネント310の候補出力320が、QAシステム200によって作成された正解につながる場合、候補出力320またはその典型的な特徴あるいはその両方は、より大きい重みなどによって優先的な処理を受け取ることができる。いくつかの実施形態では、各NLPコア・コンポーネント310の候補出力320は、QAシステム200を通って伝播することが可能であり、それらの候補に基づきトレーニング質問205に対して、どの回答207が作成されたかを決定するためにQAシステム200からの回答にリンクすることができる。候補回答は、QAトレーニング・ステージ260によって実施されるQAトレーニング手順によって評価されてもよい。QAトレーニング・ステージ260は、トレーニング・ランキング・モデル270に加えて、トレーニングされるNLPコア・コンポーネント310に関して適応モデル420を更新する適応ステージ450に情報を提供することができる。
適応ステージ450は、代表して回答セット430と呼ぶ、回答セット430a〜430cなどのアプリケーション出力、およびグラウンド・トゥルース・データ209とのその関係は、個々のNLPコア・コンポーネント310をトレーニングするために使用される、メカニズムを表す。適応ステージ450は、有利にも、NLPコア・コンポーネント310が新しいドメインまたはアプリケーションにおいて動作する適応モデル420を作成、修正、および維持するように構築または別途構成されてもよい。たとえば、適応モデル420は、重みベクトル422を使用して重み付け機能を介して候補出力320またはその特徴ベクトルに適用されるとき、最終的なアプリケーション出力において正解を最ももたらしそうな候補出力320が、アプリケーション出力において正解をあまり作成しそうにない候補出力320よりも優先権を与えられる、重みベクトル422を含むことができる。
図5に示されるように、新しいドメインからのトレーニング質問203は、QA分析ステージ210に提供される場合があり、本明細書では代表して解析木410と呼ぶ、1組の解析木410a〜410cは、QA分析ステージ210の構文パーサ・コンポーネント310cによって作成される。図示された例では、解析木410は、構文パーサ310cの候補出力であり、たとえば、句、文などの文法的にリンクしたテキスト項目を表す。各解析木410は、本明細書では代表して特徴ベクトル415と呼ぶ、対応する候補特徴ベクトル415a〜415cによって表されてもよい。本発明の実施形態では、各候補特徴ベクトル415は、QAシステム200などのNLPアプリケーションの出力に応じて構成された適切な機能または重み付け技法によって変換されてもよい。いくつかの実施形態では、この変換は、たとえばドット積によって候補特徴ベクトル415に適用されるとき、特定の候補解析木410(および対応する特徴ベクトル415)が、グラウンド・トゥルース・データ209との比較によって決定されるように、アプリケーションの出力における正解をいかに作成するかを示すスコアを作成する、重みベクトル422によって達成される場合がある。
各候補出力410は、対応する回答セット430を作成するためにQAシステム200の残りの処理動作を介して正常に伝達されてもよい。本発明のいくつかの実施形態では、各候補解析木410は、対応する回答セット430のみを作成するために、単独で他の候補解析木410とは別にQAシステム200を通って伝播してもよい。そのように具体化されるとき、対応する回答セット430内の回答は、QAトレーニング・ステージ260などによってグラウンド・トゥルース・データ209と比較され、それらのデータに対してランキングされる。そのような分析に基づいて、QAトレーニング・ステージ260は、グラウンド・トゥルース・データ209に応じて一定の確信度で問題に答えられたかどうかに関する指示を適応ステージ450に提供することができる。したがって、適応ステージ450は、重みベクトル422または重み付け機能あるいはその両方などの適切な重み付け方式を決定することができ、たとえば、重み付け機能は、正解をもたらす候補特徴ベクトル415のスコアを増加させ、不正解をもたらす候補特徴ベクトル415のスコアを減少させる。
本発明のいくつかの実施形態では、適応ステージ450は、特徴ベクトル415のバイナリ・カテゴリ・ラベル(正しい/正しくない)を使用してロジスティック回帰技法を実施する。ロジスティック回帰は、所与の特徴ベクトルがQAシステム200の出力において正解をもたらす確率をモデル化するために使用されてもよい。勾配降下技法は、特徴ベクトル415が与えられれば、アプリケーション出力の最も良い予測因子(正解)を生成する重みベクトル422を決定するためにモデル化された統計において使用されてもよい。そのような重みベクトル422は、適応モデル420の一部分として記憶されるか、または別途作成されてもよい。
ランタイムにおいて、図6に示されるように、各NLPコア・コンポーネント310は、適応モデル420に応じて各入力項目に関する1組の候補出力410を作成するように構築、または別途構成されてもよい。すなわち、構文パーサ310cの出力は、図5に示された対応する特徴ベクトル415ではなく適応した特徴ベクトル415’によって表される。いくつかの実施形態では、そのような出力は、それぞれの適応した特徴ベクトル415’を作成するために重みベクトル422により特徴ベクトル415を重み付けすることによって達成される。いくつかの実施形態では、スコア417は、出力410の各々に関して計算され、最も高いスコア417を有する候補出力410の適応した特徴ベクトル415’は、QAシステム200の残りの処理に提供されてもよい。
1つまたは複数のNLPコア・コンポーネント310の候補出力320は、何らかの基準によって関連付けられてもよい。たとえば、構文パーサ310cは、その出力において、その候補出力として上位N個にランキングされた解析木を作成するように構成されてもよい。本発明のいくつかの実施形態では、1つまたは複数のNLPコア・コンポーネント310の候補出力320は、互いにバリエーションとなるように作成される。他の実施形態では、候補出力320を生成するために入力データを変化させるか、または無秩序にするドメイン固有の規則が確立される。「前置詞句が、この入力解析木内の名詞に付加された場合、可能ならば、その前置詞句を切り離し、その前置詞句を最も近い「先祖」名詞句に接続せよ」という言語学的規則が確立されてもよい。この規則は、候補入力解析木に適切に適用されるとき、構文パーサ・コンポーネント310cの1組の候補出力における元の解析木を補完することができる新しい候補解析木を作成する。他のNLPコア・コンポーネント310に関する規則は、同様に構築および適用されることが可能である。たとえば、NERコンポーネント310dに関する規則が確立されてもよく、それにより、現存のエンティティ名は、スパン・サイズを増加/減少させることによって、またはエンティティ名ラベルを変更することによって変化するか、または無秩序になり、たとえば、NERコンポーネント310dによって生成されたすべての人間NERスパンに対する会社候補NERスパンを作成する規則が確立されてもよい。
本発明は、本明細書で説明する適応を実施するための特定のメカニズムに限定されない。たとえば、いくつかの実施形態では、NLPコア・コンポーネント310は、内部適応メカニズムまたは機械学習メカニズムあるいはその両方とともに構築されるか、または別途構成されてもよい。他の実施形態では、NLPコア・コンポーネント310は、アプリケーション出力およびNLPコア・コンポーネントにわたってアプリケーション上に重ね合わされた機械学習適応層によって、適応が達成されるコモディティ・コンポーネントであってもよい。本開示を検討すれば、適応システムの当業者は、本明細書で説明する適応を達成することができる多くの異なる構成を認識するであろう。
先の例では、各NLPコア・コンポーネント310は、他のNLPコア・コンポーネント310とは独立にトレーニングされる。しかし、いくつかの実施形態では、1つのNLPコア・コンポーネント310の出力は、別のNLPコア・コンポーネント310の出力に依存する。本発明のいくつかの実施形態は、そのような依存を考慮することができる技法を実現する。
図7は、本発明の実施形態によって依存性のNLPコア・コンポーネント310をトレーニングおよび利用する概念ブロック図である。図示された例では、NERコンポーネント310dの出力は、構文パーサ・コンポーネント310cによって生成されるか、または別途作成される出力に依存することが仮定される。加えて、NERコンポーネント310d(または任意の他のNLPコア・コンポーネント310)は、その入力において提供されたすべての特徴ベクトルに対する選択可能な数の候補出力320を作成するように構成することができることが仮定される。図7に示されるように、例示的なNERコンポーネント310dは、構文パーサ・コンポーネント310cの出力であるすべての1つの入力から3つの候補出力320を作成するように構成される。構文パーサ・コンポーネント310cは、質問205から、本明細書では代表して解析木510と呼ぶ、3つの解析木510a〜510cを作成することができる。NERコンポーネント310dが、すべての解析木510(またはその特徴ベクトル表現)に対して3つの認識されたエンティティ名520(またはその特徴ベクトル表現)を作成するので、エンティティ名520a〜520iとして認識された合計9つの候補が、NERコンポーネント310dによって作成される。いくつかの実施形態では、同じ解析木510から枝分かれする認識されたエンティティ名520は、したがって、たとえば対応する情報オブジェクト100のメタデータ120において識別される場合がある。したがって、エンティティ名520として認識された各候補の元の解析木510を識別することができる。
いくつかの実施形態では、9つのエンティティ名520は、(QAシステム200の処理ステージを通して解析木とエンティティ名の両方を個別に伝達する代わりに)多数のコンポーネントの集合的適応を可能にする、トレーニングのためのQAシステム200の残りの処理ステージを通して伝達される。NER310dの候補エンティティ名520は、その特定の候補エンティティ名520からQAシステム200の出力において正解が作成されたかどうかを示す、アプリケーションからの出力に関連付けられてもよい。図7では、認識されるエンティティ名520上のプラス(+)シンボルは、正解結果を示し、認識されるエンティティ名520上のマイナス(−)シンボルは、不正解結果を示す。図7に示されるように、解析木510aは、NERコンポーネント310dを介して、QAシステム200の出力において生成される正解をもたらす2つの認識されるエンティティ名520aおよび520bと、生成される不正解をもたらす1つのエンティティ名520cとを生成した。解析木510cは、NERコンポーネント310dを介して、正解をもたらす1つのエンティティ名520gと、不正解をもたらす2つのエンティティ名520hおよび520iとを生成した。
図7に示された結果に基づいて、正解を作成するとラベル付けされた解析木510aは、より少ない正解を作成した解析木510cよりも正確であると見なすことができる。したがって、いずれも直接のトレーニング事例でなかったならば、解析木510aまたはその特徴あるいはその両方は、構文パーサ310cの出力において重み付けされるのがより好ましい場合があり、解析木510cは、構文パーサ310cによって生成されることに関して重み付けされるのがあまり好ましくない場合がある。構文解析木510b内の親子関係を有する認識されるエンティティ名520d〜520fは、正解をもたらさなかった。したがって、解析木510bは、極めて低く重み付けされる可能性がある。そのような重み付けは、構文パーサ・コンポーネント310cおよびNERコンポーネント310dに関して、それぞれ、コンポーネント適応モデル420cおよび420dにおいて反映される場合がある。
図7では、所与の質問205に関する複数の解析木510が作成され、各解析木510に関して、複数のエンティティ名出力520が作成される。各解析木510および各エンティティ名520などの各候補出力320は、QAシステム200などのアプリケーションによって処理されるとき、最終的に、全体としてQAシステム200の異なる出力回答につながる。したがって、質問205から回答207までの、システムを通る単一のパスの代わりに、本発明の実施形態は、回答までの多くの(図示された例では、9つの)パスを作り出す。システム全体にわたる多くの異なるコンポーネントの一般化された事例では、様々な回答までの何百もの(または何千もの)そのようなパスを作り出すことができる。しかし、解析木510の何らかの部分集合は、最終的にQAシステム200が正解、すなわち図7にプラス(+)でマーキングされたパスを作成するように導き、解析木510の別の部分集合は、最終的にQAシステム200が不正解、すなわちマイナス(−)でマーキングされたパスを作成するように導いたことは、図7から観測することができる。プラス(+)に関連付けられたすべての候補出力320は、機械学習のためのプラスの例として利用される場合があり、マイナス(−)に関連付けられたすべての候補は、マイナスの例として利用される場合がある。
上記の乗法のシナリオでは、すなわち、構文パーサ・コンポーネント310cからの結果3×NERコンポーネント310dからの結果3、すなわち候補出力の数は、極めて急速に成長する場合がある。多くの実際のアプリケーションでは、各NLPコア・コンポーネント310によって作成された結果の数は、通常、3よりもはるかに大きい。本発明が、各々が上流のNLPコア・コンポーネント310からの各入力に対する1組の候補出力320を作成する、多くのNLPコア・コンポーネント310のスタックに一般化されるとき、QAシステム200を通る回答までのパスの数は、極めて大きい数のパスになることができることが容易に認識されよう。しかし、これらの多くのパスの部分集合だけが、しきい値成功尤度に関連付けられた場合、低スコアを有するこれらのパスを除外することは、本発明の適応技法の効率をおそらく増加させないが、適応の速度を大幅に増加させる場合がある。大きい数のパスを評価する負担を低減するために、ビーム・サーチ枝刈り法(beam search pruning)または同様の技法を展開することができる。いくつかの実施形態では、そのようなビーム・サーチ枝刈り法は、スタック内の各NLPコア・コンポーネント310からの候補出力320の総数を特定の数N個(たとえば、3個)までに制限する。いくつかの実施形態では、ドット積などの、スコアリング機能を使用して複数の候補出力320をランキングした後の、複数の候補出力320の上位N個(たとえば、3個)である。別の枝刈り実装形態は、一定の入力(解析木)が、正解を作成する一定の数の依存性の候補出力(認識されるエンティティ名)を生成しないかどうかを決定する。
図8および図9は、本発明を具体化することができる、それぞれ、トレーニング・プロセス600およびランタイム・プロセス650のフロー図である。図8に示されるように、例示的なトレーニング・プロセス600は、動作605において最初のNLPコア・コンポーネントによって複数の候補出力を生成することができる。いくつかの実施形態では、各NLPコア・コンポーネントは、初期出力の小さいバリエーションである複数の候補出力を生成するように構築されるか、または別途構成される。このことは、新しく作り出された規則を介して、または現存のNLPコンポーネント再構成を介して行うことができる。
動作610では、特徴ベクトルなどの特徴が、各候補出力に関して定義されてもよい。動作615では、最初の候補出力は、処理のためにアプリケーションに提供され、動作620では、その候補出力に関するアプリケーション出力がグラウンド・トゥルース・データと一致するかどうかが決定される。そうであれば、対応する候補出力が正解を作成したことを示すラベルが適用される。それ以外の場合には、動作620において決定されたとき、アプリケーション出力がグラウンド・トゥルース・データと一致しない場合、対応する出力が不正解を作成したことを示すラベルが適用される。動作635では、すべての候補出力が、アプリケーションを通って伝播したかどうかが決定され、そうでない場合、例示的なプロセス600は、次の候補出力がアプリケーションを通って伝播する、動作615に再び遷移する。動作635において決定されるとき、すべての候補出力がアプリケーションを通って伝播した場合、プロセス600は、動作640に遷移し、グラウンド・トゥルースをもたらす、そのコンポーネントによって生成される特徴または特徴の組が、グラウンド・トゥルースをもたらさない特徴または特徴の組よりも重み付けされるのが好ましい、コンポーネント適応モデルにおいて重みベクトルが決定される。そのような重み付けの決定は、上述したように、たとえば、勾配降下を使用してロジスティック回帰を介して達成される場合がある。動作645では、すべてのNLPコア・コンポーネントからの候補出力が評価されたかどうかが決定される。そうであれば、トレーニング・プロセス600は、終了してもよいが、そうでない場合、トレーニング・プロセス600は、動作605に再び遷移し得、候補出力が、次のNLPコア・コンポーネントによって生成される。
図9に示されるように、動作655のランタイムにおいて、ランタイム・プロセス650は、最初のNLPコア・コンポーネントにおいてアプリケーション入力(質問)に関連する複数の候補出力を生成することができる。動作の際に、各候補出力に対応する特徴が作成される。トレーニング中に決定された重みベクトルは、動作665の際にコンポーネント適応モデルから特徴ベクトルに適用される。動作670の際に、適応した特徴ベクトルからスコアが計算され、動作675の際に、最も高いスコアの候補出力が、アプリケーションの出力を生成するためにアプリケーションを通って伝播する。
クライアント・システム14は、ユーザが文書(たとえば、トレーニング質問207、質問205、グラウンド・トゥルース・データ209など)をサーバ・システム12に提出することを可能にする。サーバ・システムは、非構造化情報を処理して構造化情報にし、別途、その適用可能なコンポーネント(たとえば、NLPコア・コンポーネント310)を使用してNLPアプリケーションの実行をサポートするためのNLPプラットフォーム22を含む。DB24などのデータベース・システムは、分析のための様々な情報(たとえば、情報オブジェクト、グラウンド・トゥルース・データ、エビデンス、モデルなど)を記憶することができる。データベース・システムは、任意の従来のデータベースもしくはストレージ・ユニットまたは他のデータベースもしくはストレージ・ユニットによって実装され、サーバ・システム12およびクライアント・システム14に接近しているか、またはそれらから離れている場合があり、任意の適切な通信媒体(たとえば、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、ハードウェア、無線リンク、イントラネットなど)を介して通信する場合がある。クライアント・システムは、分析およびユーザ問合せ順番に関連するユーザから情報を要請するためにグラフィカル・ユーザ・インターフェース(たとえば、GUIなど)または他のインターフェース(たとえば、コマンド・ライン・プロンプト、メニュー・スクリーンなど)を提示することができ、分析結果(たとえば、テキスト・アナリティクス、回答など)を含むレポートを提供することができる。
NLPプラットフォーム22は、上述の本発明の実施形態の様々な機能を実行するための1つまたは複数のモジュールまたはユニットを含んでもよい。様々なコンポーネント(たとえば、質問分析コンポーネント210、初期検索コンポーネント220、候補生成コンポーネント230、エビデンス取得コンポーネント240、回答スコアリングおよびランキング・コンポーネント250、QAトレーニング・コンポーネント260、適応コンポーネント450、NLPコア・コンポーネント310など)は、任意の数量のソフトウェア・モジュールもしくはユニットまたはハードウェア・モジュールもしくはユニットあるいはその任意の組合せによって実装される場合があり、プロセッサによる実行のためのサーバ・システムまたはクライアント・システムあるいはその両方のメモリ内に存在する場合がある。
上述し図面に示した実施形態は、適応可能なNLPコンポーネントのトレーニングおよび利用を実施する多くの方法のうちの少数のみを表すことが諒解されよう。
本発明の実施形態の環境は、任意の数のコンピュータまたは他の処理システム(たとえば、クライアント・システムまたはエンドユーザ・システム、サーバ・システムなど)と、任意の所望の方式で構成されたデータベースまたは他のリポジトリとを含む場合があり、本発明の実施形態は、任意の所望のタイプのコンピューティング環境(たとえば、クラウド・コンピューティング、クライアント・サーバ、ネットワーク・コンピューティング、メインフレーム、独立型システムなど)に適用される場合がある。本発明の実施形態によって使用されるコンピュータまたは他の処理システムは、任意の数の任意の個人用のコンピュータもしくは処理システムまたは他のタイプのコンピュータもしくは処理システム(たとえば、デスクトップ、ラップトップ、PDA、モバイル・デバイスなど)によって実装される場合があり、任意の市販のオペレーティング・システム、および、市販のソフトウェアとカスタム・ソフトウェアとの任意の組合せ(たとえば、ブラウザ・ソフトウェア、通信ソフトウェア、サーバ・ソフトウェア、NLP処理モジュールなど)を含む場合がある。これらのシステムは、情報を入力または表示あるいはその両方を行うための、任意のタイプのモニタおよび入力デバイス(たとえば、キーボード、マウス、音声認識など)を含む場合がある。
本発明の実施形態のソフトウェア(たとえば、NLPプラットフォーム、NLPアプリケーション、NLPアプリケーション・コンポーネント、NLPアプリケーション・トレーニング・コンポーネント、適応コンポーネントなど)は、任意の所望のコンピュータ言語において実装される場合があり、図面に示される仕様およびフローチャートに含まれる機能的な説明に基づいてコンピュータ技術の当業者によって開発されることが可能であることを理解されたい。さらに、様々な機能を実行するソフトウェアの本明細書における任意の参照は、一般に、ソフトウェア制御の下でこれらの機能を実行するコンピュータ・システムまたはプロセッサに対してなされる。代替として、本発明の実施形態のコンピュータ・システムは、任意のタイプのハードウェアまたは他の処理回路あるいはその両方によって実装される場合がある。
コンピュータ・システムまたは他の処理システムの様々な機能は、任意の数のソフトウェア・モジュールもしくはユニットまたはハードウェア・モジュールもしくはユニットあるいはその組合せ、処理システムもしくはコンピュータ・システムまたは回路あるいはその組合せの間で任意の方法で分散される場合があり、コンピュータ・システムまたは処理システムは、互いに接近してまたは離れて配置され、任意の適切な通信媒体(たとえば、LAN、WAN、イントラネット、インターネット、ハードワイヤ、モデム接続、無線など)を介して通信してもよい。たとえば、本発明の実施形態の機能は、様々なエンドユーザ/クライアント・システムおよびサーバ・システムまたは任意の他の中間処理デバイスあるいはその組合せの間で任意の方法で分散される場合がある。上述しフローチャートに示したソフトウェアまたはアルゴリズムあるいはその両方は、本明細書で説明された機能を遂行する任意の方法で修正されてもよい。加えて、フローチャートまたは説明における機能は、所望の動作を遂行する任意の順番で実行されてもよい。
本発明の実施形態のソフトウェア(たとえば、NLPプラットフォーム、NLPアプリケーション、NLPアプリケーション・コンポーネント、NLPアプリケーション・トレーニング・コンポーネント、適応コンポーネントなど)は、独立型システムまたはネットワークもしくは他の通信媒体によって接続されたシステムとともに使用するための固定式または携帯型のプログラム製品装置またはデバイスの非一過性のコンピュータ使用可能媒体(たとえば、磁気媒体または光学媒体、磁気光学媒体、フロッピー・ディスケット、CD−ROM、DVD、メモリ・デバイスなど)上で利用可能である場合がある。
通信ネットワークは、任意の数の任意のタイプの通信ネットワーク(たとえば、LAN、WAN、インターネット、イントラネット、VPNなど)によって実装されてもよい。本発明の実施形態のコンピュータ・システムまたは他の処理システムは、任意の従来のプロトコルまたは他のプロトコルを介してネットワーク上で通信するための任意の従来の通信デバイスまたは他の通信デバイスを含んでもよい。コンピュータ・システムまたは他の処理システムは、ネットワークにアクセスするための任意のタイプの接続(たとえば、有線、無線など)を利用してもよい。ローカル通信媒体は、任意の適切な通信媒体(たとえば、ローカル・エリア・ネットワーク(LAN)、ハードワイヤ、無線リンク、イントラネットなど)によって実装されてもよい。
データベース・システムは、情報(たとえば、情報オブジェクト、回答、エビデンス、モデルなど)を記憶するために任意の数の任意の従来または他のデータベース、データ・ストア構造、またはデータ記憶構造(たとえば、ファイル、データベース、データ構造、データ・リポジトリまたは他のリポジトリなど)を使用してもよい。データベース・システムは、情報(たとえば、情報オブジェクト、回答、エビデンス、モデルなど)を記憶するために任意の数の任意の従来または他のデータベース、データ・ストア構造、またはデータ記憶構造(たとえば、ファイル、データベース、データ構造、データ・リポジトリまたは他のリポジトリなど)によって実装されてもよい。データベース・システムは、サーバ・システムまたはクライアント・システムあるいはその両方内に含まれるか、またはそれらに結合されてもよい。データベース・システムまたは記憶構造あるいはその両方は、コンピュータ・システムまたは他の処理システムから離れているか、またはそれらに接近していてもよく、任意の所望のデータ(たとえば、情報オブジェクト、結論、エビデンス、モデルなど)を記憶してもよい。
本発明の実施形態は、情報(たとえば、トレーニング質問207、質問205、グラウンド・トゥルース・データ209など)を取得または提供するために、任意の数の任意のタイプのユーザ・インターフェース(たとえば、グラフィカル・ユーザ・インターフェース(GUI)、コマンド・ライン、プロンプトなど)を使用してもよく、インターフェースは、任意の方法で構成された任意の情報を含んでもよい。インターフェースは、任意の適切な入力デバイス(たとえば、マウス、キーボードなど)を介して情報を入力/表示し、所望の動作を開始するために任意の場所に配置された任意の数の任意のタイプの入力メカニズムまたは作動メカニズム(たとえば、ボタン、アイコン、フィールド、ボックス、リンクなど)を含んでもよい。インターフェース画面は、任意の方法で画面間をナビゲートするための任意の適切な操作部(たとえば、リンク、タブなど)を含んでもよい。
レポートは、任意の方法で構成された何らかの情報を含んでもよく、規則または他の基準(たとえば、制約、ユーザ・プロファイルなど)に基づいて所望の情報(たとえば、テキスト・アナリティクス、回答など)をユーザに提供するように構成可能であってもよい。
本発明の実施形態は、上述の特定のタスクまたはアルゴリズムに限定されず、ファイナンス、法的分析などの他のドメインにおいて利用されてもよい。
本明細書で使用する用語は、特定の実施形態のみを説明するためであり、本発明の限定を意図するものではない。本明細書で使用する単数形「1つの(a)」、「1つの(an)」、および「その(the)」は、別段に文脈が明確に示さない限り、複数形も含むことが意図される。「備える(comprises)」、「備えている(comprising)」、「含む(includes)」、「含んでいる(including)」、「有する(has)」、「有する(have)」、「有している(having)」、「ともに(with)」などの用語は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、またはコンポーネントあるいはその組合せの存在を明確化し、1つまたは複数の他の特徴、整数、ステップ、動作、要素、コンポーネント、またはそれらのグループあるいはその組合せの存在または追加を除外しないことがさらに理解されよう。
以下の特許請求の範囲におけるすべてのミーンズまたはステップ・プラス・ファンクション要素の対応する構造、材料、動作、およびその均等物は、明確に特許請求されるように、他の特許請求された要素と組み合わせて機能を実行するための任意の構造、材料、または動作を含むことを意図される。本発明の説明は、例示および説明のために与えられてきたが、網羅的であることも、開示された形式の発明に限定することも意図されない。多くの変更および変形は、本発明の範囲から逸脱することなしに、当業者に明らかであろう。本実施形態は、本発明の原理および実際の用途を最も良く説明するために、また、企図された特定の使用法に適合するように様々な変更を有する様々な実施形態に関する発明を他の当業者が理解することができるように選択され、説明された。
本発明の様々な実施形態の説明は、例示のために与えられてきたが、網羅的であることも、開示された実施形態に限定することも意図されない。多くの変更および変形は、説明した実施形態の範囲から逸脱することなしに、当業者に明らかであろう。本明細書で使用した用語は、本実施形態の原理、実際の用途、または市場で見出される技術を上回る技術的改善を最も良く説明するために、または、本明細書で開示した実施形態を他の当業者が理解することができるように選択された。
本発明は、任意の考え得る技術的詳細レベルの統合(technical detail level of integration)のシステム、方法、またはコンピュータ・プログラム製品あるいはその組合せであってもよい。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためにコンピュータ読取可能プログラム命令を有する1つのコンピュータ読取可能記憶媒体(または複数の媒体)を含んでもよい。
コンピュータ読取可能記憶媒体は、命令実行デバイスによって使用するための命令を保持および記憶することができる有形のデバイスである可能性がある。コンピュータ読取可能記憶媒体は、たとえば、限定はされないが、電子記憶デバイス、磁気記憶デバイス、光学記憶デバイス、電磁的記憶デバイス、半導体記憶デバイス、またはそれらの任意の適切な組合せであってもよい。コンピュータ読取可能記憶媒体のより具体的な例の包括的でないリストは、次の、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、消去可能プログラマブル・リード・オンリ・メモリ(EPROMまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク・リード・オンリ・メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー・ディスク、パンチ・カードまたは命令が記録された溝内の突起構造などの機械的にエンコードされたデバイス、およびそれらの任意の適切な組合せを含む。本明細書で使用するコンピュータ読取可能記憶媒体は、電波もしくは他の自由に伝播する電磁波、導波管もしくは他の伝送媒体を通って伝播する電磁波(たとえば、光ファイバ・ケーブルを通過する光パルス)、またはワイヤを通して伝送される電気信号などの一過性の信号自体と解釈されるべきでない。
本明細書で説明するコンピュータ読取可能プログラム命令は、コンピュータ読取可能記憶媒体からそれぞれのコンピューティング/処理デバイスに、または、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、またはワイヤレス・ネットワークあるいはその組合せなどのネットワークを介して外部のコンピュータまたは外部の記憶デバイスにダウンロードされることが可能である。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバあるいはその組合せを含んでもよい。各コンピューティング/処理デバイス内のネットワーク・アダプタ・カードまたはネットワーク・インターフェースは、ネットワークからコンピュータ読取可能プログラム命令を受け取り、それぞれのコンピューティング/処理デバイス内のコンピュータ読取可能記憶媒体内への記憶のために、コンピュータ読取可能プログラム命令を転送する。
本発明の動作を実行するためのコンピュータ読取可能プログラム命令は、アセンブラ命令、インストラクション・セット・アーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、ステート設定データ(state-setting data)、集積回路のための構成データ、または、Smalltalk(R)、C++などのオブジェクト指向のプログラミング言語、および「C」プログラミング言語もしくは同様のプログラミング言語などの手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組合せで書かれたソース・コードもしくはオブジェクト・コードのいずれかであってもよい。コンピュータ読取可能プログラム命令は、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、独立型ソフトウェア・パッケージとして、ユーザのコンピュータ上で部分的にかつリモート・コンピュータ上で部分的に、またはリモート・コンピュータもしくはサーバ上で完全に実行されてもよい。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)もしくはワイド・エリア・ネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよく、または、接続は、外部のコンピュータに(たとえば、インターネット・サービス・プロバイダを使用してインターネットを介して)なされてもよい。いくつかの実施形態では、たとえば、プログラマブル論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)を含む電子回路は、本発明の態様を実行するために電子回路をカスタマイズするのにコンピュータ読取可能プログラム命令のステート情報を利用することによってコンピュータ読取可能プログラム命令を実行してもよい。
本発明の態様は、本発明の実施形態による、方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照して本明細書で説明される。フローチャート図またはブロック図あるいはその両方の各ブロック、および、フローチャート図またはブロック図あるいはその両方のブロックの組合せは、コンピュータ読取可能プログラム命令によって実装されることが可能であることが理解されよう。
これらのコンピュータ読取可能プログラム命令は、コンピュータまたは他のプログラマブル・データ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方の1つもしくは複数のブロックに指定される機能/動作を実施する手段を作り出すように、汎用コンピュータ、専用コンピュータ、または他のプログラマブル・データ処理装置のプロセッサに提供されてマシンを作り出すものであってよい。これらのコンピュータ読取可能プログラム命令は、内部に命令が記憶されたコンピュータ読取可能記憶媒体が、フローチャートまたはブロック図あるいはその両方の1つもしくは複数のブロックに指定される機能/動作の態様を実施する命令を含む製品を含むように、コンピュータ、プログラマブル・データ処理装置、または他のデバイスあるいはその組合せに特定の方式で機能するように指示することができるコンピュータ読取可能記憶媒体において記憶される場合もある。
コンピュータ読取可能プログラム命令は、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方の1つもしくは複数のブロックに指定された機能/動作を実行するべく、コンピュータによって実施されるプロセスを作成するために、コンピュータ、他のプログラマブル・データ処理装置、または他のデバイスにロードされ、コンピュータ、他のプログラマブル装置、または他のデバイス上で一連の動作ステップを実行させるものであってもよい。
図内のフローチャートおよびブロック図は、本発明の様々な実施形態による、システム、方法、およびコンピュータ・プログラム製品の考え得る実装形態のアーキテクチャ、機能、および動作を示す。これに関して、フローチャートまたはブロック図内の各ブロックは、指定された論理機能を実施するための1つまたは複数の実行可能な命令を含む、モジュール、セグメント、または命令の一部を表す場合がある。いくつかの代替の実装形態では、ブロック内に記載された機能は、図内に記載された順番がばらばらになって起こる場合がある。たとえば、連続的に示された2つのブロックが、実際は、実質的に同時に実行される場合があり、または、ブロックが、含まれる機能に応じて、ときどき逆順に実行される場合がある。ブロック図またはフローチャート図あるいはその両方の各ブロック、および、ブロック図またはフローチャート図あるいはその両方のブロックの組合せは、指定された機能もしくは動作を実行するか、または専用ハードウェアとコンピュータ命令の組合せを実行する、専用ハードウェア・ベースのシステムによって実施されることが可能であることにも留意されよう。
10 ネットワーク・インフラストラクチャ
12(12a〜12j) サーバ・システム
13 ネットワーク
14(14a〜14k) クライアント・システム
15 非構造化情報
20 情報技術インフラストラクチャ(ITI)
22 自然言語処理(NLP)プラットフォーム
24 データベース(DB)
26 情報モデル
28 ドメイン・モデル
100 情報オブジェクト
110 属性
112 変数
114 値
120 メタデータ

Claims (18)

  1. 複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成する方法であって、前記アプリケーションは1組のトレーニング・データに関してトレーニングされ、前記方法は、
    別の組のトレーニング・データを使用して前記処理システム上で前記アプリケーションを実行することと、
    グラウンド・トゥルース・データと一致する、前記別の組のトレーニング・データから作成された前記アプリケーションの出力を識別することと、
    前記アプリケーションの前記識別された出力を使用して前記グラウンド・トゥルース・データと一致する前記アプリケーションの出力を作成するために前記複数のコンポーネントを適応させることと
    を含む、方法。
  2. 前記別の組のトレーニング・データに基づいて前記複数のコンポーネントの各々から第1の複数の候補出力を生成することと、
    前記コンポーネントから生成された前記第1の複数の候補出力の各々に関して前記アプリケーションを実行し、前記アプリケーションによって作成された結果に基づいてコンポーネント・モデルを調整することによって、前記複数のコンポーネントの各々に関する前記コンポーネント・モデルをトレーニングすることと
    をさらに含む、請求項1に記載の方法。
  3. 各コンポーネントから第2の複数の候補出力を生成すること、
    前記コンポーネントから生成された前記第2の複数の候補出力の中から前記コンポーネントに関する候補出力を選択するために各コンポーネントに関して前記トレーニングされたコンポーネント・モデルを適用すること、および
    前記複数のコンポーネントの各々に関する前記選択された候補出力を利用して前記アプリケーションを実行すること
    によって前記複数のコンポーネントの各々に関して前記トレーニングされたコンポーネント・モデルとともに前記アプリケーションを実行すること
    をさらに含む、請求項2に記載の方法。
  4. 前記処理システムは、自然言語処理(NLP)システムを含み、前記コンポーネントは、自然言語処理(NLP)動作を実行する、請求項1ないし3のいずれかに記載の方法。
  5. 前記第1の複数の候補出力を生成することは、
    初期候補出力のバリエーションとして前記第1の複数の候補出力を生成すること
    を含む、請求項2ないし4のいずれかに記載の方法。
  6. 前記複数のコンポーネントの各々から生成された前記第1の複数の候補出力に関して特徴を決定すること
    をさらに含み、
    前記複数のコンポーネントの各々に関するコンポーネント・モデルをトレーニングすることは、前記アプリケーションに関する候補出力の選択を可能にするために前記アプリケーションによって作成された結果に基づいて、前記コンポーネントから生成された前記第1の複数の候補出力の各々の前記特徴を重み付けすることを含む、
    請求項2ないし5のいずれかに記載の方法。
  7. 1組のコンポーネントから生成された複数の候補出力の各々からの1つとともに前記アプリケーションを実行し、前記アプリケーションによって作成された結果に基づいて前記1組のコンポーネントに関するコンポーネント・モデルを調整することによって、前記1組のコンポーネントに関する前記コンポーネント・モデルをトレーニングすることと、
    前記1組のコンポーネントに関する前記トレーニングされたコンポーネント・モデルとともに前記アプリケーションを実行することと
    をさらに含む、請求項1ないし6のいずれかに記載の方法。
  8. 前記コンポーネント・モデルは、前記アプリケーションにおける新しいドメインに応答して前記アプリケーションからの出力に基づきトレーニングされる、請求項1ないし7のいずれかに記載の方法。
  9. 複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成する装置であって、前記アプリケーションは1組のトレーニング・データに関してトレーニングされ、前記装置は、
    別の組のトレーニング・データを使用して前記処理システム上で前記アプリケーションを実行することと、
    グラウンド・トゥルース・データと一致する、前記別の組のトレーニング・データから作成された前記アプリケーションの出力を識別することと、
    前記アプリケーションの前記識別された出力を使用して前記グラウンド・トゥルース・データと一致する前記アプリケーションの出力を作成するために前記複数のコンポーネントを適応させることと
    を行うように構成された、プロセッサ
    を含む、装置。
  10. 前記コンポーネントに関するコンポーネント・モデルを記憶するように構成されたデータ記憶ユニットをさらに含み、前記プロセッサは、
    前記別の組のトレーニング・データに基づいて前記複数のコンポーネントの各々から第1の複数の候補出力を生成することと、
    前記コンポーネントから生成された前記第1の複数の候補出力の各々に関して前記アプリケーションを実行し、前記アプリケーションによって作成された結果に基づいてコンポーネント・モデルを調整することによって、前記複数のコンポーネントの各々に関する前記コンポーネント・モデルをトレーニングすることと
    を行うようにさらに構成される、請求項9に記載の装置。
  11. 前記プロセッサは、
    各コンポーネントから第2の複数の候補出力を生成することと、
    前記コンポーネントから生成された前記第2の複数の候補出力の中から前記コンポーネントに関する候補出力を選択するために各コンポーネントに関して前記トレーニングされたコンポーネント・モデルを適用することと、
    前記複数のコンポーネントの各々に関する前記選択された候補出力を利用して前記アプリケーションを実行することと
    を行うようにさらに構成される、請求項10に記載の装置。
  12. 前記プロセッサは、
    初期候補出力のバリエーションとして前記第1の複数の候補出力を生成すること
    を行うようにさらに構成される、請求項10または11に記載の装置。
  13. 前記プロセッサは、
    前記複数のコンポーネントの各々から生成された前記第1の複数の候補出力に関して特徴を決定することと、
    前記アプリケーションに関する候補出力の前記選択を可能にするために前記アプリケーションによって作成された結果に基づいて、前記コンポーネントから生成された前記第1の複数の候補出力の各々の前記特徴を重み付けすることと
    を行うようにさらに構成される、請求項10ないし12のいずれかに記載の装置。
  14. 前記プロセッサは、
    1組のコンポーネントから生成された複数の候補出力の各々からの1つとともに前記アプリケーションを実行し、前記アプリケーションによって作成された結果に基づいて前記1組のコンポーネントに関するコンポーネント・モデルを調整することによって、前記1組のコンポーネントに関する前記コンポーネント・モデルをトレーニングすることと、
    前記1組のコンポーネントに関する前記トレーニングされたコンポーネント・モデルとともに前記アプリケーションを実行することと
    を行うようにさらに構成される、請求項9ないし13のいずれかに記載の装置。
  15. 前記コンポーネント・モデルは、前記アプリケーションにおける新しいドメインに応答して前記アプリケーションからの出力に基づきトレーニングされる、請求項10ないし14のいずれかに記載の装置。
  16. 複数のコンポーネントを利用するアプリケーションとともに処理システムを構成するためのコンピュータ・プログラム製品であって、前記アプリケーションは1組のトレーニング・データに関してトレーニングされ、前記コンピュータ・プログラム製品は、プログラム命令が具体化されたコンピュータ読取可能記憶媒体を含み、プロセッサによって実行可能な前記プログラム命令は、
    別の組のトレーニング・データを使用して前記処理システム上で前記アプリケーションを実行することと、
    グラウンド・トゥルース・データと一致する、前記別の組のトレーニング・データから作成された前記アプリケーションの出力を識別することと、
    前記アプリケーションの前記識別された出力を使用して前記グラウンド・トゥルース・データと一致する前記アプリケーションの出力を作成するために前記複数のコンポーネントを適応させることと
    を前記プロセッサに行わせる、コンピュータ・プログラム製品。
  17. 複数の機械学習コンポーネントを利用するアプリケーションとともに処理システムを構成するためのコンピュータ・プログラム製品であって、前記アプリケーションは1組のトレーニング・データに関してトレーニングされ、前記コンピュータ・プログラム製品は、
    処理回路によって読取可能であって、請求項1ないし8のいずれかに記載の方法を実行するために前記処理回路による実行のための命令を記憶するコンピュータ読取可能記憶媒体
    を含む、コンピュータ・プログラム製品。
  18. コンピュータ・プログラムであって、コンピュータ読取可能媒体上に記憶され、デジタル・コンピュータの内部メモリ内にロード可能であり、前記プログラムがコンピュータ上で実行されるとき、請求項1ないし8のいずれかに記載の方法を実行するためのソフトウェア・コード部分を含む、コンピュータ・プログラム。
JP2019545255A 2017-02-28 2017-12-13 適応可能な処理コンポーネント Active JP7089330B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/444,734 US11144718B2 (en) 2017-02-28 2017-02-28 Adaptable processing components
US15/444,734 2017-02-28
PCT/IB2017/057891 WO2018158626A1 (en) 2017-02-28 2017-12-13 Adaptable processing components

Publications (2)

Publication Number Publication Date
JP2020509486A true JP2020509486A (ja) 2020-03-26
JP7089330B2 JP7089330B2 (ja) 2022-06-22

Family

ID=63246328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019545255A Active JP7089330B2 (ja) 2017-02-28 2017-12-13 適応可能な処理コンポーネント

Country Status (6)

Country Link
US (1) US11144718B2 (ja)
JP (1) JP7089330B2 (ja)
CN (1) CN110337645B (ja)
DE (1) DE112017006151T5 (ja)
GB (1) GB2574555A (ja)
WO (1) WO2018158626A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6783671B2 (ja) * 2017-01-13 2020-11-11 株式会社東芝 区分システム、認識支援装置、認識支援方法、および認識支援プログラム
US11081104B1 (en) * 2017-06-27 2021-08-03 Amazon Technologies, Inc. Contextual natural language processing
US11043205B1 (en) * 2017-06-27 2021-06-22 Amazon Technologies, Inc. Scoring of natural language processing hypotheses
US11132541B2 (en) * 2017-09-29 2021-09-28 The Mitre Corporation Systems and method for generating event timelines using human language technology
CN109582799B (zh) * 2018-06-29 2020-09-22 北京百度网讯科技有限公司 知识样本数据集的确定方法、装置及电子设备
US20200159824A1 (en) * 2018-11-15 2020-05-21 International Business Machines Corporation Dynamic Contextual Response Formulation
US11501186B2 (en) * 2019-02-27 2022-11-15 Accenture Global Solutions Limited Artificial intelligence (AI) based data processing
US11314948B2 (en) * 2019-03-05 2022-04-26 Medyug Technology Private Limited System to convert sequence of words into human thought representations
US10997977B2 (en) * 2019-04-30 2021-05-04 Sap Se Hybrid NLP scenarios for mobile devices
US11861674B1 (en) 2019-10-18 2024-01-02 Meta Platforms Technologies, Llc Method, one or more computer-readable non-transitory storage media, and a system for generating comprehensive information for products of interest by assistant systems
US11567788B1 (en) 2019-10-18 2023-01-31 Meta Platforms, Inc. Generating proactive reminders for assistant systems
US10839033B1 (en) 2019-11-26 2020-11-17 Vui, Inc. Referring expression generation
US11556508B1 (en) * 2020-06-08 2023-01-17 Cigna Intellectual Property, Inc. Machine learning system for automated attribute name mapping between source data models and destination data models
US11803578B2 (en) * 2021-09-21 2023-10-31 Sap Se Personalized evolving search assistance
JP2023078639A (ja) 2021-11-26 2023-06-07 トヨタ自動車株式会社 情報処理装置及び情報処理方法
WO2023094002A1 (en) * 2021-11-27 2023-06-01 Zoe Life Technologies Ag Configuring a machine device efficiently over a network

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554068A (ja) * 1991-08-29 1993-03-05 Toshiba Corp 音声認識システム
JP2006163623A (ja) * 2004-12-03 2006-06-22 Nippon Hoso Kyokai <Nhk> 質問応答装置及び質問応答プログラム、並びに、テレビ受像機
JP2013250926A (ja) * 2012-06-04 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> 質問応答装置、方法、及びプログラム
JP2014120053A (ja) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> 質問応答装置、方法、及びプログラム
JP2016024600A (ja) * 2014-07-18 2016-02-08 トヨタ自動車株式会社 質疑応答装置および質疑応答装置の制御方法
US20160342895A1 (en) * 2015-05-21 2016-11-24 Baidu Usa Llc Multilingual image question answering

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070106496A1 (en) * 2005-11-09 2007-05-10 Microsoft Corporation Adaptive task framework
US7783114B2 (en) 2006-08-22 2010-08-24 Intel Corporation Training and using classification components on multiple processing units
CN101136020A (zh) 2006-08-31 2008-03-05 国际商业机器公司 自动扩展参考数据的系统和方法
CN103870528B (zh) * 2012-12-17 2018-04-17 东方概念有限公司 深度问题回答系统中的问题分类和特征映射的方法和系统
CN104216913B (zh) * 2013-06-04 2019-01-04 Sap欧洲公司 问题回答方法、系统和计算机可读介质
US9600776B1 (en) 2013-11-22 2017-03-21 Groupon, Inc. Automated adaptive data analysis using dynamic data quality assessment
US9965548B2 (en) * 2013-12-05 2018-05-08 International Business Machines Corporation Analyzing natural language questions to determine missing information in order to improve accuracy of answers
US9460085B2 (en) 2013-12-09 2016-10-04 International Business Machines Corporation Testing and training a question-answering system
US9411878B2 (en) * 2014-02-19 2016-08-09 International Business Machines Corporation NLP duration and duration range comparison methodology using similarity weighting
US9607035B2 (en) * 2014-05-21 2017-03-28 International Business Machines Corporation Extensible validation framework for question and answer systems
US20160078359A1 (en) * 2014-09-12 2016-03-17 Xerox Corporation System for domain adaptation with a domain-specific class means classifier
US9384450B1 (en) 2015-01-22 2016-07-05 International Business Machines Corporation Training machine learning models for open-domain question answering system
CN105302884B (zh) 2015-10-19 2019-02-19 天津海量信息技术股份有限公司 基于深度学习的网页模式识别方法及视觉结构学习方法
CN105955709B (zh) 2016-04-16 2018-02-27 浙江大学 基于机器学习的预取能效优化自适应装置及方法
WO2018039510A1 (en) * 2016-08-25 2018-03-01 Google Llc Reward augmented model training
WO2018126213A1 (en) * 2016-12-30 2018-07-05 Google Llc Multi-task learning using knowledge distillation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554068A (ja) * 1991-08-29 1993-03-05 Toshiba Corp 音声認識システム
JP2006163623A (ja) * 2004-12-03 2006-06-22 Nippon Hoso Kyokai <Nhk> 質問応答装置及び質問応答プログラム、並びに、テレビ受像機
JP2013250926A (ja) * 2012-06-04 2013-12-12 Nippon Telegr & Teleph Corp <Ntt> 質問応答装置、方法、及びプログラム
JP2014120053A (ja) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> 質問応答装置、方法、及びプログラム
JP2016024600A (ja) * 2014-07-18 2016-02-08 トヨタ自動車株式会社 質疑応答装置および質疑応答装置の制御方法
US20160342895A1 (en) * 2015-05-21 2016-11-24 Baidu Usa Llc Multilingual image question answering

Also Published As

Publication number Publication date
DE112017006151T5 (de) 2019-08-22
CN110337645A (zh) 2019-10-15
JP7089330B2 (ja) 2022-06-22
WO2018158626A1 (en) 2018-09-07
US11144718B2 (en) 2021-10-12
GB201913722D0 (en) 2019-11-06
CN110337645B (zh) 2023-06-06
GB2574555A (en) 2019-12-11
US20180247221A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP7089330B2 (ja) 適応可能な処理コンポーネント
US11651279B2 (en) LAT based answer generation using anchor entities and proximity
US9606990B2 (en) Cognitive system with ingestion of natural language documents with embedded code
US10606893B2 (en) Expanding knowledge graphs based on candidate missing edges to optimize hypothesis set adjudication
US10140272B2 (en) Dynamic context aware abbreviation detection and annotation
US9373086B1 (en) Crowdsource reasoning process to facilitate question answering
US10671929B2 (en) Question correction and evaluation mechanism for a question answering system
US10540442B2 (en) Evaluating temporal relevance in question answering
US9996526B2 (en) System and method for supplementing a question answering system with mixed-language source documents
US10740379B2 (en) Automatic corpus selection and halting condition detection for semantic asset expansion
US10303766B2 (en) System and method for supplementing a question answering system with mixed-language source documents
US20170169355A1 (en) Ground Truth Improvement Via Machine Learned Similar Passage Detection
US10565291B2 (en) Automatic generation of personalized visually isolated text
US9842096B2 (en) Pre-processing for identifying nonsense passages in documents being ingested into a corpus of a natural language processing system
US10552461B2 (en) System and method for scoring the geographic relevance of answers in a deep question answering system based on geographic context of a candidate answer
US10902342B2 (en) System and method for scoring the geographic relevance of answers in a deep question answering system based on geographic context of an input question
US10586161B2 (en) Cognitive visual debugger that conducts error analysis for a question answering system
US9984063B2 (en) System and method for automatic, unsupervised paraphrase generation using a novel framework that learns syntactic construct while retaining semantic meaning
US20160217209A1 (en) Measuring Corpus Authority for the Answer to a Question
US10585898B2 (en) Identifying nonsense passages in a question answering system based on domain specific policy
US11386273B2 (en) System and method for negation aware sentiment detection
US20190056912A1 (en) Sorting of Numeric Values Using an Identification of Superlative Adjectives
US10169328B2 (en) Post-processing for identifying nonsense passages in a question answering system
Boisgard State-of-the-Art approaches for German language chat-bot development
Kaminskiy et al. Building a graph of a sequence of text units to create a sentence generation system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20210916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R150 Certificate of patent or registration of utility model

Ref document number: 7089330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150