JP2019510290A - ニューラル臨床パラフレーズ生成のためのシステム及び方法 - Google Patents

ニューラル臨床パラフレーズ生成のためのシステム及び方法 Download PDF

Info

Publication number
JP2019510290A
JP2019510290A JP2018537859A JP2018537859A JP2019510290A JP 2019510290 A JP2019510290 A JP 2019510290A JP 2018537859 A JP2018537859 A JP 2018537859A JP 2018537859 A JP2018537859 A JP 2018537859A JP 2019510290 A JP2019510290 A JP 2019510290A
Authority
JP
Japan
Prior art keywords
level
word
character
attention
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018537859A
Other languages
English (en)
Other versions
JP2019510290A5 (ja
JP6876061B2 (ja
Inventor
ハサン シェイフ サディド アル
ハサン シェイフ サディド アル
ボー リュウ
ボー リュウ
オラディメジ フェイセタン ファリル
オラディメジ フェイセタン ファリル
ジュインイー リュウ
ジュインイー リュウ
アディツア プラカシュ
アディツア プラカシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019510290A publication Critical patent/JP2019510290A/ja
Publication of JP2019510290A5 publication Critical patent/JP2019510290A5/ja
Application granted granted Critical
Publication of JP6876061B2 publication Critical patent/JP6876061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本発明は、パラフレーズ生成システムに関する。該システムは、1つ以上のハードウェアプロセッサ及び/又はその他の構成要素を有する。該システムは、学習コーパスを取得するよう構成される。該学習コーパスは、言語及び該言語の既知のパラフレーズを有する。該システムは、学習コーパスに基づいて、語レベルの注意ベースのモデル、及び文字レベルの注意ベースのモデルを生成するよう構成される。該システムは、語レベルの注意ベースのモデル及び文字レベルの注意ベースのモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供するよう構成される。該語レベルの注意ベースのモデルは、語レベルの双方向長短期(LSTM)メモリネットワークであり、文字レベルの注意ベースのモデルは、文字レベルの双方向LSTMネットワークである。語レベル及び文字レベルのLSTMネットワークは、学習コーパスにおける語及び文字に基づいて生成される。幾つかの実施例においては、LSTMネットワークは、所与のLSTMネットワークの積層間の残差接続を有する積層残差LSTMネットワークである。

Description

本発明は、自然言語入力の1つ以上のパラフレーズを提供するよう構成された、パラフレーズ生成システムに関する。
自然機械翻訳システムは知られている。既存のニューラルマシン翻訳システムは一般に、エンコーダ−デコーダ手法(例えば固定長ベクトルが目標の文を形成するために用いられる元の文から生成される)又は注意(attention)ベースのソフト検索手法(例えばモデルが合わせて整合及び翻訳するよう学習が可能であり、最も関連する元の語のコンテキストベクトルを用いることにより比較的長い文における目標の語を改善することを支援する)を用いて、語レベルの計算を介して、二言語機械翻訳を実行する。
これら手法は、未知の元の語(例えばニューラルネットワークについての学習データセットに含まれない語)に対する目標の語を正確に予測することができない。
従って、本発明の1つ以上の態様は、1つ以上のハードウェアプロセッサ及び/又はその他の構成要素を有する、パラフレーズ生成システムに関する。該1つ以上のハードウェアプロセッサは、言語及び前記言語のパラフレーズを有する、学習コーパスを取得し、前記学習コーパスに基づいて、語レベルの注意ベースモデル及び文字レベルの注意ベースモデルを生成し、前記語レベル及び前記文字レベルの注意ベースモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供するための機械読み取り可能な命令により構成される。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリ(LSTM)ネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向のLSTMネットワークとなるよう構成される。前記語レベル及び文字レベルの双方向のLSTMネットワークは、前記学習コーパスにおける語及び文字に基づいて生成される。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは、前記学習コーパスに基づいて文レベルの注意ベースモデルを生成し、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するよう構成される。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは更に、前記学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定し、既存の知識ベースから知られた意味的関係に基づいて前記語レベル、文字レベル及び文レベルの埋め込みを更新し、前記更新された語レベル及び文字レベルの埋め込みに基づいて前記語レベル及び文字レベルの注意ベースモデルを生成し、前記語レベル及び文字レベルの注意ベースモデル並びに前記更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズを提供するよう構成される。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは、回帰型ニューラルネットワーク(RNN)及び/又は畳み込みニューラルネットワーク(CNN)を用いて、前記文レベル、語レベル及び文字レベルの埋め込みを決定するよう構成される。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは、前記1つ以上の候補パラフレーズを提供することが、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定すること、及び前記比較に基づいて候補パラフレーズを出力することを有するよう構成される。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、多層残差型の語レベルの双方向LSTMネットワークであり、前記文字レベルの注意ベースモデルが、多層残差型の文字レベルの双方向LSTMネットワークであるよう構成される。前記多層残差型のLSTMネットワークは、所与のLSTMネットワークの積層した層間の残差接続を有する。
本発明の他の態様は、パラフレーズ生成システムを用いてパラフレーズを生成するための方法に関する。前記方法は、言語及び前記言語のパラフレーズを有する、学習コーパスを取得するステップと、前記学習コーパスに基づいて、語レベルの注意ベースモデル及び文字レベルの注意ベースモデルを生成するステップと、前記語レベル及び前記文字レベルの注意ベースモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供するステップと、を有する。幾つかの実施例においては、前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリ(LSTM)ネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向のLSTMネットワークとなるよう構成される。前記語レベル及び文字レベルの双方向のLSTMネットワークは、前記学習コーパスにおける語及び文字に基づいて生成される。幾つかの実施例においては、前記方法は更に、前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するステップと、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するステップと、を有する。幾つかの実施例においては、前記方法は更に、前記学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定するステップと、既存の知識ベースから知られた意味的関係に基づいて前記語レベル、文字レベル及び文レベルの埋め込みを更新するステップと、前記更新された語レベル及び文字レベルの埋め込みに基づいて前記語レベル及び文字レベルの注意ベースモデルを生成するステップと、前記語レベル及び文字レベルの注意ベースモデル並びに前記更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズを提供するステップと、を有する。幾つかの実施例においては、前記文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。幾つかの実施例においては、前記1つ以上の候補パラフレーズを提供するステップは、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定するステップと、前記比較に基づいて候補パラフレーズを出力するステップと、を有する。幾つかの実施例においては、前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、多層残差型の語レベルの双方向LSTMネットワークであり、前記文字レベルの注意ベースモデルが、多層残差型の文字レベルの双方向LSTMネットワークである。前記多層残差型のLSTMネットワークは、所与のLSTMネットワークの積層した層間の残差接続を有する。
本発明の更に他の態様は、パラフレーズを生成するためのシステムに関する。前記システムは、言語及び前記言語のパラフレーズを有する、学習コーパスを取得するための手段と、前記学習コーパスに基づいて、語レベルの注意ベースモデル及び文字レベルの注意ベースモデルを生成するための手段と、前記語レベル及び前記文字レベルの注意ベースモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供するための手段と、を有する。幾つかの実施例においては、前記語レベルの注意ベースモデルが、語レベルの双方向のLSTMネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向のLSTMネットワークである。前記語レベル及び文字レベルの双方向のLSTMネットワークは、前記学習コーパスにおける語及び文字に基づいて生成される。幾つかの実施例においては、前記システムは更に、前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するための手段と、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するための手段と、を有する。幾つかの実施例においては、前記システムは更に、前記学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定するための手段と、既存の知識ベースから知られた意味的関係に基づいて前記語レベル、文字レベル及び文レベルの埋め込みを更新するための手段と、前記更新された語レベル及び文字レベルの埋め込みに基づいて前記語レベル及び文字レベルの注意ベースモデルを生成するための手段と、前記語レベル及び文字レベルの注意ベースモデル並びに前記更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズを提供するための手段と、を有する。幾つかの実施例においては、前記文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。幾つかの実施例においては、前記1つ以上の候補パラフレーズを提供することは、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定すること、及び前記比較に基づいて候補パラフレーズを出力することを有する。幾つかの実施例においては、前記語レベルの注意ベースモデルは、多層残差型の語レベルの双方向のLSTMネットワークであり、前記文字レベルの注意ベースモデルは、多層残差型の語レベルの双方向のLSTMネットワークである。前記多層残差型のLSTMネットワークは、所与のLSTMネットワークの積層した層間の残差接続を有する。
本発明のこれらの及びその他の目的、特徴及び特性、構造及び部分の組み合わせの関連する要素の動作及び機能、並びに製造の経済性は、いずれも本明細の一部を形成する添付図面を参照しながら以下の説明及び添付される請求項を考察することでより明らかとなり、ここで種々の図面において同様の参照番号は対応する部分を示す。しかしながら、図面は単に例示及び説明の目的のものであり、本発明の限定の定義として意図されるものではないことは、明確に理解されるべきである。
パラフレーズ生成システムの模式的な図である。 多層CNNアーキテクチャを示す。 多層RNNアーキテクチャを示す。 LSTMネットワークを示す。 多層残差型の双方向LSTMネットワークを示す。 強化学習アーキテクチャを示す。 システムにより実行される動作の一部を示す。 パラフレーズ生成システムを用いてパラフレーズを生成する方法を示す。
ここで用いられる「1つの」及び「その」(a、an及びthe)なる単数形は、他に明確な言及がない限り、複数の参照を含む。ここで用いられる、2つ以上の部分又は構成要素が「結合されている(coupled)」なる記述は、これら部分が、関連が生じるように、直接的に、若しくは間接的に即ち1つ以上の中間部分若しくは構成要素を通して、互いに接合されていること、又は合わせて動作することを意味する。ここで用いられる「直接的に結合されている(directly coupled)」なる記述は、2つの要素が互いに直接に接触していることを意味する。ここで用いられる「固定的に結合されている(fixedly coupled)」又は「固定されている(fixed)」なる記述は、2つの構成要素が、互いに対する一定の向きを維持しつつ、一体として動くよう結合されていることを意味する。
ここで用いられる「単一の(unitary)」なる語は、構成要素が単一の部品又はユニットとして生成されていることを意味する。即ち、別個に生成されて、次いで互いに1つのユニットとして結合された構成要素は、「単一の(unitary)」構成要素又は部品ではない。ここで利用される、2つ以上の部分又は構成要素が互いに「係合する(engage)との記述は、これら部分が、直接的に、又は1つ以上の中間部分又は構成要素を通して、互いに対して力をかけることを意味する。ここで利用される「数(number)」なる用語は、1又は1よりも大きい整数(即ち複数)を意味する。
例えば、限定するものではないが、上端、底部、左、右、上方、下方、前方、後方及びこれらの派生語のような、方向を示す語句は、他に明確に言及がない限り、図面に示された要素の向きに関連するものであり、請求の範囲を限定するものではない。
図1は、パラフレーズ生成システム10の模式的な図を示す。パラフレーズ生成は、元のコンテンツにより表現されたものと同じ及び/又は類似する意味を表現するテキスト代替を用いることを有する。パラフレーズ生成は、検索要約、質問回答、情報抽出、情報取得、及び自然言語生成のような、種々の自然言語処理(NLP)アプリケーションにおいて用いられている。システム10は、単一言語ニューラルマシン翻訳問題として、パラフレーズ生成のタスクをキャストすることにより、深層ニューラルネットワークの組み合わせに基づいて、パラフレーズ生成(例えば臨床パラフレーズ生成)のための全体論的手法を利用する。システム10は、全体の意味を損なうことなく可読性を改善するようテキストを変換するよう構成される。例えば臨床パラフレーズ生成は、ユーザがより簡単な代替のパラフレーズを介して複雑な臨床の専門用語を理解することが可能な、患者中心の臨床決定支援(CDS)アプリケーション及び/又はその他のアプリケーションをつくりだす際に価値を持つ。
従来のパラフレーズ生成方法は、手作りの規則、自動的に学習された複雑なパラフレーズパターン、シソーラスベースの又は意味解析による自然言語生成手法、及び/又はレバレッジ(leverage)統計機械学習理論を利用する。既存のニューラルマシン翻訳システムは、エンコーダ−デコーダ手法(例えば固定長ベクトルが目標の文を形成するために用いられる元の文から生成される)又は注意ベースのソフト検索手法(例えばモデルが合わせて整合及び翻訳するよう学習が可能であり、最も関連する元の語のコンテキストベクトルを用いることにより比較的長い文における目標の語を改善することを支援する)を用いて、語レベルの計算を介して、二言語機械翻訳を実行する。しかしながら、これら手法は、未知の元の語(例えばニューラルネットワークについての学習データセットに含まれない語)に対する目標の語を正確に予測する能力において、限界がある。
システム10は、ニューラルマシン翻訳に対する従来の手法の限界を克服する、臨床及び/又はその他のパラフレーズ生成のために構成された深層ニューラルネットワークである。システム10は、未知の(例えば学習データベースに含まれていない語及び/又はその他の語)元の語をパラフレーズ生成するため、文字レベルモデリング及び/又はその他の動作を実行することにより、先行技術のシステムの限界を克服するよう構成される。幾つかの実施例においては、システム10は、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)、長短期メモリ(LSTM)ネットワーク、及び強化学習動作を組み合わせて、パラフレーズ生成のための集合アーキテクチャを形成する。幾つかの実施例においては、システム10は、層間に残差接続を持つ多層LSTMネットワークを含む。
本発明はしばしば「臨床」パラフレーズ生成を参照する。このことは限定を意図したものではない。システム10は、ここで記載されるように臨床、非臨床及び/又はその他の用途としてパラフレーズを生成し得る。臨床パラフレーズ生成は、種々の広範なタイプ及びスタイルの臨床文書があるため、便利な例として用いられる。斯かる文書はしばしば記載が冗長であり、多忙な介護者及び/又はその他のユーザ12(例えば臨床医、医師、看護師、医療施設スタッフ、家族、友人等)はしばしば、斯かる文書に担持された情報のパラフレーズにより記載された概要(例えばユーザ12に関連する計算装置18のユーザインタフェース16に提示された)を好む。斯かる文書は、パラフレーズ生成システムによって以前に遭遇されたことのない語(例えば以上に説明されたような「未知の」語)を含むことが多い。特定のユーザ12は、医療的な介入、処置計画及び/又はその他の時点において、例えば通知として、レポートに担持された情報の断片にのみ関心を持ち得る。一例として臨床パラフレーズ生成を用いて、システム10は、臨床文書における言語からパラフレーズ生成するよう構成され、ユーザ12が特定の患者に関する最新の情報を迅速に知ることができるようにする。
幾つかの実施例においては、システム10は、計算装置18(ユーザインタフェース16を含む)、1つ以上のプロセッサ20、電子記憶装置22、外部リソース24及び/又はその他の構成要素を有する。
計算装置18は、ユーザ12とシステム10との間のインタフェースを提供するよう構成される。計算装置18は、ユーザ12及び/又はその他のユーザに情報を提供する及び/又はユーザ12及び/又はその他のユーザから情報を受けるよう構成される。計算装置18は、ユーザインタフェース16及び/又はその他の構成要素を含む。ユーザインタフェース16は、ユーザ12からの情報の入力及び/又は選択を受けるよう構成される。ユーザインタフェース16は、ユーザ12及び/又はその他のユーザに、生成されたパラフレーズを提示するよう構成される。幾つかの実施例においては、ユーザインタフェース16は、例えば計算装置18、プロセッサ20及び/又はその他のシステム10の構成要素に関連する、複数の別個のインタフェースを含む。幾つかの実施例においては、システム10は、複数のユーザ12に関連する複数の計算装置18を有する。
幾つかの実施例においては、所与の計算装置18は、ユーザインタフェース16、処理能力、データベース及び/又は電子記憶装置をシステム10に提供するよう構成される。そのため、計算装置18は、プロセッサ20、電子記憶装置22、外部リソース24及び/又はその他のシステム10の構成要素を含んでも良い。幾つかの実施例においては、計算装置18は、ネットワーク(例えばインターネット)に接続される。幾つかの実施例においては、計算装置18は、プロセッサ20、電子記憶装置22、外部リソース24及び/又はその他のシステム10の構成要素を含まず、その代わりにネットワークを介してこれら構成要素と通信する。例えば、プロセッサ20、電子記憶装置22、外部リソース24及び/又はその他のシステム10の構成要素は、「公的なクラウド」又は「私的なクラウド」(以下「クラウド」)に位置していても良い。幾つかの実施例においては、計算装置18は例えば、公的又は私的なクラウドにおいて保存され処理された情報を受信するダム(dumb)装置である。ネットワークへの接続は、無線であっても良いし又は有線であっても良い。例えば、プロセッサ20は、リモートのサーバに配置され、パラフレーズを生成し、計算装置18上において、ユーザインタフェース16を介してユーザ12に対する該パラフレーズの表示を無線で引き起こしても良い。幾つかの実施例においては、計算装置18はラップトップ、デスクトップ型コンピュータ、スマートフォン、タブレット型コンピュータ、及び/又はその他の計算装置である。
ユーザインタフェース16に含めるのに適したインタフェース装置の例は、タッチスクリーン、キーパッド、タッチ感応型及び/又は物理的ボタン、スイッチ、キーボード、ノブ、レバー、ディスプレイ、スピーカ、マイクロフォン、インジケータ照明、可聴アラーム、プリンタ、及び/又はその他のインタフェース装置を含む。本発明はまた、計算装置18が着脱可能な記憶インタフェースを含むことも考慮に入れる。本例においては、ユーザ12及び/又はその他のユーザが計算装置18の実装をカスタマイズすることを可能とする着脱可能な記憶装置(例えばスマートカード、フラッシュドライブ、着脱可能なディスク)から、情報が計算装置18にロードされても良い。計算装置18及び/又はユーザインタフェース16との使用に適合した入力装置及び手法の他の例は、限定するものではないが、RS−232ポート、RFリンク、IRリンク、モデム(電話、ケーブル等)及び/又はその他の装置を含む。
プロセッサ20は、システム10における情報処理能力(例えば標準的なグラフィックス処理ユニット(GPU)及び/又はその他の構成要素を用いて)を提供するよう構成される。そのため、プロセッサ20は、ディジタルプロセッサ、アナログプロセッサ、情報を処理するよう設計されたディジタル回路、情報を処理するよう設計されたアナログ回路、状態機械、及び/又はその他の電子的に情報を処理するための機構のうちの1つ以上を有しても良い。プロセッサ20は図1において単一のエンティティとして示されているが、このことは単に説明の目的のためのものである。幾つかの実施例においては、プロセッサ20は、複数の処理ユニットを有しても良い。これら処理ユニットは、同じ装置(例えばサーバ)内に物理的に配置されていても良いし、又はプロセッサ20が、協働して動作する複数の装置(例えば、1つ以上のサーバ、計算装置18、外部リソース24の一部である装置、電子記憶装置22及び/又はその他の装置)の処理機能を表しても良い。
幾つかの実施例においては、プロセッサ20、外部リソース24、計算装置18、電子記憶装置22及び/又はその他の構成要素は、1つ以上の電子通信リンクを介して動作可能にリンクされても良い。例えば、斯かる電子通信リンクは、少なくとも一部が、インターネット及び/又はその他のネットワークのようなネットワークを介して確立されても良い。このことは限定することを意図したものではなく、本発明の範囲は、これら構成要素が何らかの他の通信媒体を介して動作可能にリンクされた実施例を含むことは、理解されるであろう。幾つかの実施例においては、プロセッサ20は、クライアント/サーバ型アーキテクチャ、ピアツーピア型アーキテクチャ及び/又はその他のアーキテクチャによって、外部リソース24、計算装置18、電子記憶装置22及び/又はその他の構成要素と通信するよう構成される。
図1に示されるように、プロセッサ20は、機械読み取り可能な命令を介して、1つ以上のコンピュータプログラム要素を実行するよう構成される。該1つ以上のコンピュータプログラム要素は、学習コーパス要素30、埋め込み生成要素32、モデル要素34、集合学習要素36、強化学習要素38、出力要素40及び/又はその他の要素を有しても良い。プロセッサ20は、ソフトウェア、ハードウェア、ファームウェア、ソフトウェア、ハードウェア及び/又はファームウェアの何らかの組み合わせ、及び/又はその他のプロセッサ20上での処理機能を構成するための機構によって、要素30、32、34、36、38及び/又は40を実行するよう構成されても良い。
要素30、32、34、36、38及び40は、図1において単一の処理ユニット内にともに配置されたものとして示されているが、プロセッサ20が複数の処理ユニットを有する実施例においては、要素30、32、34、36、38及び40の1つ以上が、他の要素とはリモートに配置されても良いことは、理解されるべきである。以下に記載される種々の要素30、32、34、36、38及び/又は40により提供される機能の説明は、単に説明の目的のためのものであり、限定を意図したものではなく、要素30、32、34、36、38及び/又は40のいずれかが、説明されたもの以外の幾分かの機能を提供しても良い。例えば、要素30、32、34、36、38及び/又は40の1つ以上が省略されても良く、その機能の幾つか又は全てが他の要素30、32、34、36、38及び/又は40により提供されても良い。他の例としては、プロセッサ20は、要素30、32、34、36、38及び/又は40の1つに加えて、以下の機能の幾つか又は全てを実行し得る1つ以上の付加的な要素を実行するよう構成されても良い。
学習コーパス要素30は、学習コーパスを取得するよう構成される。学習コーパスは、言語、該言語のパラフレーズ及び/又はその他の情報を有する。該言語は、個々の文、句、語、キャラクタ(例えば文字)及び/又はその他の著者により特定の態様で(例えば医療レポート、医療レコードとして)配置された構成要素により形成される。パラフレーズは、文字、語、及び/又はその他の該言語(例えば医療レポート、医療レコード)に相当し該言語により通信されるものと同じ及び/又は類似する情報を短縮された及び/又は省略された態様で通信する表記である。例えば、該学習コーパスは、臨床言語(例えば文、句、語、文字等)、及び該臨床言語に所定の態様で対応する既知のパラフレーズを含んでも良い。
幾つかの実施例においては、学習コーパス要素30は、学習コーパスが、臨床及び/又は非臨床言語、データ及び/又はその他の情報に基づいて決定されるように構成される。非臨床言語、データ及び/又は情報は、非臨床の公的に利用可能なパラフレーズデータベース(例えばparaphrase.org等)及び/又はその他の供給源から取得されても良い。臨床言語、データ及び/又は情報は、オープンソースの臨床オントロジー(例えばSNOMED CTにおける臨床概念についての一意に規定される名称及び対応する同義語の集合)及び/又はその他の供給源から取得されても良い。これらのような情報源は、例えば外部リソース24に含まれていても良い。学習コーパス要素30は、非臨床言語、データ及び/又はその他の情報が組み合わせられて、元の言語及び既知の対応するパラフレーズを持つ学習コーパスが生成されるように構成される(例えば、英語のような個々の言語において、パラフレーズ生成のタスクが単一言語翻訳問題としてキャストされる)。学習コーパス要素30は、学習コーパスを取得することが更に、トークン化及び語彙生成を実行することによりコーパスを事前処理することを有するように構成される。例えば、コーパス中の利用可能な一意な語が、(例えば後の語レベルの情報の決定のために)適切なデータ構造でインデクス化され、(例えば後の文字レベルの情報の決定のために)一意な文字が同様にインデクス化される。
埋め込み要素32は、学習コーパスを用いて語レベル、文字レベル及び文レベルの埋め込みを決定し、既存の知識ベースから知られた意味的関係に基づいて語レベル、文字レベル及び文レベルの埋め込みを更新するよう構成される。幾つかの実施例においては、該文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。
図2(CNN)及び図3(RNN)に示されるように、学習コーパスの教師なし事前学習を実行して埋め込みを学習するため、(それぞれ)多層CNN及び/又はRNNアーキテクチャ200及び300が用いられる。CNNは、フィードフォワード型人工ニューラルネットワークの一種であり、個々のニューロンが重複を伴ってタイル化され、個々のニューロンが入力文の全体ではなく一部に接続され、該入力文により起動され、局所的に接続されたネットワークの生成を実現し、一時的な畳み込みを介した重み共有を可能とする。図2に示されるように、CNNは、入力層202、畳み込み層204、及び最大プーリング層206を含む。最大プーリング層206は、高次の層への入力として利用されるべき畳み込み層204からの出力ニューロンの選択されたセットの最大値を決定する。斯くして、畳み込み層204及び最大プーリング層206は、パラメータ空間を縮小し、並進不変性の形態を提供することにより、ネットワーク全体の計算の複雑性を低減することを支援する。幾つかの実施例においては、並進不変性は、可変サイズの入力文に向けた大きな最大プーリングの適用のため、NLP問題への制限となり得る(一方でシーケンス/順序は保存される必要があり得る)。図2において、重みW1とW4とが共有され、W2とW5とが共有され、W3とW6とが共有される。
図3に示されるように、RNNは、斯かるシーケンス予測問題を解決し得るものであり、一般にネットワークに亘り共有されたパラメータの3つのセット、即ち入力−隠れ(hidden)重み(W)302、隠れ−隠れ重み(U)304、及び隠れ−出力重み(V)306を持つ。当該重み共有特性は、RNNを、NLP問題における可変サイズの入力に適したものとする(図3に示されるように、RNNは、入力層308、隠れ層310及び出力層312を含む)。図3において、X0,1,…tは、時間0,1,…tにおける入力語/文字を示し、h0,1,…tは、時間0,1,…tにおける対応する隠れ状態を示し、yは出力を示す。幾つかの実施例においては、埋め込み要素32は、RNNが双方向RNNとなるよう構成される。双方向RNNは、時間tにおける出力が、シーケンスにおける前の要素に依存するのみならず、将来の要素にも依存し得るという仮定に基づく。例えば、シーケンスにおける欠損した語/文字を予測するためには、該シーケンスにおける該欠損した語の左側のコンテキストと、該シーケンスにおける該欠損した語の右側のコンテキストと、の両方を考慮する必要があり得る。斯くして、双方向RNNアーキテクチャは、RNNエンコーダ−エンコーダ手法に従い、ここでは2つのRNNが、前方向及び後方向の両方にシーケンス中の語のコンテキスト属性を捕捉するため、元の文をエンコードするために用いられ、次いで1つのRNNが、目標の文を生成するためのデコーダとして用いられる。幾つかの実施例においては、双方向RNNアーキテクチャは、入力の元の文のシーケンスを複数回供給される。注意ベースモデルにおける「注意(attention)」なる語は、デコード処理の間に特定の元の語に注目する(即ち注意を払う)ことを表す。注意ベースのデコード機構は、最も関連する元の語をモデルが検索することを可能としつつ、次の目標の語を予測し、比較的長い文における長距離の依存性に関連する問題を軽減する。
幾つかの実施例においては、学習された埋め込み(CNN及び/又はRNNの出力)は、学習コーパスにおける言語の文、語、文字及び/又はその他の情報に関連するコンテキスト情報を表すベクトルを有する。幾つかの実施例においては、埋め込み要素32は、既存の知識ベース(例えば図1に示される外部リソース24に含まれるWikipedia、PubMed文献等)から得られた意味的関係を用いて学習された埋め込みを更新するよう構成される。更新された語及び文字レベルの埋め込みは、(例えば以下に説明されるように)それぞれ注意ベースの語レベル及び文字レベルの双方向LSTMネットワークを開始するために用いられる。
幾つかの実施例においては、CNN及び/又はRNNアーキテクチャは、「情報ハイウェイ」上の幾つかの層に亘る略利用制限のない情報の流れにより特徴付けられる多層ハイウェイネットワークを有する。数百の層を持つハイウェイネットワークは、確率的勾配降下法を直接に用いて学習させられ、極めて深く効率の良いアーキテクチャを学習する可能性を開く。例えば、ハイウェイネットワークの概念は、修正されたゲーティング関数を用いて離れた層におけるニューロン間の直接の接続を可能とすることにより、図2及び図3に示されたアーキテクチャにおいてより多くの層を実現し、モデル性能を改善するよう該モデルが非常に深いニューラルネットワークを学習することを可能とし得る。
図1に戻ると、モデル要素34は、語レベルの注意ベースモデル、文字レベルの注意ベースモデル、及び/又はその他のモデルを生成するよう構成される。以上に説明されたように、幾つかの状況においては、語レベルのモデルのみでは、以前から未知の元の(入力)語に基づいて目標の語(例えばパラフレーズ)を正確に予測できない可能性が高い。文字レベルのモデルを用いる場合、臨床言語及び/又は文書を構築するために用いられる利用可能なキャラクタ(例えば字)の数は有限であり(著者に利用可能なとり得る語及び/又は文の数が限られないこととは対照的に)、これにより1つ以上の目標の語の正確な予測を容易化する(例えば、とり得る候補パラフレーズのセットを減少させること、目標の語の正確な予測のために必要とされる計算リソースの量を低減させること、等によって)。
幾つかの実施例においては、語レベルの注意ベースモデルは、語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースモデルは、文字レベルの双方向LSTMネットワークである。図4Aは、LSTMネットワークのブロック図400、及びLSTMネットワークの機能を説明する対応する式402を示す。LSTMネットワークは、個々の時間ステップにおいて、内部メモリセルc∈Rを追加するRNNである。LSTMネットワークユニットは、個々の時間ステップにおいて3つの入力x、ht−1、ct−1をとり、時間ステップtにおいて隠れ状態h及び内部メモリ状態cを生成する。メモリセルは、3つの学習ゲート、即ち入力i、忘却f及び出力oを介して制御される。これらメモリセルは、時間に対する勾配の付加を用い、勾配爆発(gradient explosion)を最小化する。図4Aに示された式において、Wx及びWhはそれぞれx及びhについての学習されたパラメータであり、σ及びtanhは要素毎のシグモイド及び双曲線正接関数であり、
Figure 2019510290
は要素毎の乗算演算子であり、bは付加されるバイアスを示す。
以上に説明されたように、幾つかの実施例においては、語レベル及び文字レベルの双方向LSTMネットワークが、更新された語レベル及び/又は文字レベルの埋め込みに基づいて生成される。幾つかの実施例においては、語レベル及び文字レベルの双方向LSTMネットワークは、学習コーパスの語、文字及び/又はその他の特徴に基づいて生成される(語及び/又は文字レベルの埋め込みを必要としない)。斯かる実施例においては、語レベルのシーケンス−シーケンスモデルは、多層残差型の語レベルの双方向LSTMネットワークであり、文字レベルのシーケンス−シーケンスモデルは、多層残差型の文字レベルの双方向LSTMネットワークである。多層残差型のLSTMネットワークは、所与のLSTMネットワークの積層した層間の残差接続及び/又はその他の情報を有する。
図4Bは、多層残差型の双方向LSTMネットワークを示す。幾つかの実施例においては、モデル要素34(図1)は、語レベル及び/又は文字レベルのLSTMネットワークが、垂直な積層を有し、LSTMネットワークの前の層の出力が、後続する層への入力として供給されるよう構成される。幾つかの実施例においては、時間ステップtにおいて最初の層を除く全ての層が、前の層hltの隠れ状態から受け渡され、ここでlは層を意味する。斯くして、層lについて、起動が以下のように記述される:
(l)=f (h (l−1),ht−1 (l)
ここで隠れ状態hは再帰的に決定され、t=0及びl=0におけるh (l)は以下により与えられる(例えば図4Aに示される):
Figure 2019510290
幾つかの実施例においては、図4Bに示されるように、学習されている関数(例えば多層LSTMネットワーク406及び408)への残差x404の追加は、データを過剰適合することなく、より深いネットワークの学習を容易化する(図4Bの記載においては、以上に説明された忘却ゲート記号との混乱を避けるためFの代わりにH'が用いられており、図4Aと同様に、図4Bにおける「X」は入力を示す)。LSTMネットワークの積層された各層の後に残差接続を追加する必要はないことは、留意されるべきである。例えば、4層が積層されたLSTMネットワーク(例えば文字レベル及び/又は語レベルのモデルのいずれか及び/又は両方について)においては、残差接続は点毎の追加として層2において追加されても良く、このとき入力がhの出力と同じ次元である必要がある。モデル要素34(図1)は、hをクリッピングしxt−2の次元と同じでないときにxt−2の次元と整合させるLSTMネットワークの最後の隠れユニット積層を容易化するよう構成される。同様の結果は、xをパディングし、該次元に整合させることにより得られ得る。斯くして、残差接続を持つ層について学習させられた関数H'は、以下により与えられる:
H' (l)=f (h (l−1),ht−1 (l))+xt−2
有利にも、残差接続の追加は、学習可能なパラメータを追加しモデルの複雑さを増大させることはない。
図1に戻ると、集合要素36は、1つ以上の候補パラフレーズを提供するよう構成される。該1つ以上の候補パラフレーズは、自然言語入力のパラフレーズである。該候補パラフレーズは、語レベル及び文字レベルの両方の注意ベースのモデルに基づいて決定される。このようにして例えば、語レベルの注意ベースのモデルに加えて、文字レベルの注意ベースのモデルが用いられて、語レベルのモデルのみを用いる1つ以上の潜在的な欠点が克服される(例えばこれまで未知であった語の正確なパラフレーズを生成する)。これに加えて、幾つかの状況においては、パラフレーズ生成のために文字レベルのモデルのみを利用することは、定期的に不正確な文字の順序を生成し、従って普通でなく知的でない語を生成し得る。集合要素36は、語レベルのモデル及び文字レベルのモデルの両方の強みを活用する、集合学習アーキテクチャを利用する。
集合要素36は、語レベルのLSTMモデル及び文字レベルのLSTMモデルの両方に基づいて、複数の候補パラフレーズを決定するよう構成される。幾つかの実施例においては、語レベル及び文字レベルのモデルは、候補パラフレーズの2つ以上のセットを個別に生成しても良い。例えば、語レベル及び文字レベルの候補パラフレーズ決定は、入力層において語レベル/文字レベルの入力をとることができ、予測/出力層において語レベル/文字レベルの出力を生成することができる(あわせて候補パラフレーズの4つのセットを有する)モデルによって、生成されても良い。同様に、モデル自体を生成するための複数の手法(例えば双方向エンコーダ−エンコーダ、注意ベースのソフトサーチ、多層残差型LSTMネットワーク等)が組み合わせられて、同じ学習コーパスから複数の学習モデルを生成しても良く、このことは候補臨床パラフレーズの複数の異なるセットに寄与し得る。
幾つかの実施例においては、該1つ以上の候補パラフレーズは、語レベル及び文字レベルの注意ベースのモデル、並びに更新された文レベルの埋め込みに基づいて決定される。幾つかの実施例においては(例えば語レベルの注意ベースモデルが多層残差型の語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースモデルが文字レベルの双方向LSTMネットワークである場合)、該1つ以上の候補パラフレーズは、語レベル/文字レベルの埋め込みの必要なく、学習コーパスのみに基づいて決定される。
強化要素38は、報酬関数強化学習モデルを決定及び/又は利用するよう構成される。該報酬関数強化学習モデルは、候補パラフレーズの語選択の意味的類似性及び新規性を、目標の文及び/又はその他の情報に対して比較するよう構成される。強化要素38は、集合要素36により決定されたとり得るパラフレーズから個々の候補パラフレーズを選択肢、報酬関数を用いて該候補パラフレーズが目標の文に対してどれだけ好適かを決定する。報酬関数は、候補パラフレーズが元の/目標の文のコンテキストにどれだけ近いかを示す。報酬関数は、有意味性、新規性及び文法性に関して2つの文の間の類似度を示すことができるいずれの意味的類似度関数により定義されても良い。個々のとり得るパラフレーズについての報酬は基本的に、文埋め込みにより担持されるコンテキスト情報に対する語の選択の比較に基づくものであっても良い。強化要素38は、システム10により生成されたパラフレーズが、候補パラフレーズのうちの最も高いランク(例えば該比較及び/又は「報酬」に基づく)のものとなるよう構成される。
強化要素38は、図5に示される強化学習アーキテクチャを使用するよう構成される。図式的に示す。5に示されるように、強化学習アーキテクチャ500においては、エージェント502が環境504と相互作用する。個々の動作506に応答して、環境504は、状態508と報酬510との対を生成し、エージェント502は、該状態508と報酬510との対から学習したものに基づいて、後続する動作を生成する。強化要素38は及び集合要素36は、候補パラフレーズの生成が「動作」506(例えばエージェント502に対応する集合要素36により実行される動作)、及び、候補パラフレーズの語選択の意味的類似性及び新規性の、状態508と報酬510との対に対応する目標の文との比較の結果であるよう構成される。
図1に戻ると、出力要素40は、自然言語入力のパラフレーズを出力するよう構成される。出力パラフレーズは、集合要素36により提供された候補パラフレーズの1つであっても良い。出力パラフレーズは、強化要素38による比較、集合要素36により決定された1つ以上の候補パラフレーズ、語レベル及び文字レベルのモデル、及び/又はその他の情報に基づいて決定されても良い。出力要素は、ユーザインタフェース16を介した表示のためパラフレーズを計算装置18に出力し、電子記憶部22に出力パラフレーズを保存し、出力パラフレーズを外部リソース24に通信し、及び/又はその他の動作を実行しても良い。
図6は、システム10(図1に示される)により実行される動作の一部を要約している。図6は、語レベル及び文字レベルの注意ベースモデル並びに更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズが決定される、システム10の実施例により実行される動作を要約している(語レベルの注意ベースモデルが多層残差型の語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースモデルが多層残差型の文字レベルの双方向LSTMネットワークであり、1つ以上の候補パラフレーズが、語及び/又は文字レベルの埋め込みの必要なく、学習コーパスのみに基づいて決定される実施例とは異なる)。例えば、図6に示されるように、システム10(例えば図1に示されここで説明された学習コーパス要素30)は、学習コーパスを取得する(600)よう構成される。システム10(例えば埋め込み要素32)は、該学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定する(602、604)よう構成される。幾つかの実施例においては、文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。システム10は、既存の知識ベース610、612から既知である意味的関係に基づいて、語レベル、文字レベル及び文レベルの埋め込みを更新する(606、608)よう構成される。システム10(例えばモデル要素34)は、語レベル及び文字レベルの注意ベースのモデルを生成する(614)よう構成される。幾つかの実施例においては、語レベルの注意ベースのモデルは、語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースのモデルは、文字レベルの双方向LSTMネットワークである。語レベル及び文字レベルのLSTMネットワークは、更新された語レベル及び文字レベルの埋め込み及び/又はその他の情報に基づいて生成される。システム10(例えば集合要素36)は、候補パラフレーズを提供する(616)よう構成される。図6に示された本実施例においては、システム10(例えば集合要素36)は、語レベル及び文字レベルの注意ベースのモデル、更新された文レベルの埋め込み、及び/又はその他の情報に基づいて、1つ以上の候補パラフレーズが決定されるよう構成される。システム10(例えば強化要素38及び/又は出力要素40)は、目標の文に対する候補パラフレーズの語選択の意味的な類似性及び新規性を比較する(620)よう構成された報酬関数強化学習モデルを決定し(618)、該比較に基づいて自然言語入力624の候補パラフレーズを出力する(622)よう構成される。
図1に戻ると、電子記憶部22は、情報を電子的に保存する電子記憶媒体を有する。電子記憶部22の電子記憶媒体は、システム10と一体的に(即ち略着脱不可能に)備えられたシステム記憶部、及び/又は例えばポート(例えばUSBポート、firewireポート等)又はドライブ(例えばディスクドライブ等)を介してシステム10に着脱可能に接続可能な着脱可能な記憶部の一方又は両方を有しても良い。電子記憶部22は、(全体として又は一部が)システム10内の別個の構成要素であっても良いし、又は、電子記憶部22は、(全体として又は一部が)システム10の1つ以上の他の構成要素(例えば計算装置18、プロセッサ20等)と一体的に備えられても良い。幾つかの実施例においては、電子記憶部22は、プロセッサ20とともにサーバに、外部リソース24の一部であるサーバに、対象12と関連する計算装置18に、及び/又はその他の位置に、配置されていても良い。電子記憶部22は、光学的に読み取り可能な記憶媒体(例えば光ディスク等)、磁気的に読み取り可能な記憶媒体(例えば磁気テープ、磁気ハードディスク、フロッピー(登録商標)ドライブ等)、電荷ベースの記憶媒体(例えばEPROM、RAM等)、固体記憶媒体(例えばフラッシュドライブ等)及び/又はその他の電子的に読み取り可能な記憶媒体のうちの1つ以上を有しても良い。電子記憶部22は、ソフトウェアアルゴリズム、プロセッサ20により決定された情報(例えば候補パラフレーズ)、計算装置18及び/又はユーザインタフェース16及び/又はその他の外部計算システムを介して受信された情報、外部リソース24から受信された情報、及び/又はここで説明されたようにシステム10が機能することを可能とするその他の情報を保存しても良い。
外部リソース24は、情報の供給源(例えばデータベース、ウェブサイト、paraphrase.orgやSNOMED CT等のような学習コーパス源、語レベル、文字レベル及び文レベルの埋め込みを更新するため埋め込み要素32により用いられる既存の知識ベース、等)、システム10と共に関与する外部エンティティ(例えばシステム10によりパラフレーズ生成され得る臨床記録を保存する医療ケア提供者の電子データベースシステム)、システム10の外部の1つ以上のサーバ、ネットワーク(例えばインターネット)、電子記憶部、Wi-Fi(登録商標)技術に関連する装備、Bluetooth(登録商標)技術に関連する装備、データ入力装置、センサ、スキャナ、及び/又はその他のデータ源を含む。幾つかの実施例においては、ここで外部リソース24に帰する機能の幾つか又は全てが、システム10に含まれるリソースにより提供されても良い。外部リソース24は、有線及び/又は無線接続を介して、ネットワーク(例えばローカルエリアネットワーク及び/又はインターネット)を介して、セルラー技術を介して、Wi-Fi(登録商標)技術を介して、及び/又はその他のリソースを介して、プロセッサ20、計算装置18、電子記憶部22及び/又はその他のシステム10の構成要素と通信するように構成されても良い。
図7は、パラフレーズ生成システムを用いてパラフレーズを生成するための方法700を示す。該システムは、1つ以上のハードウェアプロセッサ及び/又はその他の構成要素を含む計算装置を有する。該1つ以上のハードウェアプロセッサは、機械読み取り可能な命令によりコンピュータプログラム要素を実行するよう構成される。該コンピュータプログラム要素は、学習コーパス要素、埋め込み要素、モデル要素、集合要素、強化要素、出力要素及び/又はその他の要素を含む。以下に示される方法700の動作は、説明のためのものであることが意図されている。幾つかの実施例においては、方法700は、記載されていない1つ以上の更なる動作を伴って実現されても良く、及び/又は、議論された動作の1つ以上を伴わずに実現されても良い。更に、図7に示され以下に説明される方法700の動作の順序は、限定することを意図したものではない。
幾つかの実施例においては、方法700は、1つ以上の処理装置(例えばディジタルプロセッサ、アナログプロセッサ、情報を処理するよう構成されたディジタル回路、情報を処理するよう構成されたアナログ回路、状態機械、及び/又はその他の電子的に情報を処理するための機構)に実装されても良い。該1つ以上の処理装置は、電子記憶媒体に電子的に保存された命令に応じて、方法700の動作の幾つか又は全てを実行する1つ以上の装置を含んでも良い。該1つ以上の処理装置は、方法700の動作の1つ以上の実行のために特に設計された、ハードウェア、ファームウェア及び/又はソフトウェアにより構成された1つ以上の装置を含んでも良い。
動作702において、学習コーパスが取得される。該学習コーパスは、言語、該言語のパラフレーズ、及び/又はその他の情報を有する。該言語は、著者により特定の態様(例えば医療レポート、医療記録等として)で構成された個々の文、句、語、キャラクタ(例えば文字)及び/又はその他の要素により形成される。パラフレーズは、言語(例えば医療レポート、医療記録等)に対応し、該言語により伝達される情報と同一の及び/又は類似する情報を短縮及び/又は省略された態様で伝達する、文字、語及び/又はその他の表記である。例えば、学習コーパスは、臨床言語(例えば文、句、語、文字等)及び所定の態様で臨床言語に対応する既知のパラフレーズを含んでも良い。幾つかの実施例においては、動作702は、学習コーパス要素30(図1に示されここで説明されたもの)と同一又は類似するプロセッサ要素により実行される。
動作704において、語レベル及び文字レベルの注意ベースのモデルが生成される。幾つかの実施例においては、語レベルの注意ベースのモデルは、語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースのモデルは、文字レベルの双方向LSTMネットワークである。語レベル及び文字レベルのLSTMネットワークは、語、文字及び/又はその他の学習コーパスの特徴に基づいて生成される。幾つかの実施例においては、語レベルの注意ベースのモデルは、積層残差型の語レベルの双方向LSTMネットワークであり、文字レベルの注意ベースのモデルは、積層残差型の文字レベルの双方向LSTMネットワークである。積層残差型のLSTMネットワークは、所与のLSTMネットワーク及び/又はその他の情報の積層間の残差接続を有する。
幾つかの実施例においては、動作704は、学習コーパスを用いて語レベル、文字レベル及び文レベルの埋め込みを決定すること、既存の知識ベースから知られた意味的関係に基づいて語レベル、文字レベル及び文レベルの埋め込みを更新すること、及び更新された語レベル及び文字レベルの埋め込みに基づいて語レベル及び文字レベルの注意ベースのモデルを生成すること、を含む。幾つかの実施例においては、文レベル、語レベル及び文字レベルの埋め込みは、RNN及び/又はCNNを用いて決定される。幾つかの実施例においては、動作704は、埋め込み要素32及び/又はモデル要素34(図1に示されここで説明されたもの)と同一又は類似するプロセッサ要素により実行される。
動作706において、候補パラフレーズが提供される。1つ以上の候補パラフレーズは、自然言語入力のパラフレーズである。候補パラフレーズは、語レベル及び文字レベルの注意ベースのモデルに基づいて決定される。幾つかの実施例においては、該1つ以上の候補パラフレーズは、語レベル及び文字レベルの注意ベースのモデル、並びに更新された文レベルの埋め込みに基づいて決定される。幾つかの実施例においては、該1つ以上の候補パラフレーズを提供することは、目標の文に対して候補パラフレーズの語の選択の意味的類似性及び新規性を比較するよう構成された報酬関数強化学習モデルを決定すること、及び該比較に基づいて候補パラフレーズを出力することを有する。幾つかの実施例においては、動作706は、集合要素36、強化要素38及び/又は出力要素40(図1に示されここで説明されたもの)と同一又は類似するプロセッサ要素により実行される。
以上に示された説明は、最も実用的で好適な実施例であると現在考えられるものに基づいて説明の目的のための詳細を提供するが、斯かる詳細は単に当該目的のためのものであり、本開示は明確に示された実施例に限定されるものではなく、添付される請求項の精神及び範囲内である変更及び同等な構成をカバーすることを意図されていることは、理解されるべきである。例えば、本開示は、可能な限り、いずれかの実施例の1つ以上の特徴が、他のいずれかの実施例の1つ以上の特徴と組み合わせられ得ることも考慮していることは、理解されるべきである。
請求項において、括弧に挟まれたいずれの参照記号も、請求の範囲を限定することを意図したものではない。「有する(comprising)」又は「含む(including)」なる語は、請求項に記載されたもの以外の要素又は態様の存在を除外するものではない。幾つかの手段を列記した装置請求項において、これら手段の幾つかは同一のハードウェアのアイテムによって実施化されても良い。要素に先行する「1つの(a又はan)」なる語は、複数の斯かる要素の存在を除外するものではない。幾つかの手段を列記したいずれの装置請求項においても、これら手段の幾つかは同一のハードウェアのアイテムによって実施化されても良い。特定の要素が相互に異なる従属請求項に列挙されているという単なる事実は、これら要素が組み合わせて用いられることができないことを示すものではない。

Claims (21)

  1. 1つ以上のハードウェアプロセッサを有する、パラフレーズ生成システムであって、前記1つ以上のハードウェアプロセッサは、
    言語及び前記言語のパラフレーズを有する、学習コーパスを取得し、
    前記学習コーパスに基づいて、語レベルの注意ベースモデル及び文字レベルの注意ベースモデルを生成し、
    前記語レベル及び前記文字レベルの注意ベースモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供する
    ための機械読み取り可能な命令により構成された、システム。
  2. 前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向の長短期メモリネットワークとなるよう構成され、前記語レベル及び文字レベルの双方向の長短期メモリネットワークは、前記学習コーパスにおける語及び文字に基づいて生成された、請求項1に記載のシステム。
  3. 前記1つ以上のハードウェアプロセッサは、前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するよう構成された、前記1つ以上のハードウェアプロセッサは、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するよう構成された、請求項1に記載のシステム。
  4. 前記1つ以上のハードウェアプロセッサは、前記学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定し、既存の知識ベースから知られた意味的関係に基づいて前記語レベル、文字レベル及び文レベルの埋め込みを更新し、前記更新された語レベル及び文字レベルの埋め込みに基づいて前記語レベル及び文字レベルの注意ベースモデルを生成し、前記語レベル及び文字レベルの注意ベースモデル並びに前記更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズを提供するよう構成された、請求項1に記載のシステム。
  5. 前記1つ以上のハードウェアプロセッサは、回帰型ニューラルネットワーク及び/又は畳み込みニューラルネットワークを用いて、前記文レベル、語レベル及び文字レベルの埋め込みを決定するよう構成された、請求項4に記載のシステム。
  6. 前記1つ以上のハードウェアプロセッサは、前記1つ以上の候補パラフレーズを提供することが、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定すること、及び前記比較に基づいて候補パラフレーズを出力することを有するよう構成された、請求項1に記載のシステム。
  7. 前記1つ以上のハードウェアプロセッサは、前記語レベルの注意ベースモデルが、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、多層残差型の語レベルの双方向の長短期メモリネットワークであるよう構成され、前記多層残差型の長短期メモリネットワークは、所与の長短期メモリネットワークの積層した層間の残差接続を有する、請求項1に記載のシステム。
  8. パラフレーズ生成システムを用いてパラフレーズを生成するための方法であって、前記方法は、
    言語及び前記言語のパラフレーズを有する、学習コーパスを取得するステップと、
    前記学習コーパスに基づいて、語レベルの注意ベースモデル及び文字レベルの注意ベースモデルを生成するステップと、
    前記語レベル及び前記文字レベルの注意ベースモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供するステップと、
    を有する、方法。
  9. 前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向の長短期メモリネットワークであり、前記語レベル及び文字レベルの双方向の長短期メモリネットワークは、前記学習コーパスにおける語及び文字に基づいて生成された、請求項8に記載の方法。
  10. 前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するステップと、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するステップと、を更に有する、請求項8に記載の方法。
  11. 前記学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定するステップと、既存の知識ベースから知られた意味的関係に基づいて前記語レベル、文字レベル及び文レベルの埋め込みを更新するステップと、前記更新された語レベル及び文字レベルの埋め込みに基づいて前記語レベル及び文字レベルの注意ベースモデルを生成するステップと、前記語レベル及び文字レベルの注意ベースモデル並びに前記更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズを提供するステップと、を更に有する、請求項8に記載の方法。
  12. 前記文レベル、語レベル及び文字レベルの埋め込みは、回帰型ニューラルネットワーク及び/又は畳み込みニューラルネットワークを用いて決定される、請求項8に記載の方法。
  13. 前記1つ以上の候補パラフレーズを提供するステップは、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定するステップと、前記比較に基づいて候補パラフレーズを出力するステップと、を有する、請求項8に記載の方法。
  14. 前記語レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記多層残差型の長短期メモリネットワークは、所与の長短期メモリネットワークの積層した層間の残差接続を有する、請求項8に記載の方法。
  15. パラフレーズを生成するためのシステムであって、前記システムは、
    言語及び前記言語のパラフレーズを有する、学習コーパスを取得するための手段と、
    前記学習コーパスに基づいて、語レベルの注意ベースモデル及び文字レベルの注意ベースモデルを生成するための手段と、
    前記語レベル及び前記文字レベルの注意ベースモデルの両方に基づいて、自然言語入力の1つ以上の候補パラフレーズを提供するための手段と、
    を有するシステム。
  16. 前記語レベルの注意ベースモデルが、語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルが、文字レベルの双方向の長短期メモリネットワークであり、前記語レベル及び文字レベルの双方向の長短期メモリネットワークは、前記学習コーパスにおける語及び文字に基づいて生成された、請求項15に記載のシステム。
  17. 前記学習コーパスに基づいて文レベルの注意ベースモデルを生成するための手段と、前記文レベル、語レベル及び文字レベルの注意ベースモデルに基づいて前記自然言語入力の1つ以上の候補パラフレーズを提供するための手段と、を更に有する、請求項15に記載のシステム。
  18. 前記学習コーパスを用いて、語レベル、文字レベル及び文レベルの埋め込みを決定するための手段と、既存の知識ベースから知られた意味的関係に基づいて前記語レベル、文字レベル及び文レベルの埋め込みを更新するための手段と、前記更新された語レベル及び文字レベルの埋め込みに基づいて前記語レベル及び文字レベルの注意ベースモデルを生成するための手段と、前記語レベル及び文字レベルの注意ベースモデル並びに前記更新された文レベルの埋め込みに基づいて、1つ以上の候補パラフレーズを提供するための手段と、を更に有する、請求項15に記載のシステム。
  19. 前記文レベル、語レベル及び文字レベルの埋め込みは、回帰型ニューラルネットワーク及び/又は畳み込みニューラルネットワークを用いて決定される、請求項18に記載のシステム。
  20. 前記1つ以上の候補パラフレーズを提供することは、候補パラフレーズの語選択の意味的類似性及び新規性を目標の文と比較するよう構成された強化学習モデルについての報酬関数を決定すること、及び前記比較に基づいて候補パラフレーズを出力することを有する、請求項15に記載のシステム。
  21. 前記語レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記文字レベルの注意ベースモデルは、多層残差型の語レベルの双方向の長短期メモリネットワークであり、前記多層残差型の長短期メモリネットワークは、所与の長短期メモリネットワークの積層した層間の残差接続を有する、請求項15に記載のシステム。
JP2018537859A 2016-01-26 2017-01-23 ニューラル臨床パラフレーズ生成のためのシステム及び方法 Active JP6876061B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662286989P 2016-01-26 2016-01-26
US62/286,989 2016-01-26
PCT/IB2017/050325 WO2017130089A1 (en) 2016-01-26 2017-01-23 Systems and methods for neural clinical paraphrase generation

Publications (3)

Publication Number Publication Date
JP2019510290A true JP2019510290A (ja) 2019-04-11
JP2019510290A5 JP2019510290A5 (ja) 2020-02-13
JP6876061B2 JP6876061B2 (ja) 2021-05-26

Family

ID=57906816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018537859A Active JP6876061B2 (ja) 2016-01-26 2017-01-23 ニューラル臨床パラフレーズ生成のためのシステム及び方法

Country Status (5)

Country Link
US (1) US11068660B2 (ja)
EP (1) EP3408755A1 (ja)
JP (1) JP6876061B2 (ja)
CN (1) CN108604227B (ja)
WO (1) WO2017130089A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022007A (ja) * 2019-07-24 2021-02-18 日本電信電話株式会社 文生成学習方法、文生成学習装置及びプログラム

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858524B2 (en) * 2014-11-14 2018-01-02 Google Inc. Generating natural language descriptions of images
EP3452960A1 (en) * 2016-05-04 2019-03-13 Google LLC Augmenting neural networks with external memory using reinforcement learning
US10706351B2 (en) * 2016-08-30 2020-07-07 American Software Safety Reliability Company Recurrent encoder and decoder
US10810482B2 (en) * 2016-08-30 2020-10-20 Samsung Electronics Co., Ltd System and method for residual long short term memories (LSTM) network
JP6870076B2 (ja) * 2016-09-26 2021-05-12 グーグル エルエルシーGoogle LLC ニューラル機械翻訳システム
US10691998B2 (en) * 2016-12-20 2020-06-23 Google Llc Generating templated documents using machine learning techniques
US11023662B2 (en) 2017-02-15 2021-06-01 Specifio, Inc. Systems and methods for providing adaptive surface texture in auto-drafted patent documents
US10747953B1 (en) 2017-07-05 2020-08-18 Specifio, Inc. Systems and methods for automatically creating a patent application based on a claim set such that the patent application follows a document plan inferred from an example document
US10713443B1 (en) * 2017-06-05 2020-07-14 Specifio, Inc. Machine learning model for computer-generated patent applications to provide support for individual claim features in a specification
US11593564B2 (en) 2017-02-15 2023-02-28 Specifio, Inc. Systems and methods for extracting patent document templates from a patent corpus
US10417341B2 (en) 2017-02-15 2019-09-17 Specifio, Inc. Systems and methods for using machine learning and rules-based algorithms to create a patent specification based on human-provided patent claims such that the patent specification is created without human intervention
US10621371B1 (en) 2017-03-30 2020-04-14 Specifio, Inc. Systems and methods for facilitating editing of a confidential document by a non-privileged person by stripping away content and meaning from the document without human intervention such that only structural and/or grammatical information of the document are conveyed to the non-privileged person
WO2018195459A1 (en) 2017-04-20 2018-10-25 Google Llc Processing sequential data using recurrent neural networks
US11030394B1 (en) * 2017-05-04 2021-06-08 Amazon Technologies, Inc. Neural models for keyphrase extraction
CN108959235B (zh) * 2017-05-19 2021-10-19 北京庖丁科技有限公司 文字中获取表达式的方法和装置
KR102342066B1 (ko) * 2017-06-21 2021-12-22 삼성전자주식회사 뉴럴 네트워크 모델을 이용한 기계 번역 방법, 장치 및 그 장치를 학습시키기 위한 방법
WO2019017990A1 (en) * 2017-07-17 2019-01-24 Google Llc UNIFIED INTEGRATION OF LEARNING
KR102424540B1 (ko) * 2017-10-16 2022-07-25 삼성전자주식회사 문장 생성 모델의 업데이트 방법 및 문장 생성 장치
CN109710915B (zh) * 2017-10-26 2021-02-23 华为技术有限公司 复述语句生成方法及装置
CN109783795B (zh) * 2017-11-14 2022-05-06 深圳市腾讯计算机系统有限公司 一种摘要获取的方法、装置、设备及计算机可读存储介质
CN110019648B (zh) * 2017-12-05 2021-02-02 深圳市腾讯计算机系统有限公司 一种训练数据的方法、装置及存储介质
US10672388B2 (en) 2017-12-15 2020-06-02 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for open-vocabulary end-to-end speech recognition
KR102608469B1 (ko) * 2017-12-22 2023-12-01 삼성전자주식회사 자연어 생성 방법 및 장치
US20190354836A1 (en) * 2018-05-17 2019-11-21 International Business Machines Corporation Dynamic discovery of dependencies among time series data using neural networks
CN110555203B (zh) * 2018-05-31 2023-05-30 北京百度网讯科技有限公司 文本复述方法、装置、服务器及存储介质
US11042712B2 (en) 2018-06-05 2021-06-22 Koninklijke Philips N.V. Simplifying and/or paraphrasing complex textual content by jointly learning semantic alignment and simplicity
US11087089B2 (en) * 2018-10-05 2021-08-10 Sap Se Aspect-driven multi-document summarization
US10810382B2 (en) * 2018-10-09 2020-10-20 Disney Enterprises, Inc. Automated conversion of vocabulary and narrative tone
JP7116309B2 (ja) * 2018-10-10 2022-08-10 富士通株式会社 コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム
CN109840322B (zh) * 2018-11-08 2023-06-20 中山大学 一种基于强化学习的完形填空型阅读理解分析模型及方法
CN109558591A (zh) * 2018-11-28 2019-04-02 中国科学院软件研究所 中文事件检测方法及装置
CN110232183B (zh) * 2018-12-07 2022-05-27 腾讯科技(深圳)有限公司 关键词提取模型训练方法、关键词提取方法、装置及存储介质
US10909320B2 (en) * 2019-02-07 2021-02-02 International Business Machines Corporation Ontology-based document analysis and annotation generation
US11966389B2 (en) * 2019-02-13 2024-04-23 International Business Machines Corporation Natural language to structured query generation via paraphrasing
US11227102B2 (en) * 2019-03-12 2022-01-18 Wipro Limited System and method for annotation of tokens for natural language processing
CN109948691B (zh) * 2019-03-14 2022-02-18 齐鲁工业大学 基于深度残差网络及注意力的图像描述生成方法和装置
KR102264899B1 (ko) * 2019-03-15 2021-06-11 에스케이텔레콤 주식회사 자연어 처리 시스템, 그 학습 방법 및 프로그램이 기록된 컴퓨터 판독가능한 기록매체
CN110111864B (zh) * 2019-04-15 2023-05-26 中山大学 一种基于关系模型的医学报告生成系统及其生成方法
CN110032739B (zh) * 2019-04-18 2021-07-13 清华大学 中文电子病历命名实体抽取方法及系统
US11554322B2 (en) 2019-04-26 2023-01-17 Sony Interactive Entertainment LLC Game controller with touchpad input
US11663519B2 (en) 2019-04-29 2023-05-30 International Business Machines Corporation Adjusting training data for a machine learning processor
CN110096711B (zh) * 2019-05-09 2022-10-28 中国科学技术大学 序列全局关注和局部动态关注的自然语言语义匹配方法
CN110287333A (zh) * 2019-06-12 2019-09-27 北京语言大学 一种基于知识库进行释义生成的方法及系统
US11048356B2 (en) 2019-07-31 2021-06-29 Sony Interactive Entertainment LLC Microphone on controller with touchpad to take in audio swipe feature data
US11244116B2 (en) * 2019-09-03 2022-02-08 International Business Machines Corporation Automatically bootstrapping a domain-specific vocabulary
CN110619123B (zh) * 2019-09-19 2021-01-26 电子科技大学 一种机器阅读理解方法
CN110852063B (zh) * 2019-10-30 2023-05-05 语联网(武汉)信息技术有限公司 基于双向lstm神经网络的词向量生成方法及装置
JP7374215B2 (ja) * 2019-12-03 2023-11-06 富士フイルム株式会社 文書作成支援装置、方法およびプログラム
US11341334B2 (en) * 2020-01-28 2022-05-24 Here Global B.V. Method and apparatus for evaluating natural language input to identify actions and landmarks
CN111339407B (zh) * 2020-02-18 2023-12-05 北京航空航天大学 一种信息抽取云平台的实现方法
US20210287805A1 (en) * 2020-03-11 2021-09-16 National Taiwan University Systems and methods for prognosis prediction of acute myeloid leukemia patients
US11681914B2 (en) 2020-05-08 2023-06-20 International Business Machines Corporation Determining multivariate time series data dependencies
US11494562B2 (en) * 2020-05-14 2022-11-08 Optum Technology, Inc. Method, apparatus and computer program product for generating text strings
US11586830B2 (en) 2020-06-03 2023-02-21 PM Labs, Inc. System and method for reinforcement learning based controlled natural language generation
US11501071B2 (en) * 2020-07-08 2022-11-15 International Business Machines Corporation Word and image relationships in combined vector space
US11947908B2 (en) * 2021-04-07 2024-04-02 Baidu Usa Llc Word embedding with disentangling prior
US11431472B1 (en) 2021-11-22 2022-08-30 Morgan Stanley Services Group Inc. Automated domain language parsing and data extraction
CN117313704B (zh) * 2023-11-28 2024-02-23 江西师范大学 基于公有与私有特征分解的混合可读性评估方法与系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050022114A1 (en) * 2001-08-13 2005-01-27 Xerox Corporation Meta-document management system with personality identifiers
US7680649B2 (en) * 2002-06-17 2010-03-16 International Business Machines Corporation System, method, program product, and networking use for recognizing words and their parts of speech in one or more natural languages
US20070016401A1 (en) * 2004-08-12 2007-01-18 Farzad Ehsani Speech-to-speech translation system with user-modifiable paraphrasing grammars
US8150677B2 (en) * 2008-06-26 2012-04-03 Microsoft Corporation Machine translation using language order templates
US8122021B2 (en) * 2008-10-06 2012-02-21 Microsoft Corporation Domain expertise determination
US9049477B2 (en) * 2008-11-13 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for managing media content
US20110314003A1 (en) * 2010-06-17 2011-12-22 Microsoft Corporation Template concatenation for capturing multiple concepts in a voice query
US8219724B1 (en) * 2010-09-29 2012-07-10 Emc Corporation Flexibly managing I/O operations based on application awareness
US20130103390A1 (en) * 2011-10-21 2013-04-25 Atsushi Fujita Method and apparatus for paraphrase acquisition
US20140358519A1 (en) * 2013-06-03 2014-12-04 Xerox Corporation Confidence-driven rewriting of source texts for improved translation
US20150006148A1 (en) * 2013-06-27 2015-01-01 Microsoft Corporation Automatically Creating Training Data For Language Identifiers
US10373047B2 (en) * 2014-02-28 2019-08-06 Educational Testing Service Deep convolutional neural networks for automated scoring of constructed responses
US9881631B2 (en) * 2014-10-21 2018-01-30 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing audio signal using phase information
US10115055B2 (en) * 2015-05-26 2018-10-30 Booking.Com B.V. Systems methods circuits and associated computer executable code for deep learning based natural language understanding
US20170154258A1 (en) * 2015-11-30 2017-06-01 National Institute Of Information And Communications Technology Joint estimation method and method of training sequence-to-sequence model therefor
US9753618B1 (en) * 2016-05-11 2017-09-05 Vignet Incorporated Multi-level architecture for dynamically generating interactive program modules

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022007A (ja) * 2019-07-24 2021-02-18 日本電信電話株式会社 文生成学習方法、文生成学習装置及びプログラム
JP7175474B2 (ja) 2019-07-24 2022-11-21 日本電信電話株式会社 文生成学習方法、文生成学習装置及びプログラム

Also Published As

Publication number Publication date
CN108604227A (zh) 2018-09-28
US20190034416A1 (en) 2019-01-31
WO2017130089A1 (en) 2017-08-03
US11068660B2 (en) 2021-07-20
JP6876061B2 (ja) 2021-05-26
CN108604227B (zh) 2023-10-24
EP3408755A1 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
JP6876061B2 (ja) ニューラル臨床パラフレーズ生成のためのシステム及び方法
Zhang et al. Shifting machine learning for healthcare from development to deployment and from models to data
US11947917B2 (en) Natural language processing with an n-gram machine
US11625573B2 (en) Relation extraction from text using machine learning
US9898458B2 (en) Generating distributed word embeddings using structured information
Chen et al. Automatic ICD-10 coding algorithm using an improved longest common subsequence based on semantic similarity
US10445654B2 (en) Learning parameters in a feed forward probabilistic graphical model
Pesaranghader et al. deepBioWSD: effective deep neural word sense disambiguation of biomedical text data
CN113707307A (zh) 病情分析方法、装置、电子设备及存储介质
Yuan et al. Llm for patient-trial matching: Privacy-aware data augmentation towards better performance and generalizability
Yuan et al. Large language models for healthcare data augmentation: An example on patient-trial matching
Khilji et al. Healfavor: Dataset and a prototype system for healthcare chatbot
CN112424873A (zh) 模拟患者以开发基于人工智能的医学方案
Harris et al. Identification of factors associated with return of spontaneous circulation after pediatric out-of-hospital cardiac arrest using natural language processing
Vandeghinste et al. Improving the translation environment for professional translators
Blumenthal-Barby et al. Research on the clinical translation of health care machine learning: ethicists experiences on lessons learned
Bandhu et al. Health care chatbot using natural language processing with SGD and ADAM optimizer parameter optimization
Yang et al. A comprehensive review on knowledge graphs for complex diseases
Mehta et al. Artificial intelligence powered chatbot for mental healthcare based on sentiment analysis
Park et al. SCREENER: Streamlined collaborative learning of NER and RE model for discovering gene-disease relations
Khilji et al. Healfavor: a chatbot application in healthcare
Huang et al. Supervised clinical abbreviations detection and normalisation approach
Wang et al. End-to-end pre-trained dialogue system for automatic diagnosis
Laskar et al. HealFavor: Machine Translation Enabled Healthcare Chat Based Application
Malard et al. EpyNN: Educational python for Neural Networks

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210423

R150 Certificate of patent or registration of utility model

Ref document number: 6876061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6876061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250