JP2020102131A - テキスト生成方法、テキスト生成装置および学習済みモデル - Google Patents

テキスト生成方法、テキスト生成装置および学習済みモデル Download PDF

Info

Publication number
JP2020102131A
JP2020102131A JP2018241388A JP2018241388A JP2020102131A JP 2020102131 A JP2020102131 A JP 2020102131A JP 2018241388 A JP2018241388 A JP 2018241388A JP 2018241388 A JP2018241388 A JP 2018241388A JP 2020102131 A JP2020102131 A JP 2020102131A
Authority
JP
Japan
Prior art keywords
text
neural network
auxiliary
generation
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018241388A
Other languages
English (en)
Inventor
健一 横手
Kenichi Yokote
健一 横手
真 岩山
Makoto Iwayama
真 岩山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018241388A priority Critical patent/JP2020102131A/ja
Priority to US16/718,272 priority patent/US20200202079A1/en
Priority to CN201911343811.0A priority patent/CN111382251A/zh
Publication of JP2020102131A publication Critical patent/JP2020102131A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】学習データの構築の困難性を軽減しつつ、処理の複雑化に対応する。【解決手段】置換情報収集部221は、補助置換器の役割を決定し、補助置換器教師データ生成部222は、置換情報DB211の参照結果に基づいて、補助置換器の機械学習に用いる置換教師データを生成し、補助置換器生成部223は、置換教師データDB212に基づいて、補助置換器を生成し、補助置換器テキスト生成器結合部240は、補助置換器生成部223が生成した補助置換器を未学習のテキスト生成器に結合し、テキスト生成情報収集部251は、テキストの生成前情報および生成後情報を収集し、テキスト生成器教師データ生成部252は、生成情報DB231の参照結果に基づいて、テキスト生成器の機械学習に用いる生成教師データを生成し、テキスト生成器生成部253は、生成教師データDB232に基づいて、テキスト生成器260を生成する。【選択図】図2

Description

本発明は、テキスト生成方法、テキスト生成装置および学習済みモデルに関する。
2つのテキストの意味または意図が同じであるかを認識することは、自然言語処理に関する多くのシステムで必要とされている。例えば、質問文と回答文のペアを持ち、ユーザからの入力を受けて、その入力に該当する質問文を探した後、その質問文に対応する回答を出力する質問応答システムを考える。
ユーザからの入力は、必ずしも質問応答システムが持つ質問文と同一テキストにはならない。質問応答システムが、質問文として「駅の場所を教えて下さい」、回答文として「北へ200メートルです」のペアを持っていたとしても、「駅の場所を教えて下さい」ではなく、「駅の場所を知りたい」というテキストがユーザから入力される場合がある。質問応答システムは、「駅の場所を教えて下さい」と完全一致するかどうかで、該当する質問文を探す場合、「駅の場所を知りたい」という入力に対して、「北へ200メートルです」と回答することはできない。
前記事例に限らず、活用形の揺らぎや、同じ意味を持つ別の単語が入力されることで、質問応答システムは、回答文を持っているにも関わらず、ユーザからの入力を対応する質問文に関連付けることができないという結果が起こり得る。
このような問題を解決する方法の一つとして、言い換え生成(Paraphrase Generation)がある。言い換え生成は、あるテキストが与えられた時に、同じ意味を持つ別のテキストを生成する技術である。言い換え生成を行い、一つの回答文に対して複数の質問文を対応づけることで、質問応答システムは、多様な入力に対して回答可能になる。
非特許文献1〜3には、ニューラルネットワークを初めとしたEnd−to−Endアーキテクチャで、言い換え生成を行う方法が開示されている。例えば、「駅の場所を確認したい」から「駅の場所を知りたい」を生成する処理のように、テキストの一部の動詞を置き換えるだけの場合、同義語辞書などを用いて学習用データを自動的に構築することが可能であり、実現したい処理も複雑でないため、End−to−Endアーキテクチャとの相性はよい。
Paraphrase Generation with Deep Reinforcement Learning Zichao Li, Xin Jiang, Lifeng Shang, Hang Li, EMNLP 2018 Neural Paraphrase Generation with Stacked Residual LSTM Networks aaditya prakash, Sadid A. Hasan, Kathy Lee, VivekDatla, Ashequl Qadir, Joey Liu, Oladimeji Farri, COLING 2016 Joint Copying and Restricted Generation for Paraphrase Ziqiang Cao, Chuwei Luo, Wenjie Li, Sujian Li, AAAI 2017
しかしながら、例えば、「駅の場所はどこですか」から「電車に乗りたい」を生成する処理のように、テキストの単語および文体を変更する場合、実現したい処理が複雑になり、大量の学習データが必要となる上に、学習データを自動的に構築することも困難になるため、End−to−Endアーキテクチャとの相性は悪かった。
本発明は、上記事情に鑑みなされたものであり、その目的は、学習データの構築の困難性を軽減しつつ、処理の複雑化に対応可能なテキスト生成方法、テキスト生成装置および学習済みモデルを提供することにある。
上記目的を達成するため、第1の観点に係るテキスト生成方法は、テキストを分割して得られる要素のペアを学習させた補助置換器を生成し、前記補助置換器の結合後に言い換え前後のテキストを学習させたテキスト生成器を生成し、前記テキスト生成器を用いてテキストを生成する。
本発明によれば、学習データの構築の困難性を軽減しつつ、処理の複雑化に対応することができる。
図1は、第1実施形態に係るテキスト生成装置のハードウェア構成を示すブロック図である。 図2は、図1のテキスト生成装置の機能的な構成を示すブロック図である。 図3は、図2の置換情報DBに格納される置換情報の一例を示す図である。 図4は、図2の置換教師データDBに格納される置換教師データの一例を示す図である。 図5は、図2の生成情報DBに格納される生成情報の一例を示す図である。 図6は、図2の生成教師データDBに格納される生成教師データの一例を示す図である。 図7は、図2のテキスト生成装置の動作を示すフローチャートである。 図8は、図7の置換情報収集処理を示すフローチャートである。 図9は、図7の補助置換器教師データ生成処理を示すフローチャートである。 図10は、図7の補助置換器生成処理を示すフローチャートである。 図11は、図7のテキスト生成情報収集処理を示すフローチャートである。 図12は、図7のテキスト生成器教師データ生成処理を示すフローチャートである。 図13は、図7のテキスト生成器生成処理を示すフローチャートである。 図14は、第2実施形態に係る学習済みモデルの構成例を示すブロック図である。 図15は、第3実施形態に係る学習済みモデルの構成例を示すブロック図である。 図16は、図15の学習済みモデルが言い換え生成に用いられるときの学習データの一例を示すブロック図である。 図17は、第4実施形態に係る学習済みモデルの構成例を示すブロック図である。
実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、第1実施形態に係るテキスト生成装置のハードウェア構成を示すブロック図である。
図1において、テキスト生成装置100は、プロセッサ110、メインメモリ120、補助記憶装置130、入力デバイス140、出力デバイス150およびネットワークデバイス160を備える。プロセッサ110、メインメモリ120、補助記憶装置130、入力デバイス140、出力デバイス150およびネットワークデバイス160は、バス170を介して相互に接続されている。メインメモリ120および補助記憶装置130は、プロセッサ110からアクセス可能である。
プロセッサ110は、テキスト生成装置100全体の動作制御を司るハードウェアである。プロセッサ110は、CPU(Central Processing Unit)であってもよいし、GPU(Graphics Processing Unit)であってもよい。プロセッサ110は、シングルコアロセッサであってもよいし、マルチコアロセッサであってもよい。プロセッサ110は、処理の一部または全部を行うハードウェア回路(例えば、FPGA(Field−Programmable Gate Array)またはASIC(Application Specific Integrated Circuit))を備えていてもよい。
メインメモリ120は、例えば、SRAMまたはDRAMなどの半導体メモリから構成することができる。メインメモリ120には、プロセッサ11が実行中のプログラムを格納したり、プロセッサ110がプログラムを実行するためのワークエリアを設けたりすることができる。
補助記憶装置130は、大容量の記憶容量を備える記憶デバイスであり、例えば、ハードディスク装置またはSSD(Solid State Drive)である。補助記憶装置130は、各種プログラムの実行ファイルやプログラムの実行に用いられるデータを保持することができる。補助記憶装置130には、学習データ130Aおよびテキスト生成プログラム130Bを格納することができる。学習データ130Aは、ネットワークデバイス160を介してネットワーク180から収集してもよいし、入力デバイス140を介してユーザが直接入力してもよい。テキスト生成プログラム1130Bは、テキスト生成装置100にインストール可能なソフトウェアであってもよいし、テキスト生成装置100にファームウェアとして組み込まれていてもよい。
入力デバイス140は、例えば、キーボード、マウス、タッチパネル、カードリーダ、音声入力装置等である。出力デバイス150は、例えば、画面表示装置(液晶モニタ、有機EL(Electro Luminescence)ディスプレイ、グラフィックカード等)、音声出力装置(スピーカ等)、印字装置等である。
ネットワークデバイス160は、外部との通信を制御する機能を備えるハードウェアである。ネットワークデバイス160は、ネットワーク180に接続される。ネットワーク180は、インターネットなどのWAN(Wide Area Network)であってもよいし、WiFiまたはイーサネット(登録商標)などのLAN(Local Area Network)であってもよいし、WANとLANが混在していてもよい。
プロセッサ110は、学習データ130Aおよびテキスト生成プログラム130Bをメインメモリ120に読み出し、学習データ130Aを用いてテキスト生成プログラム130Bを実行する。このとき、プロセッサ110は、テキストを分割して得られる要素のペアを学習させた補助置換器を生成し、その補助置換器の結合後に言い換え前後のテキストを学習させたテキスト生成器を生成し、そのテキスト生成器を用いてテキストを生成することができる。テキストを分割して得られる要素は、例えば、トークンである。トークンは、テキストから意味を持つものとして抽出可能な最小単位であり、例えば、単語または単語の断片である。
なお、テキスト生成プログラム130Bの実行は、複数のプロセッサやコンピュータに分担させてもよい。あるいは、プロセッサ110は、ネットワーク180を介してクラウドコンピュータなどにテキスト生成プログラム130Bの全部または一部の実行を指示し、その実行結果を受け取るようにしてもよい。
ここで、補助置換器には、表層的類似度が低いテキストを生成するために必要な機能の一部を持たせることができる。このため、補助置換器をテキスト生成器の結合することにより、テキスト生成器が獲得するべき機能を、表層的類似度が低いテキストを生成するために必要な機能の一部に限定することができる。このため、テキスト生成器の学習に必要なデータ量を減少させることができ、表層的類似度が低い大量の教師データが用意できない状況でも、表層的類似度が低い言い換え生成の学習が可能なテキスト生成方法を提供できる。
2つのテキストの「表層的類似度が低い」とは、単語や文体が大きく異なることを指す。具体的には、異なる要素を含むテキスト間において、1つの要素の置換で要素の同じ集合とならないテキスト同士を表層的類似度が低いと定義することができる。すなわち、2つのテキストx、yの表層的類似度は、以下のように定義することができる。
テキスト分割方法Dを設定する。テキスト分割方法Dは、形態素、句構造、依存構造、固有表現およびSub word unitのうちのいずれか少なくとも1つに注目して決定することができる。形態素は、意味を持つ表現要素の最小単位である。句構造は、テキストを分割して得られた隣接する語句同士の意味的および機能的関係である。依存構造は、単語間の係り受け関係である。固有表現は、固有名詞(人名、組織名および地名など)、日付、時間表現、数量および金額などの表現である。Sub word unitは、一つの単語でも、その単語の出現頻度が低い場合は単語をさらに分割した小さい単位を要素としたものである。Sub word unitは、アルゴリズムや実装の差異でsentencepieceまたはwordpieceなどとも呼ばれる。
次に、テキスト分割方法Dで各テキストx、yを分割し、以下の集合X、Yを定義する。
X=(x1,x2,x3・・・xn)
Y=(y1,y2,y3,・・・・ym)
ただし、x1,x2,x3・・・xn(nは正の整数)は、テキストxの要素である。y1,y2,y3,・・・・ym(mは正の整数)は、テキストyの要素である。
集合X、Yの全ての要素が同じである、あるいは集合X内の1つの要素の置換で集合Yと同じとなる場合を表層的類似度が高いと定義する。そうでない場合を表層的類似度が低いと定義する。
表層的類似度が低い場合、2つのテキスト間で異なる単語が2以上あり、意味を持つ最小単位の差異も2以上ある。このため、表層的類似度が低いテキスト間では、意味または意図が同じかどうかの判断が困難であり、表層的類似度が低くかつ意味または意図が同じテキストのペアを取集するのは難しい。一方、表層的類似度が高い場合、2つのテキスト間で異なる単語が1個しかなく、意味を持つ最小単位の差異が1つしかない。このため、表層的類似度が高いテキスト間では、意味または意図が同じかどうかの判断の困難性が軽減され、表層的類似度が高くかつ意味または意図が同じテキストのペアを取集するのは比較的容易である。
補助置換器を生成するための学習データは、テキストを分割して得られる要素のペアであり、意味を持つ最小単位の差異が1つしかない。このため、補助置換器を生成するための学習データの収集を容易化することが可能となり、テキスト生成器は、表層的類似度が低いテキストを生成するために必要な機能の一部を学習すればよいため、表層的類似度が低いテキストの学習に必要なデータ収集の困難性を軽減することができる。
例えば、「駅の場所を確認したい」と「駅の場所を知りたい」という2つのテキスト間においては、異なる単語が1個しかない。このため、それらの2つのテキストの意味または意図が同じかどうかは容易に判断することができ、そのような2つのテキストを学習データとして大量に収集するのは容易である。一方、「駅の場所はどこですか」と「電車に乗りたい」という2つのテキスト間においては、異なる単語が2個以上ある。このため、それらの2つのテキストの意味または意図が同じかどうかを判断することは難しく、そのような2つのテキストを学習データとして大量に収集するのは困難である。
この場合、「駅はどこですか」と「電車に乗りたい」という2つのテキストをそれぞれ要素に分割し、補助置換器の役割を決定する。このとき、「電車に乗る」を「駅」に置換することを可能とする補助置換器Aと、「たい」を「どこですか」に置換することを可能とする補助置換器Bを定義する。補助置換器Aの役割は、行為内容から行為対象への変換である。補助置換器Bの役割は、願望文から疑問文への変換である。
補助置換器A、Bに対し、各役割に該当する置換前情報および置換後情報を収集する。そして、置換前情報および置換後情報を用いて、各補助置換器A、Bの機械学習に用いる教師データを生成する。そして、当該教師データを用いて、補助置換器A、Bを生成する。
次に、補助置換器A、Bを未学習のテキスト生成器を結合する。そして、テキスト生成器の学習に用いる生成前情報および生成後情報を収集する。生成前情報は、「電車に乗りたい」というテキスト、生成後情報は、「駅はどこですか」というテキストである。そして、生成前情報および生成後情を用いて、テキスト生成器の機械学習に用いる教師データを生成する。そして、当該教師データを用いてテキスト生成器を生成する。そして、学習済みのテキスト生成器を用いることにより、ユーザ端末からの入力テキストに応じて応答テキストを生成する。
これにより、テキスト生成器は、学習時とテキスト生成時に補助置換器の処理を活用することができる。このとき、テキスト生成器が獲得するべき機能は、「行為内容から行為対象への変換」、「願望文から疑問文への変換」および「入力テキストに応じて、前記2つの機能を取捨選択して利用する」という三つの機能である。ただし、「行為内容から行為対象への変換」および「願望文から疑問文への変換」という2つの機能は補助置換器と結合することで獲得しているため、テキスト生成器は、「入力テキストに応じて、前記2つの機能を取捨選択して利用する」という機能のみ獲得できればよい。
これにより、テキスト生成器が獲得するべき機能を、表層的類似度が低いテキストを生成するために必要な機能の一部に限定することができる。このため、収集が困難な表層的類似度が低いテキストの学習に必要なデータ量を減少させることができ、大量の教師データが用意できない状況でも、End−to−Endアーキテクチャで表層的類似度が低い言い換え生成の学習が可能になる。
図2は、図1のテキスト生成装置の機能的な構成を示すブロック図である。なお、以下の説明では、“〜部は”と動作主体を記した場合、図1のプロセッサ110が補助記憶装置130からプログラムである“〜部”を読み出し、メインメモリ120にロードした上で“〜部”の機能を実現することを意味するものとする。
図2において、テキスト生成装置100は、補助置換器DB(Data Base)210、テキスト生成器DB230、置換情報収集部221、補助置換器教師データ生成部222、補助置換器生成部223、補助置換器テキスト生成器結合部240、テキスト生成情報収集部251、テキスト生成器教師データ生成部252、テキスト生成器生成部253およびテキスト生成器260を備える。テキスト生成装置100は、ユーザ端末201に接続されている。
補助置換器DB210は、補助置換器の生成に必要なデータを格納する。補助置換器DB210は、置換情報DB211および置換教師データDB212を備える。置換情報DB211は、補助置換器の生成のための置換前情報および置換後情報を格納する。置換前情報および置換後情報は、例えば、テキストを分割して得られるトークンのペアである。置換教師データDB212は、補助置換器の機械学習に用いられる教師データを格納する。
テキスト生成器DB230は、テキスト生成器の生成に必要なデータを格納する。テキスト生成器DB230は、生成情報DB231および生成教師データDB232を備える。生成情報DB231は、テキスト生成器の生成のための生成前情報および生成後情報を格納する。生成教師データDB232は、テキスト生成器の機械学習に用いられる教師データを格納する。
置換情報収集部221は、ユーザ端末201からの入力を受け取り、補助置換器の役割を決定する。補助置換器は、役割ごとに複数設けることができる。例えば、2つの補助置換器A、Bについて、「行為内容から行為対象への変換」という役割を補助置換器Aに与え、「願望文から疑問文への変換」という役割を補助置換器Bに与えることができる。そして、置換情報収集部221は、各役割に該当する置換前情報および置換後情報を収集し、置換情報DB211に格納する。
補助置換器教師データ生成部222は、置換情報DB211の参照結果に基づいて、補助置換器の機械学習に用いる置換教師データを生成し、置換教師データDB212に格納する。補助置換器生成部223は、置換教師データDB212の参照結果に基づいて、補助置換器を生成する。補助置換器テキスト生成器結合部240は、補助置換器生成部223が生成した補助置換器を未学習のテキスト生成器に結合する。
テキスト生成情報収集部251は、ユーザ端末201からの入力を受け取り、テキストの生成前情報および生成後情報を収集し、生成情報DB231に格納する。テキスト生成器教師データ生成部252は、生成情報DB231の参照結果に基づいて、テキスト生成器の機械学習に用いる生成教師データを生成し、生成教師データDB232に格納する。テキスト生成器生成部253は、生成教師データDB232の参照結果に基づいて、テキスト生成器260を生成する。テキスト生成器260は、ユーザ端末201からの入力テキストに応じて、応答テキストを生成する。このとき、テキスト生成器260は、入力テキストに対して表層的類似度が低い応答テキストを生成することができる。
図3は、図2の置換情報DBに格納される置換情報の一例を示す図である。
図3において、置換情報DB211のデータ300は、1以上の「置換情報」レコードを含む。「置換情報」レコードは、「役割」および「収集方法」等の複数のフィールドを含む。フィールド「置換前情報」は、置換前のテキストの要素情報を保持する。フィールド「置換後情報」は、置換後のテキストの要素情報を保持する。フィールド「役割」は、該当する置換の役割を識別するための情報を保持する。
役割は、例えば、行為内容から行為対象、願望文から疑問文、対義語、略語、別名、行為内容から行為主体、行為内容から行為結果、上位概念語から下位概念語および比喩である。「行為内容から行為対象」という役割では、例えば、置換前情報として「電車に乗る」、置換後情報として「駅」を保持する。「願望文から疑問文」という役割では、例えば、置換前情報として「たい」、置換後情報として「どこですか」を保持する。「対義語」という役割では、例えば、置換前情報として「面白い」、置換後情報として「退屈だ」を保持する。
フィールド「収集方法」は、「置換情報」レコードを収集するために用いた方法を識別するための情報を保持する。収集方法が、ユーザ端末201からの直接入力の場合、「直接入力」を保持する。収集方法が、図1のネットワーク180を介してWebサイトの言語資源を利用した場合、Webサイトのアドレスを保持する。
例えば、クローリングを収集に用いる場合、表層的類似度が低い言い換え前後のテキストの収集に比べ、置換前情報および置換後情報の収集の方が容易である。また、ユーザによる直接入力の場合、表層的類似度が低い言い換え前後のテキストよりも、置換前情報および置換後情報の方が思いつき易い。このため、補助置換器の学習に用いられる学習データを容易に収集することができる。
図4は、図2の置換教師データDBに格納される置換教師データの一例を示す図である。
図4において、置換教師データDB212のデータ400は、1以上の「置換教師データ」レコードを含む。「置換教師データ」レコードは、「役割」および「変換方法」等の複数のフィールドを含む。
フィールド「役割」は、当該レコードを機械学習の教師データとして利用できる置換器の役割を識別するための情報を保持する。例えば、フィールド「役割」に「疑問文から願望文」を保持している場合、そのレコードは、「疑問文から願望文」の役割が定義されている補助置換器の学習に利用できる。
フィールド「変換方法」は、「置換情報」レコードの置換前情報を説明変数に変換するために用いた方法を識別するための情報を保持する。また、フィールド「変換方法」は、「置換情報」レコードの置換後情報を目的変数に変換するために用いた方法を識別するための情報を保持する。フィールド「説明変数」は、フィールド「変換方法」で保持する方法で、「置換情報」レコードの置換前情報を説明変数に変換した結果を保持する。フィールド「目的変数」は、変換方法フィールドで保持する方法で、「置換情報」レコードの置換後情報を目的変数に変換した結果を保持する。これらの説明変数および目的変数は、ベクトルデータで表現することができる。
図5は、図2の生成情報DBに格納される生成情報の一例を示す図である。
図5において、生成情報DB231のデータ500は、1以上の「生成情報」レコードを含む。「生成情報」レコードは、「収集方法」および「生成前情報」等の複数のフィールドを含む。
フィールド「収集方法」は、「生成情報」レコードを収集するために用いた方法を識別するための情報を保持する。収集方法が、ユーザ端末からの直接入力の場合「直接入力」を保持する。収集方法が、通信ネットワークを介して外部Webサイトの言語資源を利用した場合、Webサイトのアドレスを保持する。フィールド「生成前情報」は、生成前のテキスト情報を保持する。フィールド「生成後情報」は、生成後のテキスト情報を保持する。
生成前情報および生成後情報は、言い換え前後のテキストを用いることができる。生成前情報および生成後情報は、表層的類似度が低い方が好ましい。ただし、表層的類似度に関係なく、生成前情報および生成後情報を設定してもよい。
図6は、図2の生成教師データDBに格納される生成教師データの一例を示す図である。
図6において、生成教師DB232のデータ600は、1以上の「生成教師データ」レコードを含む。「生成教師データ」レコードは、「変換方法」および「説明変数」等の複数のフィールドを含む。フィールド「変換方法」は、「生成情報」レコードの生成前情報を説明変数に変換するために用いた方法を識別するための情報を保持する。また、フィールド「変換方法」は、「生成情報」レコードの生成後情報を目的変数に変換するために用いた方法を識別するための情報を保持する。
フィールド「説明変数」は、変換方法フィールドで保持する方法で、「生成情報」レコードの生成前情報を説明変数に変換した結果を保持する。フィールド「目的変数」は、変換方法フィールドで保持する方法で、「生成情報」レコードの生成後情報を目的変数に変換した結果を保持する。これらの説明変数および目的変数は、ベクトルデータで表現することができる。
図7は、図2のテキスト生成装置の動作を示すフローチャートである。
図7において、図2の置換情報収集部221は、ユーザ端末201からの入力を受けて、置換情報収集処理を行う(S701)。
次に、補助置換器教師データ生成部222は、補助置換器を生成するための置換教師データを生成する(S702)。次に、補助置換器生成部223、置換教師データに基づいて、補助置換器を生成する(S703)。次に、補助置換器テキスト生成器結合部240は、補助置換器を未学習のテキスト生成器に結合する(S704)。
次に、テキスト生成情報収集部251は、テキスト生成情報収集処理を行う(S705)。次に、テキスト生成器教師データ生成部252は、テキスト生成器260を生成するための生成教師データを生成する(S706)。次に、テキスト生成器生成部253は、生成教師データに基づいて、学習済みのテキスト生成器260を生成する(S707)。次に、テキスト生成器260は、ユーザ端末201からの入力テキストに応じて、応答テキストを生成する(S708)。
次に、テキスト生成器260は、ユーザ端末201からの追加入力があるかどうかを判断する。ユーザ端末201からの追加入力がある場合(S709:YES)、テキスト生成器260は、ステップ708に戻り、入力テキストに応じて、応答テキストを生成する。一方、ユーザ端末201からの追加入力がない場合(S709:NO)、テキスト生成器260は、テキスト生成処理を終了する。
テキスト生成器260は、End−to−Endモデルの説明変数が入力となる。このため、図12のステップ1301で獲得した変換方法で入力テキストを説明変数に変換した後、End−to−Endモデルに入力する。また、テキスト生成器260は、End−to−Endモデルの目的変数が出力となる。このため、図12のステップ1301で獲得した逆変換方法で目的変数を応答テキストに変換した後、ユーザ端末201に出力する。
図8は、図7の置換情報収集処理を示すフローチャートである。
図8において、図2の置換情報収集部221は、補助置換器の役割を決定する(S801)。次に、置換情報収集部221は、各役割に該当する置換前情報および置換後情報の収集方法を決定する(S802)。
次に、置換情報収集部221は、収集方法がユーザ端末201からの直接入力であるかどうかを判断する。収集方法がユーザ端末201からの直接入力である場合(S803:YES)、置換情報収集部221は、ユーザ端末201からの入力を受信する(S804)。収集方法がユーザ端末201からの直接入力でない場合(S803:NO)、置換情報収集部221は、直接入力以外の収集方法で置換前情報および置換後情報を取得する(S805)。次に、置換情報収集部221は、収集した置換前情報および置換後情報を置換情報DB211に格納する(S806)。
図9は、図7の補助置換器教師データ生成処理を示すフローチャートである。
図9において、図2の補助置換器教師データ生成部222は、置換情報DB211を参照し、説明変数および目的変数への変換処理および逆変換処理を獲得する(S901)。
次に、補助置換器教師データ生成部222は、置換情報DB211から獲得した置換前情報および置換後情報を説明変数および目的変数へ変換する(S902)。次に、補助置換器教師データ生成部222は、それらの説明変数および目的変数を置換教師データDB212に格納する(S903)。
図10は、図7の補助置換器生成処理を示すフローチャートである。
図10において、図2の補助置換器生成部223は、生成する補助置換器を初期化する(S1001)。
次に、補助置換器生成部223は、置換教師データDB212から、生成したい補助置換器に対応する説明変数および目的変数を置換教師データとして取得する(S1002)。次に、補助置換器生成部223は、取得した置換教師データに基づいて補助置換器を学習させる(S1003)。
図11は、図7のテキスト生成情報収集処理を示すフローチャートである。
図11において、図2のテキスト生成情報収集部251は、生成前情報および生成後情報の収集方法を決定する(S1201)。
次に、テキスト生成情報収集部251は、収集方法がユーザ端末201からの直接入力であるかどうかを判断する。収集方法がユーザ端末201からの直接入力である場合(S1202:YES)、テキスト生成情報収集部251は、ユーザ端末201からの入力を受信する(S1203)。収集方法がユーザ端末201からの直接入力でない場合(S1203:NO)、テキスト生成情報収集部251は、直接入力以外の収集方法で生成前情報および生成後情報を取得する(S1204)。次に、テキスト生成情報収集部251は、収集した生成前情報および生成後情報を生成情報DB231に格納する(S1205)。
図12は、図7のテキスト生成器教師データ生成処理を示すフローチャートである。
図12において、図2のテキスト生成器教師データ生成部252は、生成情報DB231を参照し、説明変数および目的変数への変換処理および逆変換処理を獲得する(S1301)。次に、テキスト生成器教師データ生成部252は、生成情報DB231から獲得した生成前情報および生成後情報を説明変数および目的変数へ変換する(S1302)。次に、テキスト生成器教師データ生成部252は、それらの説明変数および目的変数を生成教師データDB232に格納する(S1303)。
図13は、図7のテキスト生成器生成処理を示すフローチャートである。
図13において、図2のテキスト生成器生成部253は、生成するEnd−to−Endモデルを初期化する(S1401)。
次に、生成教師データDB232から、生成するEnd−to−Endモデルに対応する説明変数および目的変数を生成教師データとして取得する(S1402)。次に、テキスト生成器生成部253は、取得した生成教師データに基づいてEnd−to−Endモデルを学習させる(S1403)。
なお、上述した補助置換器およびテキスト生成器はともにニューラルネットワークで実現することができる。このとき、テキスト生成器のニューラルネットワークの一部を補助置換器のニューラルネットワークに置き換えることで、補助置換器をテキスト生成器に結合することができる。以下、補助置換器およびテキスト生成器をともにニューラルネットで実現した構成例について説明する。
図14は、第2実施形態に係る学習済みモデルの構成例を示すブロック図である。
図14において、この学習済みモデルは、ニューラルネットワーク10、20、30を備える。ニューラルネットワーク10は、入力層、中間層および出力層を備える。ニューラルネットワーク10の入力層はノード11を備え、ニューラルネットワーク10の中間層はノード12を備え、ニューラルネットワーク10の出力層はノード13を備える。ニューラルネットワーク10の入力層のノード11の出力は、中間層のノード12の入力に結合され、中間層のノード12の出力は、出力層のノード13の入力に結合されている。
ニューラルネットワーク10の中間層には、ニューラルネットワーク20、30が設けられている。ニューラルネットワーク20、30には、互いに異なる役割を持たせることができる。各ニューラルネットワーク20、30の入力は、ニューラルネットワーク10の入力層のノード11の出力に結合されている。各ニューラルネットワーク20、30の出力は、ニューラルネットワーク10の出力層のノード13の入力に結合されている。
ニューラルネットワーク20は、入力層、中間層および出力層を備える。ニューラルネットワーク20の入力層はノード21を備え、ニューラルネットワーク20の中間層はノード22を備え、ニューラルネットワーク20の出力層はノード23を備える。入力層のノード21の出力は、中間層のノード22の入力に結合され、中間層のノード22の出力は、出力層のノード23の入力に結合されている。
ニューラルネットワーク20、30は、学習済みの状態で未学習のニューラルネットワーク10に結合することができる。そして、学習済みのニューラルネットワーク20、30がニューラルネットワーク10に結合された状態で、ニューラルネットワーク10を学習させることができる。ニューラルネットワーク10には、説明変数14が入力され、ニューラルネットワーク10から、目的変数15が出力される。
図15は、第3実施形態に係る学習済みモデルの構成例を示すブロック図である。
図15において、この学習済みモデルは、ニューラルネットワーク20、30、40を備える。ニューラルネットワーク40は、入力層、中間層および出力層を備える。ニューラルネットワーク40の入力層はノード41を備え、ニューラルネットワーク40の中間層はノード42を備え、ニューラルネットワーク40の出力層はノード43を備える。ニューラルネットワーク40の入力層のノード41の出力は、中間層のノード42の入力に結合され、中間層のノード42の出力は、出力層のノード43の入力に結合されている。
ニューラルネットワーク40の入力層には、ニューラルネットワーク20、30が設けられている。各ニューラルネットワーク20、30の出力は、ニューラルネットワーク40の中間層のノード42の入力に結合されている。
ニューラルネットワーク20、30は、学習済みの状態で未学習のニューラルネットワーク40に結合することができる。そして、学習済みのニューラルネットワーク20、30がニューラルネットワーク40に結合された状態で、ニューラルネットワーク40を学習させることができる。ニューラルネットワーク40には、説明変数14が入力され、ニューラルネットワーク10から、目的変数15が出力される。
ここで、ニューラルネットワーク40の入力層にニューラルネットワーク20、30を設けることにより、各ニューラルネットワーク20、30は、何も変換されていない生の入力データに干渉することができる。
図16は、図15の学習済みモデルが言い換え生成に用いられるときの学習データの一例を示すブロック図である。
図16において、言い換え前後のテキストとして、「荷物を預けたい」というテキスト1と、「ロッカーはどこですか」というテキスト2があるものとする。また、言い換え前後の別のテキストとして、「車を止めたい」というテキスト3と、「駐車場はどこですか」というテキスト4があるものとする。
このとき、補助置換器Aには、「行為内容から行為対象への変換」という役割を持たせ、補助置換器Bには、「願望文から疑問文への変換」という役割を持たせたものとする。補助置換器Aは、図15のニューラルネットワーク30で構成し、補助置換器Bは、図15のニューラルネットワーク20で構成することができる。
ここで、「荷物を預けたい」というテキスト1を分割して得られる「荷物を預け」という要素1Aと、「ロッカーはどこですか」というテキスト2を分割して得られる「ロッカー」という要素2Aが、学習データ5Aとして補助置換器Aに与えられることで、補助置換器Aは、「行為内容から行為対象への変換」の機能を学習する。また、「車を止めたい」というテキスト3を分割して得られる「車を止め」という要素3Aと、「駐車場はどこですか」というテキスト4を分割して得られる「駐車場」という要素4Aが、学習データ6Aとして補助置換器Aに与えられることで、補助置換器Aは、「行為内容から行為対象への変換」の機能を学習する。
さらに、「荷物を預けたい」というテキスト1を分割して得られる「たい」という要素1Bと、「ロッカーはどこですか」というテキスト2を分割して得られる「どこですか」という要素2Bが、学習データ5Bとして補助置換器Bに与えられることで、補助置換器Bは、「願望文から疑問文への変換」の機能を学習する。
「行為内容から行為対象への変換」の機能を学習した補助置換器Aおよび「願望文から疑問文への変換」の機能を学習した補助置換器Bを生成すると、それらの学習済みの補助置換器A、Bを未学習のニューラルネットワーク40に結合させる。
次に、「荷物を預けたい」というテキスト1と、「ロッカーはどこですか」というテキスト2が、学習データ5としてニューラルネットワーク40に与えられることで、ニューラルネットワーク40は、「入力テキストに応じて、補助置換器A、Bの機能を取捨選択して利用する」という機能を学習する。
次に、「車を止めたい」というテキスト3をニューラルネットワーク40に入力すると、補助置換器Aは、「車を止め」という要素3Aを「駐車場」という要素4Aに変換し、補助置換器Bは、「たい」という要素3Bを「どこですか」という要素4Bに変換する。そして、ニューラルネットワーク40は、「駐車場」という要素4Aと「どこですか」という要素4Bを組み合わせることにより、「車を止めたい」という入力テキストに対し、「駐車場はどこですか」という応答テキストを出力することができる。
ここで、補助置換器A、Bが結合される前のニューラルネットワーク40のEnd−to−End学習では、「荷物を預けたい」というテキスト1と、「ロッカーはどこですか」というテキスト2を学習データ5として与えただけでは、「荷物」、「預ける」、「ロッカー」および「どこですか」というキーワード間の相関の強さを獲得するのみで、手段→目的置換、願望→疑問置換という抽象的な処理を獲得することはない。
これに対して、補助置換器A、Bが結合された後のニューラルネットワーク40のEnd−to−End学習では、手段→目的置換、願望→疑問置換の組み合わせを学習でき、表層的類似度が低く、抽象的な処理を要する言い換えの学習効率を向上させることができる。
なお、上述した実施形態では、ニューラルネットワーク一部を別のニューラルネットワークに置き換えたネスト構造が2段階である場合を示したが、ニューラルネットワークのネスト構造がN(Nは2以上の整数)段階であってもよい。
図17は、第4実施形態に係る学習済みモデルの構成例を示すブロック図である。なお、図17の例では、ニューラルネットワークのネスト構造が3段階である場合を示した。
図17において、この学習済みモデルは、ニューラルネットワーク50、60、70、80、90を備える。ニューラルネットワーク50は、入力層、中間層および出力層を備える。ニューラルネットワーク50の入力層はノード51を備え、ニューラルネットワーク50の中間層はノード52を備え、ニューラルネットワーク50の出力層はノード53を備える。ニューラルネットワーク50の入力層のノード51の出力は、中間層のノード52の入力に結合され、中間層のノード52の出力は、出力層のノード53の入力に結合されている。
ニューラルネットワーク50の中間層には、ニューラルネットワーク60、70が設けられている。ニューラルネットワーク60、70には、互いに異なる役割を持たせることができる。各ニューラルネットワーク60、70の入力は、ニューラルネットワーク50の入力層のノード51の出力に結合されている。各ニューラルネットワーク60、70の出力は、ニューラルネットワーク50の出力層のノード53の入力に結合されている。
ニューラルネットワーク60は、入力層、中間層および出力層を備える。ニューラルネットワーク60の入力層はノード61を備え、ニューラルネットワーク60の中間層はノード62を備え、ニューラルネットワーク60の出力層はノード63を備える。入力層のノード61の出力は、中間層のノード62の入力に結合され、中間層のノード62の出力は、出力層のノード63の入力に結合されている。
ニューラルネットワーク60の中間層には、ニューラルネットワーク80、90が設けられている。ニューラルネットワーク80、90には、互いに異なる役割を持たせることができる。各ニューラルネットワーク80、90の入力は、ニューラルネットワーク60の入力層のノード61の出力に結合されている。各ニューラルネットワーク80、90の出力は、ニューラルネットワーク60の出力層のノード63の入力に結合されている。
ニューラルネットワーク80は、入力層、中間層および出力層を備える。ニューラルネットワーク80の入力層はノード81を備え、ニューラルネットワーク80の中間層はノード82を備え、ニューラルネットワーク80の出力層はノード83を備える。入力層のノード81の出力は、中間層のノード82の入力に結合され、中間層のノード82の出力は、出力層のノード83の入力に結合されている。
ニューラルネットワーク80、90は、学習済みの状態で未学習のニューラルネットワーク60に結合することができる。そして、学習済みのニューラルネットワーク80、90がニューラルネットワーク60に結合された状態で、ニューラルネットワーク60を学習させることができる。さらに、ニューラルネットワーク60、70は、学習済みの状態で未学習のニューラルネットワーク50に結合することができる。そして、学習済みのニューラルネットワーク60、70がニューラルネットワーク50に結合された状態で、ニューラルネットワーク50を学習させることができる。
以上説明したように、上述した実施形態によれば、ニューラルネットワークの一部に学習済みの別のニューラルネットワークを結合させることにより、ニューラルネットワークで実現させる機能の一部を別のニューラルネットワークに持たせることができる。このとき、ニューラルネットワークで実現させる機能の全部を学習させる学習データの収集よりも、ニューラルネットワークで実現させる機能の一部を学習させる学習データの収集を容易化することができ、学習データの収集の困難性を軽減しつつ、ニューラルネットワークで実現される機能の複雑化に対応することが可能となる。
なお、上述したニューラルネットワークは、言い換え生成に用いた場合を示したが、画像処理、文字認識処理、音声認識処理、顔認証処理および自動運転などの言い換え生成以外の処理に用いるようにしてもよい。上述したニューラルネットワークは、AI(artificial intelligence)が適用可能な全ての技術分野に用いることができる。
また、第1ニューラルネットワークの一部のノードに第2ニューラルネットワークを結合させる場合、第1ニューラルネットワークの内部ノードの入力に第2ニューラルネットワークの出力を結合させてもよいし、第1ニューラルネットワークの内部ノードの出力に第2ニューラルネットワークの入力を結合させてもよい。
以上、本発明の実施形態について説明したが、これらの実施形態はあくまでも一例であって、本発明の技術的範囲はこれらに限定されるものではない。例えば、補助置換器およびテキスト生成器は、ニューラルネットワークで実現されなくてもよい。置換情報または生成情報から、教師データへの変換は、Encoder−Decoderネットワークで実現されなくてもよい。
110 プロセッサ、120 メインメモリ、130 補助記憶装置、140 入力デバイス、150 出力デバイス、160 ネットワークデバイス、170 バス、201 ユーザ端末、210 補助置換器DB、211 置換情報DB、212 置換教師データDB、221 置換情報収集部、222 補助置換器教師データ生成部、223 補助置換器生成部、230 テキスト生成器DB、231 生成情報DB、232 生成教師データDB、240 補助置換器テキスト生成器結合部、251 テキスト生成情報収集部、252 テキスト生成器教師データ生成部、253 テキスト生成器生成部、260 テキスト生成器

Claims (15)

  1. テキストを分割して得られる要素のペアを学習させた補助置換器を生成し、
    前記補助置換器の結合後に言い換え前後のテキストを学習させたテキスト生成器を生成し、
    前記テキスト生成器を用いてテキストを生成するテキスト生成方法。
  2. 前記テキストを分割して得られる要素のペアを収集し、
    前記要素のペアに基づいて、前記補助置換器の学習に用いられる置換教師データを生成し、
    前記置換教師データに基づいて、前記補助置換器を生成し、
    前記補助置換器と未学習のテキスト生成器を結合し、
    前記テキスト生成器の学習に用いられる前記言い換え前後のテキストを収集し、
    前記言い換え前後のテキストに基づいて、前記テキスト生成器の学習に用いられる生成教師データを生成し、
    前記生成教師データに基づいて、前記テキストの言い換えを実行可能な前記テキスト生成器を生成する請求項1に記載のテキスト生成方法。
  3. 異なる要素を含むテキスト間において、1つの要素の置換で要素の同じ集合とならないテキスト同士を表層的類似度が低いと定義したときに、
    前記言い換え前後のテキストは、前記表層的類似度が低い請求項1に記載のテキスト生成方法。
  4. 前記テキスト生成器は、前記補助置換器で学習された前記要素のペアの組み合わせを学習する請求項1に記載のテキスト生成方法。
  5. 前記テキスト生成器は、入力層、中間層および出力層を持つニューラルネットワークであり、
    前記補助置換器は、前記ニューラルネットワークの入力層または中間層に設けられている請求項1に記載のテキスト生成方法。
  6. 前記補助置換器は、前記要素のペアが示す役割ごとに生成され、
    前記役割ごとに生成された複数の補助置換器が前記テキスト生成器に結合されている請求項1に記載のテキスト生成方法。
  7. 前記役割は、行為内容から行為対象、願望文から疑問文、対義語、略語、別名、行為内容から行為主体、行為内容から行為結果、上位概念語から下位概念語および比喩のうちのいずれか少なくとも1つから選択される請求項6に記載のテキスト生成方法。
  8. テキストを分割して得られる要素のペアを学習させた補助置換器を生成する補助置換器生成部と、
    前記補助置換器の結合後に言い換え前後のテキストを学習させたテキスト生成器を生成するテキスト生成器生成部とを備えるテキスト生成装置。
  9. 第1ニューラルネットワークと、
    前記第1ニューラルネットワークの一部のノードに結合された第2ニューラルネットワークとを備える学習済みモデル。
  10. 前記第2ニューラルネットワークは、前記第1ニューラルネットワークの入力層に設けられ、
    前記第1ニューラルネットワークは、前記第1ニューラルネットワークの入力層のノードからの出力と、前記第2ニューラルネットワークからの出力が双方とも入力されるノードを備える請求項9に記載の学習済みモデル。
  11. 前記第2ニューラルネットワークは、前記第1ニューラルネットワークの中間層に設けられ、
    前記第1ニューラルネットワークは、前記第1ニューラルネットワークのノードからの出力と、前記第2ニューラルネットワークからの出力が双方とも入力されるノードとを備える請求項9に記載の学習済みモデル。
  12. 前記第2ニューラルネットワークは、前記第1ニューラルネットワークで学習される機能の一部を学習し、
    前記第1ニューラルネットワークは、前記第2ニューラルネットワークで学習された機能の組み合わせを学習している請求項9に記載の学習済みモデル。
  13. 前記第2ニューラルネットワークは、前記第1ニューラルネットワークで学習される機能の一部を役割ごとに学習する請求項11に記載の学習済みモデル。
  14. 異なる要素を含むテキスト間において、1つの要素の置換で要素の同じ集合とならないテキスト同士を表層的類似度が低いと定義したときに、
    前記第2ニューラルネットワークは、前記表層的類似度が低いテキスト間の要素のペアを、前記要素のペアが示す役割ごとに学習し、
    前記第1ニューラルネットワークは、前記第2ニューラルネットワークで学習された前記要素のペアの組み合わせを学習する請求項13に記載の学習済みモデル。
  15. 前記第1ニューラルネットワークの一部のノードに結合された第3ニューラルネットワークをさらに備え、
    前記第2ニューラルネットワークの機能と前記第3ニューラルネットワークの機能とは役割が互いに異なる請求項9に記載の学習済みモデル。

JP2018241388A 2018-12-25 2018-12-25 テキスト生成方法、テキスト生成装置および学習済みモデル Pending JP2020102131A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018241388A JP2020102131A (ja) 2018-12-25 2018-12-25 テキスト生成方法、テキスト生成装置および学習済みモデル
US16/718,272 US20200202079A1 (en) 2018-12-25 2019-12-18 Text generation method, text generation device, and learning-completed model
CN201911343811.0A CN111382251A (zh) 2018-12-25 2019-12-24 文本生成方法、文本生成装置以及已学习模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241388A JP2020102131A (ja) 2018-12-25 2018-12-25 テキスト生成方法、テキスト生成装置および学習済みモデル

Publications (1)

Publication Number Publication Date
JP2020102131A true JP2020102131A (ja) 2020-07-02

Family

ID=71097698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241388A Pending JP2020102131A (ja) 2018-12-25 2018-12-25 テキスト生成方法、テキスト生成装置および学習済みモデル

Country Status (3)

Country Link
US (1) US20200202079A1 (ja)
JP (1) JP2020102131A (ja)
CN (1) CN111382251A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3780341B2 (ja) * 2002-11-21 2006-05-31 独立行政法人情報通信研究機構 言語解析処理システムおよび文変換処理システム
CN103092829B (zh) * 2011-10-27 2015-11-25 北京百度网讯科技有限公司 一种复述资源获取方法及系统
WO2017061027A1 (ja) * 2015-10-09 2017-04-13 三菱電機株式会社 言語モデル生成装置、言語モデル生成方法とそのプログラム、音声認識装置、および音声認識方法とそのプログラム
CN106354852A (zh) * 2016-09-02 2017-01-25 北京百度网讯科技有限公司 基于人工智能的搜索方法及装置

Also Published As

Publication number Publication date
CN111382251A (zh) 2020-07-07
US20200202079A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
Chisholm et al. Entity disambiguation with web links
Kaliappan et al. Sentiment Analysis of News Headlines Based on Sentiment Lexicon and Deep Learning
Jing et al. Multiplex graph neural network for extractive text summarization
JP2021197133A (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
JP2017068845A (ja) 情報ソースの情報ソース用言語を選択するためのコンピュータ実装方法、コンピュータ・システム、コンピュータ・プログラム製品
Wadhawan et al. Towards emotion recognition in Hindi-English code-mixed data: A transformer based approach
Yang et al. Deep learning and its applications to natural language processing
Youssef et al. MoArLex: an Arabic sentiment lexicon built through automatic lexicon expansion
CN111046158A (zh) 问答匹配方法及模型训练方法、装置、设备、存储介质
Ahmad et al. A survey of searching and information extraction on a classical text using ontology-based semantics modeling: A case of Quran
Kann et al. The SIGMORPHON 2020 shared task on unsupervised morphological paradigm completion
Baker et al. Exploring crosslinguistic frame alignment
Maity et al. A multitask multimodal framework for sentiment and emotion-aided cyberbullying detection
Afonso et al. Automated text clustering of newspaper and scientific texts in brazilian portuguese: analysis and comparison of methods
Palagin et al. Distributional semantic modeling: A revised technique to train term/word vector space models applying the ontology-related approach
JP6552353B2 (ja) 情報提供装置、情報提供方法および情報提供プログラム
JP2020102131A (ja) テキスト生成方法、テキスト生成装置および学習済みモデル
Thanos The future of digital scholarship
US20230061773A1 (en) Automated systems and methods for generating technical questions from technical documents
O’Donoghue et al. Towards Dr inventor: a tool for promoting scientific creativity
Lapesa et al. Analysis of political debates through newspaper reports: methods and outcomes
Lamb et al. Developing embedding models for Scottish Gaelic
Banerjee et al. DBLPLink: An Entity Linker for the DBLP Scholarly Knowledge Graph
Couto Rating, recognizing and rewarding metadata integration and sharing on the semantic web.
Tardy et al. Semantic enrichment of places with VGI sources: a knowledge based approach