JP6964481B2 - 学習装置、プログラムおよび学習方法 - Google Patents

学習装置、プログラムおよび学習方法 Download PDF

Info

Publication number
JP6964481B2
JP6964481B2 JP2017202995A JP2017202995A JP6964481B2 JP 6964481 B2 JP6964481 B2 JP 6964481B2 JP 2017202995 A JP2017202995 A JP 2017202995A JP 2017202995 A JP2017202995 A JP 2017202995A JP 6964481 B2 JP6964481 B2 JP 6964481B2
Authority
JP
Japan
Prior art keywords
word
sentence
encoder
learning
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017202995A
Other languages
English (en)
Other versions
JP2019079087A (ja
Inventor
祐 宮崎
隼人 小林
晃平 菅原
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017202995A priority Critical patent/JP6964481B2/ja
Publication of JP2019079087A publication Critical patent/JP2019079087A/ja
Application granted granted Critical
Publication of JP6964481B2 publication Critical patent/JP6964481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、学習装置、プログラムおよび学習方法に関する。
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、入力されたテキストに含まれる単語、文章、文脈を多次元ベクトルに変換して解析し、解析結果に基づいて、入力されたテキストと類似するテキストや、入力されたテキストに続くテキストを類推し、類推結果を出力する自然言語処理の技術が知られている。
特開2006−127077号公報
"Learning Phrase Representations using RNN Encoder−Decoder for Statistical Machine Translation",Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio, arXiv:1406.1078v3 [cs.CL] 3 Sep 2014 "Neural Responding Machine for Short-Text Conversation" Lifeng Shang, Zhengdong Lu, Hang Li <インターネット> https://arxiv.org/pdf/1503.02364.pdf "Unsupervised Learning of Visual Structure using Predictive Generative Networks" William Lotter, Gabriel Kreiman, David Cox <インターネット>https://arxiv.org/abs/1511.06380
しかしながら、上記の従来技術では、適切な構造の文章の類推を行うことが難しい。
例えば、上述の従来技術では、入力された単語やテキストと類似する単語やテキスト等を出力しているに過ぎない。このため、例えば、出力対象となる複数の単語が存在する場合に、単語同士の係り受けといった属性系列を考慮して、適切な構造を有する自然な文章を出力することができない。
本願は、上記に鑑みてなされたものであって、適切な構造の文章の類推を行うことを目的とする。
本願に係る学習装置は、所定の文章に含まれる単語群を抽出する抽出部と、前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器の出力に対して、前記複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、前記適用器によってアテンション行列が適用された前記符号化器の出力から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習部とを有することを特徴とする。
実施形態の一態様によれば、適切な構造の文章を類推結果として出力することができる。
図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。 図2は、実施形態に係る学習装置の構成例を示す図である。 図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係る属性抽出層の模式的な構造の一例を示す図である。 図5は、実施形態に係る処理の流れの一例を説明するフローチャートである。 図6は、ハードウェア構成の一例を示す図である。
以下に、本願に係る学習装置、プログラムおよび学習方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、プログラムおよび学習方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
より具体的には、学習装置10は、インターネット等の所定のネットワークN(例えば、図2参照)を介して、任意の利用者が使用する情報処理装置100、200と通信可能である。例えば、学習装置10は、情報処理装置100、200との間で、複数の単語(以下、「単語群」と記載する場合がある。)を含む文章の送受信を行う。
なお、情報処理装置100、200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現されるものとする。
〔1−1.情報処理装置が学習するモデルの概要について〕
ここで、学習装置10は、入力された文章に対応する応答を出力する。例えば、学習装置10は、w2v(word2vec)やs2v(sentence2vec)等、単語や文章をベクトル(多次元量)に変換し、変換後のベクトルを用いて入力された文章に対応する応答を出力する。より具体的な例を挙げると、学習装置10は、利用者の発言に含まれる単語群から、異なる分野の単語群であって、利用者の発言に含まれる単語群と同様の概念構造を有する単語群を特定する。このような単語群を文章化して出力した場合には、利用者の発言と概念構造が類似する文章であって、利用者の発言とは異なる分野に属する概念の文章を出力することができるので、利用者のセレンディピティを生じさせることができると考えられる。
しかしながら、文章には、単語群が有する概念以外にも、単語群を接続する係り受け等の各種属性の概念(以下、「属性系列」と記載する。)が含まれるため、このような単語群から適切な構造を有する自然な文章を生成するのは難しい。そこで、学習装置10は、以下の学習処理と測定処理とを実行する。
例えば、学習装置10は、文章に含まれる単語群の特徴と、各単語が文章中に出現する順序の特徴とともに、各単語の属性をニューラルネットワーク等のモデルに学習させる。より具体的には、学習装置10は、情報処理装置200から受信する正解データを用いて、以下の学習処理を実行する。まず、学習装置10は、所定の文章に含まれる単語群を抽出する。そして、学習装置10は、単語群に含まれる各単語が文章中に出現する順序とともにその単語群が有する特徴を学習するエンコーダ(符号化器)と、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに特徴から復元するデコーダ(復元器)とを学習する。ここで、属性系列は、例えば、代名詞が何を指すかの照応関係や2つの別の名詞が同じ概念を指しているかの共参照関係などの係り受けを示す係り受け情報である。
より具体的には、学習装置10は、正解データとして受信した文章から単語群を抽出する。そして、学習装置10は、抽出した単語群に含まれる各単語を、文章に出現する順序でエンコーダに入力した際に、エンコーダが出力した特徴から、各単語の属性と各単語とを属性系列とともに、正解データとして受信した文章に出現する順序でデコーダが復元するように、モデル全体の学習を行う。このような学習は、例えば、バックプロパゲーション等の任意の学習手法が採用可能である。
ここで、単語の属性とは、単語の品詞や単語の原型、所定の分類処理により単語を分類した際のクラスタリングの結果等、表面的には表れない単語の性質を示す情報である。すなわち、学習装置10は、単語群が文章中に出現する順序や属性系列といった表面的な言語情報の特徴(すなわち、意味構造の特徴)のみならず、文章中に現れない単語の性質(すなわち、言語構造の特徴)をも学習する。
このような学習を行ったモデルに、情報処理装置100から受信した単語群を入力した場合は、単語群に含まれる各単語の属性が考慮された状態で、各単語が文章中に出現する順序で、属性系列とともに復元される。すなわち、モデルは、情報処理装置100から受信した単語群を含むであろう文章を、各単語の属性を考慮して復元する。この結果、学習装置10は、単語群に含まれる各単語の属性を考慮した上で、自然な文章を生成することができる。
〔1−2.エンコーダが出力する情報について〕
ここで、エンコーダが、それぞれ異なる種別の属性を抽出する複数の中間層を有する場合、単語群が有する特徴をより精度良く抽出することができるとも考えられる。しかしながら、上述したモデルにおけるエンコーダがRNN(Recurrent Neural Networks)やLSTM(Long short-term memory)と呼ばれる構造を有するニューラルネットワークにより実現される場合、単語が入力される度に値をデコーダに引き渡す構造が考えられる。すなわち、エンコーダは、入力された単語が有する複数の属性を丸めた単一の値をデコーダに引き渡すこととなる。この結果、文章の特徴を適切に学習することができない恐れがある。
そこで、学習装置10は、以下の学習処理を実行する。まず、学習装置10は、所定の文章に含まれる単語群を抽出する。そして、学習装置10は、単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、所定の文章を符号化する符号化器と、符号化器の出力に対して、複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、適用器によってアテンション行列が適用された符号化器の出力から、単語群に含まれる各単語と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元する復元器とを学習する。
例えば、学習装置10は、単語群に含まれる各単語が入力される入力層と、入力層の出力に基づいて各単語が有する属性を示す情報を出力する複数の中間層とを有するエンコーダの学習を行う。また、学習装置10は、入力層に対して複数の単語を順次入力した際における中間層に含まれるノードの状態の変化に基づいた複数の列成分を有するアテンション行列を適用する適用器を学習する。また、学習装置10は、適用器によってアテンション行列が適用された符号化器の出力から、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元する復元器を学習する。
すなわち、学習装置10は、エンコーダの出力に対し、エンコーダが単語から抽出する複数の属性に基づいたアテンション行列を適用し、エンコーダの出力を値としてではなく行列としてデコーダに引き渡す。そして、情報提供装置10は、アテンション行列を適用したエンコーダの出力から、元の文章を復元するようにデコーダの学習を行わせる。このようにして適用されるアテンション行列は、単語群に含まれる単語を順次エンコーダに入力した際の、中間層におけるノードの状態遷移の特徴を示す。換言すると、アテンション行列は、文章に含まれる単語群を先頭から順に入力した際に、文章の先頭から入力済みの単語までの部分が有するコンテキストを示す。
このようなアテンション行列をエンコーダの出力、すなわち、エンコーダが各単語から順次抽出した特徴を示す情報に適用することで、学習装置10は、中間層において消失される情報(例えば、単語が有する特徴の周辺情報の特徴)を、エンコーダの出力に適用することができる。そして、学習装置10は、デコーダにエンコーダが抽出した特徴と、アテンション行列が示す特徴とを示す行列から元の文章を復元させる。この結果、学習装置10は、モデルに対し、文章が有する特徴を適切に学習させることができる。
なお、学習装置10は、エンコーダとして、単語群に含まれる各単語を入力する単語復元レイヤと、各単語の属性を入力する複数のレイヤを含む属性抽出層とを有し、単語復元レイヤおよび属性抽出層の出力から、出力する特徴を生成するエンコーダの学習を行ってもよい。また、学習装置10は、DPCN(Deep Predictive Coding Networks)の構造を有するニューラルネットワークをエンコーダとしてもよく、エンコーダが有する各レイヤごとに、DPCNの構造を有するニューラルネットワークを採用してもよい。
また、学習装置10は、エンコーダとして、RNNの構造を有するニューラルネットワークを採用する場合、新たに入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成するノードを含む複数の中間層を有するエンコーダを学習することとなる。このように、学習装置10は、複数のレイヤを有する属性抽出層を備えたエンコーダを学習するのであれば、任意の形式のエンコーダを学習してよい。
〔1−3.デコーダの構成について〕
ここで、学習装置10は、アテンション行列が適用されたエンコーダの出力から、各単語の重要度に基づいて、単語群に含まれる各単語と各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに特徴から復元するデコーダであれば、任意の構成を有するデコーダの学習をおこなってよい。例えば、学習装置10は、適用器が出力した特徴から、各単語の属性を復元する属性復元レイヤと、属性復元レイヤの出力から、各単語を文章中に出現する順序で復元する単語復元レイヤとを有するデコーダを学習する。より具体的には、学習装置10は、エンコーダが出力した特徴に対してアテンション行列を適用した特徴行列の入力を受付けると、特徴行列から各単語の属性を各単語が文章中に出現する順序で復元する属性復元レイヤと、特徴行列と属性復元レイヤが復元した属性とに基づいて、文章中に出現する順序で各単語を復元する単語復元レイヤとを有するデコーダを学習する。
例えば、学習装置10は、属性復元レイヤとして、単語群に含まれる各単語の属性と各単語が文章中に出現する順序とに基づく各単語の所定の文章における重要度に基づいて、各単語が文章中に出現する順序を復元するレイヤを有するデコーダの学習を行う。すなわち、学習装置10は、前回の出力と新たな入力とに基づいて、次の単語の属性を重要性に基づいて推定し、推定した属性から次の単語を導出するデコーダーを生成する。このようなデコーダは、例えば、特徴から単語群に含まれる各単語の属性を復元するニューラルネットワークであって、入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成する機能を有するニューラルネットワークにより実現される。このようなニューラルネットワークは、例えば、RNNやLSTMと呼ばれる構造を有するニューラルネットワークにより実現される。なお、学習装置10は、全体としてLSTMの構成を有するデコーダを学習する必要はなく、少なくとも、属性を復元する属性復元レイヤがLSTMの構成を有していればよい。
さらに、学習装置10は、情報の畳み込みを行うニューラルネットワーク、すなわち、CNN(Convolutional Neural Network)を用いて、新たに出力する情報を生成してもよい。例えば、学習装置10は、属性復元レイヤとして、LSTMの機能のみならず、CNNの機能を有するニューラルネットワークを用いてもよい。このようなニューラルネットワークは、例えば、DPCN(Deep Predictive Coding Networks)と呼ばれるニューラルネットワークにより実現可能である(例えば、非特許文献3参照)。また、言語の畳み込みについては、単語群に含まれる各単語を同じ次元数のベクトルに変換し、変換後の各ベクトルの畳み込みを行う技術により実現可能である。なお、学習装置10は、少なくとも、属性を復元する属性復元レイヤにおいてDPCNの構造を有するデコーダを学習すればよい。
以下、より具体的なデコーダの構成例について説明する。例えば、モデルのエンコーダおよびデコーダは、ノードの状態を順次遷移させることで、単語群の符号化および復号化を実現する。例えば、エンコーダは、単語を文章中に出現する順(以下、「出現順」と記載する。)でノードに入力することで、単語群の特徴や各単語が文章中に出現する順序とともに、文章中における各単語の重要度を符号化した特徴を生成する。そして、学習装置10は、エンコーダが出力する特徴に対してアテンション行列を適用した特徴行列をデコーダのノードに入力し、ノードの状態を順次遷移させることで、符号化された単語を、文章中に出現する順序で属性系列とともに復元させ、単語群の特徴や属性、出現順序に基づく重要度をデコーダに学習させる。
例えば、デコーダは、入力層側から出力層側に向けて、状態レイヤ、属性復元レイヤ、および単語復元レイヤを有する。このようなデコーダは、エンコーダの出力を受付けると、状態レイヤが有する1つ又は複数のノードの状態を状態h1へと遷移させる。そして、デコーダは、属性復元レイヤにて、状態レイヤのノードの状態h1から最初の単語の属性z1を復元するとともに、単語復元レイヤにて、状態h1と属性z1とから最初の単語y1を属性系列とともに復元し、単語y1と状態h1から状態レイヤのノードの状態を状態h2へと遷移させる。なお、デコーダは、状態レイヤにLSTMやDPCNの機能を持たせることで、出力した属性z1を考慮して状態レイヤのノードの状態を状態h2へと遷移させてもよい。続いて、デコーダは、属性復元レイヤにて、前回復元した属性z1と状態レイヤのノードの現在の状態h2から、2番目の単語の属性z2を復元し、属性z2と前回復元した単語y1とから、2番目の単語y2を属性系列とともに復元する。
すなわち、デコーダは、状態h2を前の状態h1と前回復元した単語y1と前回復元した属性z1とから生成し、属性z2を前の属性z1と状態h2と前回復元した単語y1とから生成し、単語y2を前回復元した単語y1と属性z2と状態h2とから生成する。なお、デコーダは、前回復元した属性z1を考慮せずに、前回の状態h1と前回復元した単語y1とから状態h2を生成してもよい。また、デコーダは、前回復元した単語y1を考慮せずに、前回復元した属性z1と状態h2とから属性z2を生成してもよい。
このようなデコーダにおいて、属性復元レイヤにDPCN等といった再帰型ニューラルネットワークの機能を持たせた状態で、エンコーダに入力された文章を復元するようにデコーダの学習を行った場合、属性復元レイヤは、文章中における単語の出現順序の特徴を学習することとなる。この結果、デコーダは、前回復元した単語の属性に基づいて、次に復元する単語の属性の予測を行うこととなる。すなわち、デコーダは、文章中における単語の属性の順序を予測することとなる。このようなデコーダは、測定時において単語群が入力された場合に、各単語の属性と予測される出現順序とに応じた単語の重要度を考慮して、文章に含まれる単語と属性系列とを復元することとなる。すなわち、デコーダは、測定時において、単語群に含まれる各単語の重要度に基づいて、文章化の対象となる単語群の属性と、予測される各単語の出現順序とを復元することとなるので、各単語の重要度に応じた文章化を実現することができる。
なお、学習装置10は、それぞれ異なる種別の属性を復元する複数の属性復元レイヤを有するエンコーダの学習を行ってもよい。すなわち、学習装置10は、特徴から単語群に含まれる各単語の属性であって、それぞれ異なる属性を復元する複数の属性復元レイヤと、複数の属性復元レイヤの出力から単語群に含まれる各単語を文章に出現する順序で復元する単語復元レイヤとを有するデコーダの学習を行ってもよい。なお、学習装置10は、任意の数の属性復元レイヤを有するデコーダの学習を行ってもよい。
例えば、学習装置10は、エンコーダが出力した特徴から、単語群に含まれる各単語の品詞を、各単語が文章中に出現する順序で復元する第1の属性復元レイヤと、エンコーダが出力した特徴から、単語群に含まれる各単語のクラスタリング結果を、各単語が文章中に出現する順序で復元する第2の属性復元レイヤとを有するデコーダの学習を行ってもよい。なお、このようなデコーダの単語復元レイヤは、第1の属性復元レイヤが復元した属性と、第2の属性復元レイヤが復元した属性と、エンコーダが出力した特徴とから、各単語を文章に含まれる順序で属性系列とともに復元することとなる。なお、このような各属性復元レイヤは、それぞれ異なるDPCNにより構成されてもよい。
〔1−4.トピックレイヤについて〕
また、学習装置10は、いわゆるトピックモデルを用いて、単語群から文章の生成を行ってもよい。例えば、学習装置10は、適用器が生成した特徴行列から、所定の文章が示すトピックを復元するトピックレイヤを有するモデルを生成する。そして、学習装置10は、トピックレイヤの出力から、単語群に含まれる各単語と、各単語の属性と、各単語が所定の文章中に出現する順序とを属性系列とともに復元するデコーダを学習してもよい。
ここで、トピックモデルとは、ある文章が生成される過程を確率的に表現したモデルである。例えば、トピックモデルでは、文章に含まれる各単語が属する分野、すなわち文章毎のトピックの比率と、トピックの分布とから、文章を確率的に生成する。例えば、トピックモデルでは、文章に含まれる各単語の集合をθ、文章ごとのトピックの比率をP(z|θ)、トピックの分布をP(w|z)とすると、以下の式(1)で表される過程により文章を確率的に生成する。なおnは、トピックの分布の種別を示す添え字である。
Figure 0006964481
トピックレイヤは、このようなトピックモデルに基づいて、エンコーダが出力した特徴から、文章全体のトピックを示す情報、すなわち、文章のコンテキストを示すコンテキスト情報を抽出する。そして、トピックレイヤは、抽出したコンテキスト情報をデコーダに入力する。このような処理の結果、デコーダは、文章全体のコンテキストを考慮して、エンコーダが出力した特徴から各単語や各単語の属性を復元するので、より自然な文章を生成することができる。
なお、トピックレイヤは、文章が出現する位置(例えば、見出しや本文等)や、文章が出現する時間(例えば、文章が投稿されやすい日時)等、文章のコンテキストであれば任意のコンテキストを抽出してよい。
〔1−5.測定処理について〕
なお、学習装置10は、上述した学習処理により学習が行われたモデルを用いて、学習装置10から受信した単語群から文章を生成する測定処理を実行する。例えば、学習装置10は、学習装置10から単語群を受信すると、受信した単語群を順にモデルのエンコーダに入力し、デコーダが属性系列とともに復元した単語群、すなわち、文章を学習装置10へと出力する。
〔1−6.学習装置10が実行する処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理および測定処理の一例について説明する。まず、学習装置10は、正解データとなる文章を情報処理装置200から取得する(ステップS1)。なお、正解データとなる文章は、例えば、論文や特許公報、ブログ、マイクロブログ、インターネット上のニュース記事等、任意の文章が採用可能である。
このような場合、学習装置10は、複数の属性抽出レイヤを有するエンコーダと、単語を順に入力した際の属性抽出レイヤにおけるノードの状態遷移の特徴を示すアテンション行列をエンコーダの出力に適用する適用器と、適用器の出力から元の文章を復元するデコーダとを学習する(ステップS2)。例えば、図1に示す例では、学習装置10は、エンコーダENとなるモデルと、適用器CGとなるモデルと、デコーダDCとなるモデルとを有するモデルL10を生成する。
より詳細には、学習装置10は、単語の入力を受付ける入力層L11、入力層L11からの出力に基づいて単語の属性を抽出する属性抽出層L12、および属性抽出層L12の出力に基づいて、文章の特徴を出力する出力層とを有するエンコーダENを生成する。ここで、属性抽出層L12は、それぞれ異なる属性を示す値を出力する複数の層を有するものとする。
また、学習装置10は、単語が入力される度にエンコーダENが生成した値、すなわち、特徴を示す値に対して、属性抽出層L12における各ノードの状態に基づいたアテンション行列を適用する適用器CGを生成する。より具体的には、学習装置10は、エンコーダENとしてRNNを採用する場合、ある単語を入力した際における属性抽出層L12に含まれる各ノードの状態を列成分とし、単語群に含まれる各単語を順次入力した際における各ノードの状態の変化を行成分としたアテンション行列を生成し、生成したアテンション行列をエンコーダENの出力に対して適用する適用器CGを生成する。すなわち、学習装置10は、各ノードの状態を列成分とした行列であって、単語を入力する度に変化する各ノードの状態を行方向に並べた行列をアテンション行列とする。
また、学習装置10は、RNNであるデコーダDCであって、状態レイヤL20、属性復元レイヤL21、および単語復元レイヤL22を有するデコーダDCを生成する。そして、学習装置10は、文章に含まれる各単語を順次エンコーダENに入力した際に、適用器CGがエンコーダENにアテンション行列AMを適用した特徴行列Cを出力し、デコーダDCが、特徴行列Cから元の文章を属性系列と共に復元するように、モデルL10の学習を行う。
例えば、学習装置10は、正解データとして取得した文章C10から、単語群C11を抽出する。そして、学習装置10は、単語群C11に含まれる各単語と、各単語の属性と、各単語が出現する順序との特徴をモデルL10に学習させる。より具体的には、学習装置10は、単語群C11をエンコーダENに入力した際に、デコーダDCが出力する文章C20が文章C10と同じになるように、モデルL10の学習を行う。
例えば、図1に示す例では、学習装置10は、単語群の各単語x1〜x3を、各単語x1〜x3が文章C10中に出現する順序で、エンコーダENのノードに入力する。この結果、エンコーダENは、各単語x1〜x3と各単語x1〜x3が文章C10に出現する順序との特徴Cを出力する。
また、適用器CGは、特徴Cに対し、属性抽出層L12に含まれる各ノードの状態に基づくアテンション行列AMを生成し、生成したアテンション行列AMを特徴Cと積算することで、特徴行列Cを生成する。そして、適用器CGは、生成した特徴行列CをデコーダDCに入力する。
このような場合、デコーダDCは、特徴行列Cから単語y1〜y3を復元する。例えば、デコーダDCの状態レイヤL20に含まれるノードは、特徴行列Cに基づいて状態h1へと遷移する。このような場合、属性復元レイヤL21は、状態レイヤL20の状態h1から、単語群C11のうち、文章C10中に最初に出現する単語の属性z1を復元する。そして、単語復元レイヤL22は、状態レイヤL20の状態h1と属性復元レイヤL21が復元した属性z1とに基づいて、単語群C11のうち文章C10に最初に出現する単語y1を復元する。
続いて、状態レイヤL20は、前回の状態h1と、復元された単語y1と、属性復元レイヤL21が前回復元した属性z1とに基づいて、状態h2へと遷移する。このような場合、属性復元レイヤL21は、状態レイヤL20の状態h2と、属性復元レイヤL21が前回復元した属性z1と、単語復元レイヤL22が前回復元した単語y1とに基づいて、単語群C11のうち、単語y1の次に出現する単語の属性z2を復元する。そして、単語復元レイヤL22は、状態レイヤL20の状態h2と属性復元レイヤL21が復元した属性z2と前回復元した単語y1とに基づいて、単語群C11のうち単語y1の次に出現する単語y2を復元する。
続いて、状態レイヤL20は、前回の状態h2と、復元された単語y2と、属性復元レイヤL21が前回復元した属性z2とに基づいて、状態h3へと遷移する。このような場合、属性復元レイヤL21は、状態レイヤL20の状態h3と、属性復元レイヤL21が前回復元した属性z2と、単語復元レイヤL22が前回復元した単語y2とに基づいて、単語群C11のうち、単語y2の次に出現する単語の属性z3を復元する。そして、単語復元レイヤL22は、状態レイヤL20の状態h3と属性復元レイヤL21が復元した属性z3と前回復元した単語y2とに基づいて、単語群C11のうち単語y2の次に出現する単語y3を復元する。
ここで、学習装置10は、文章C10と文章C20とが同じになるように、モデルL10の各種パラメータを調整する。例えば、学習装置10は、文章C10に含まれる各単語x1〜x3と、モデルが出力した各単語y1〜y3とが同一となるように、エンコーダENやデコーダDCが有するノード間の接続係数を調整するとともに、適用器CGがエンコーダENの属性抽出層L12からアテンション行列AMを生成する際のパラメータを調整する。例えば、学習装置10は、ノードの状態がどのような状態である際に、アテンション行列AMの対応する要素の値をどのような値にするかを示すパラメータ(例えば、係数等)の修正を行う。
また、学習装置10は、各単語x1〜x3の属性系列と、各単語y1〜y3の属性系列とが同一となるように、モデルL10のパラメータを調整する。また、学習装置10は、各単語x1〜x3の属性と、復元された属性z1〜z3とが同一となるように、モデルL10のパラメータを調整する。この結果、学習装置10は、単語x1〜x3が有する特徴、単語x1〜x3が出現する順序、および単語x1〜x3が有する属性の特徴をモデルL10に学習させることができる。
ここで、モデルL10は、属性を復元する際に、エンコーダENが出力する単純な値ではなく、エンコーダENが有する属性抽出層L12のノードの状態に基づいたアテンション行列AMに基づいて、元の文章を復元する。すなわち、モデルL10は、文章C10のうち、エンコーダENに入力した単語までの範囲が有するトピックを示すアテンション行列AMと、エンコーダENに入力した単語群の特徴とに基づいて、文章C10のうち、入力された単語までの文章を復元する。このため、学習装置10は、モデルL10に単語の属性と出現順序とに基づく重要性を学習させることができる。
続いて、学習装置10は、情報処理装置100から文章化する単語群C31を取得する(ステップS3)。このような場合、学習装置10は、学習したモデルL10に単語群を入力することで、単語群に含まれる各単語を含む文章C30を生成する測定処理を実行する(ステップS4)。そして、学習装置10は、生成した文章C30を情報処理装置100へと出力する(ステップS5)。この結果、学習装置10は、単語群C31を含む自然な文章C30を得ることができる。
〔1−7.アテンション行列の生成について〕
ここで、学習装置10は、属性抽出層L12に含まれるノードのうち、複数のノードの状態に基づいて、アテンション行列の列成分を設定するのであれば、任意の手法によりアテンション行列の列成分を設定して良い。例えば、学習装置10は、ある単語を入力した際における属性抽出層L12の各ノードの出力をそのままアテンション行列の列成分として採用してもよい。
また、学習装置10は、属性抽出層L12に対して所定の大きさの窓を設定し、属性抽出層L12に含まれるノードのうち、窓に含まれるノードの出力に基づいてアテンション行列を構成する小行列を設定してもよい。また、学習装置10は、このような窓を適宜移動させることで、複数の小行列を生成し、生成した複数の小行列からアテンション行列のを設定してもよい。すなわち、学習装置10は、入力層に対して所定の単語を入力した際における複数の中間層に含まれる各ノードの状態を列方向に配置し、入力装置に対して複数の単語を順次入力した際における各ノードの状態の変化を行方向に配置した行列から生成される複数の小行列に基づいたアテンション行列を適用する適用器を学習してもよい。
また、学習装置10は、任意の手法により、アテンション行列をエンコーダの出力に適用して良い。例えば、学習装置10は、単純にエンコーダの出力にアテンション行列を積算した行列を特徴行列として採用してもよい。また、学習装置10は、アテンション行列に基づいた行列をエンコーダの出力に適用してもよい。
例えば、アテンション行列の固有値や固有ベクトルは、アテンション行列が有する特徴、すなわち、単語群が有する特徴を示すとも考えられる。そこで、学習装置10は、エンコーダの出力に対して、アテンション行列の固有値や固有ベクトルを適用してもよい。例えば、学習装置10は、アテンション行列の固有値とエンコーダの出力との積をデコーダに入力してもよく、アテンション行列の固有ベクトルとエンコーダの出力との積をデコーダに入力してもよい。また、学習装置10は、アテンション行列の特異値をエンコーダの出力に適用し、デコーダに入力してもよい。
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、情報処理装置100、200との間で情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、正解データデータベース31およびモデルデータベース32を記憶する。
正解データデータベース31には、正解データとなる文章が登録されている。例えば、図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。図3に示す例では、正解データデータベース31には、「文章ID(Identifier)」、「文章データ」、「第1単語」、「第2単語」等といった項目を有する情報が登録される。
ここで、「文章ID(Identifier)」は、正解データとなる文章を識別するための情報である。また、「文章データ」とは、文章のテキストデータである。また、「第1単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に最初に出現する単語であり、「第2単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に2番目に出現する単語である。なお、正解データデータベース31には、「第1単語」や「第2単語」以外にも、文章に含まれる単語が順に登録されているものとする。
例えば、図3に示す例では、文章ID「ID#1」、文章データ「文章データ#1」、第1単語「単語#1−1」、および第2単語「単語#1−2」が対応付けて登録されている。このような情報は、文章ID「ID#1」が示す文章が文章データ「文章データ#1」であり、かかる文章中に第1単語「単語#1−1」および第2単語「単語#1−2」が順に含まれている旨を示す。
なお、図3に示す例では、「文章データ#1」、「単語#1−1」、「単語#1−2」等といった概念的な値について記載したが、実際には文章のテキストデータや単語のテキストデータが登録されることとなる。
図2に戻り、説明を続ける。モデルデータベース32には、学習対象となるエンコーダENおよびデコーダDCを含むモデルL10のデータが登録される。例えば、モデルデータベース32には、モデルL10として用いられるニューラルネットワークにおけるノード同士の接続関係、各ノードに用いられる関数、各ノード間で値を伝達する際の重みである接続係数等が登録される。
なお、モデルL10は、単語群に関する情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、各単語の属性と出現順序とに応じた重要度に基づいて、属性系列と単語群とを復元し、復元した属性系列と単語群とを出力層から出力するよう、コンピュータを機能させるためのモデルである。
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
また、制御部40は、記憶部30に記憶されるモデルL10に従った情報処理により、モデルL10の入力層に入力された単語群に関する情報に対し、モデルL10が有する係数(すなわち、モデルL10が学習した特徴に対応する係数)に基づく演算を行い、モデルL10の出力層から、各単語の属性と出現順序とに応じた重要度に基づいて、属性系列と単語群とを順に復元し、復元した属性系列と単語群とを出力層から出力する。
図2に示すように、制御部40は、抽出部41、学習部42、受付部43、生成部44、および出力部45を有する。なお、抽出部41および学習部42は、上述した学習処理を実行し、受付部43〜出力部45は、上述した測定処理を実行する。
抽出部41は、所定の文章に含まれる単語群を抽出する。例えば、抽出部41は、情報処理装置200から正解データとして文章を受信すると、形態素解析等により、文章に含まれる単語群を抽出する。そして、抽出部41は、受信した文章と、文章に含まれる単語群とを正解データデータベース31に登録する。より具体的には、抽出部41は、単語群に含まれる各単語を、文章中に出現する順に、正解データデータベース31に登録する。
学習部42は、単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、所定の文章を符号化するエンコーダと、エンコーダの出力に対して、複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、適用器によってアテンション行列が適用されたエンコーダの出力から、単語群に含まれる各単語と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元するデコーダとを学習する。
例えば、学習部42は、単語群に含まれる各単語が入力される入力層と、入力層の出力に基づいて各単語が有する属性を示す情報を出力する複数の中間層、すなわち、属性抽出層とを有するエンコーダの学習を行う。また、学習部42は、適用器によってアテンション行列が適用されたエンコーダの出力から、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元するデコーダを学習する。また、学習部42は、入力層に対して複数の単語を順次入力した際における中間層に含まれるノードの状態の変化に基づいた複数の列成分を有するアテンション行列を適用する適用器の学習を行う。
例えば、学習部42は、RNNにより構成されるエンコーダとデコーダとを生成する。この際、学習部42は、単語から属性を抽出する複数の属性抽出層を有するエンコーダを生成する。また、学習部42は、エンコーダが有する属性抽出装置の各ノードの状態に基づいて、アテンション行列を生成し、生成したアテンション行列をエンコーダの出力に適用する適用器を生成する。そして、学習部42は、エンコーダにある文章の単語群を順に入力した際に、適用器によりアテンション行列が適用されたエンコーダの出力から、元の文章を属性系列とともにデコーダが復元するように、エンコーダ、デコーダ、および適用器の学習を行う。
ここで、学習部42は、属性抽出層に含まれるノードのうち一部のノードを用いてアテンション行列の小行列を生成し、生成した小行列からアテンション行列を生成するように適用器の学習を行ってもよい。すなわち、学習部42は、入力層に対して所定の単語を入力した際における複数の中間層に含まれる各ノードの状態を列方向に配置し、入力装置に対して複数の単語を順次入力した際における各ノードの状態の変化を行方向に配置した行列から生成される複数の小行列に基づいたアテンション行列を適用する適用器を学習してもよい。また、学習部42は、エンコーダの出力に対して、アテンション行列の固有値、固有ベクトル、若しくは特異値を適用する適用器を学習してもよい。
また、学習部42は、新たに入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成するノードを含む属性抽出層を有するエンコーダを学習してもよい。例えば、学習部42は、属性抽出層として、DPCNの構造を有するレイヤを含むエンコーダの学習を行う。
例えば、図4は、実施形態に係る属性抽出層の模式的な構造の一例を示す図である。図4に示すように、DPCNにおいては、新たな入力値と前回の出力値との畳み込みにより新たな値を出力する畳み込みLSTMの機能を有する部分モデルE1、畳み込みニューラルネットワークの機能を有する部分モデルA1、畳み込みニューラルネットワークの機能と値の保持機能とを有する部分モデルA2、および、所定の活性化関数に基づいて部分モデルA1の出力と部分モデルA2の出力との差に応じた値を出力する部分モデルE2とにより構成される。
例えば、時刻tにおいて、部分モデルE1は、時刻t−1において部分モデルE2が出力した値Et-1 と、時刻t−1において部分モデルE1が出力した値Rt-1 とに基づいて、新たな値R を出力する。また、部分モデルA1は、時刻tにおいて部分モデルE1が出力した値R に基づいて、新たな値A’ を出力する。部分モデルA2は、状態レイヤL20から出力された値xを入力として受付けると、受付けた値xに基づく値A を出力する。部分モデルE2は、部分モデルA1が出力した値A’ と部分モデルA2が出力した値A とに基づいて、新たな値E を出力する。このような処理を繰り返すことで、属性復元レイヤL21は、状態レイヤL20が出力する値から単語群の属性を示す値を順次出力することとなる。
なお、時刻tにおいて部分モデルA2が出力する値値A は、以下の式(2)で表すことができる。また、時刻tにおいて部分モデルA1が出力する値A’ は、以下の式(3)で表すことができる。また、時刻tにおいて部分モデルE2が出力する値E は、以下の式(4)で表すことができる。また、時刻tにおいて部分モデルE1が出力する値R は、以下の式(5)で表すことができる。ここで、式(2)、式(3)中におけるCONVとは、所定の畳み込み処理を示し、式(2)、式(3)、式(4)に示すRELUは、所定の活性化関数を示す。また、式(5)におけるCONVLSTMは、所定の畳み込みLSTMの処理を示す。なお、式(3)においては、カンマをハットで示した。
Figure 0006964481
Figure 0006964481
Figure 0006964481
Figure 0006964481
なお、図4に示すDPCNの構造はあくまで一例であり、これに限定されるものではない。例えば、非特許文献3に開示される構造を有するDPCNは、図4に示すDPCNと同様の機能を発揮することができ、学習装置10は、非特許文献3に開示される構造のDPCNを属性抽出層の各ノードとして採用してもよい。
ここで、エンコーダの属性抽出層が有するノードの時刻tにおける出力は、例えば、式(6)中の関数fとして示されるロジスティック関数により表すことができる。ここで、式(6)における添え字のtは、単語群のうちどの単語までが入力されたかという時系列を示す。また、式(6)中のyt−1は、エンコーダの出力層のノードの前回の出力を示し、st−1は、属性抽出層のノードの前回の出力を示し、cは、新たな入力層の出力を示す。
Figure 0006964481
ここで、以下の式(7)のαtjで示される重みパラメータを導入する。ここで、式(7)中のhは、エンコーダの出力を示す。
Figure 0006964481
このような重みパラメータによる行列をアテンション行列とした場合、適用器が出力する特徴行列は、以下の式(8)で示される行列により表すことができる。
Figure 0006964481
図2に戻り、説明を続ける。受付部43は、情報処理装置100から文章化する単語群を受付ける。このような場合、受付部43は、受付けた単語群を生成部44に出力する。
生成部44は、上述した学習処理により学習が行われたモデルL10を用いて、受付部43が受け付けた単語群から文章を生成する。例えば、生成部44は、モデルL10に受付部43が受け付けた単語群を順に入力する。そして、生成部44は、モデルL10が属性系列とともに復元した単語群から文章を生成する。
出力部45は、情報処理装置100から受信した単語群を用いた文章を出力する。例えば、出力部45は、生成部44が生成した文章を情報処理装置100へと送信する。
〔3.学習装置が実行する処理の流れの一例〕
次に、図5を用いて、学習装置10が実行する処理の流れの一例について説明する。図5は、実施形態に係る処理の流れの一例を説明するフローチャートである。まず、学習装置10は、正解データとなる文章を取得すると(ステップS101)、取得した文章から単語群を抽出する(ステップS102)。そして、学習装置10は、単語から複数の属性を抽出するエンコーダと、単語を順に入力した際の属性に基づいた複数の列を有するアテンション行列をエンコーダの出力に適用する適用器と、適用器の出力から元の文章を復元するデコーダとを学習する(ステップS103)。
また、学習装置10は、文章化する単語群を受けつけると、単語群を学習済みのモデルに入力する(ステップS104)。このような場合、学習装置10は、モデルが属性系列とともに出力した単語、すなわち、文章を出力し(ステップS105)、処理を終了する。
〔4.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
〔4−1.DPCNについて〕
また、学習装置10は、全体で一つのDPCNにより構成されるエンコーダENやデコーダDCを有するモデルL10の学習を行ってもよい。また、学習装置10は、状態レイヤL20、属性復元レイヤL21、単語復元レイヤL22がそれぞれDPCNにより構成されるデコーダDCを有するモデルL10の学習を行ってもよい。
〔4−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。例えば、学習装置10が上述した学習処理によって生成したエンコーダおよびデコーダを有するモデルL10を含むプログラムパラメータを用いることで、学習装置10以外の情報処理装置が、上述した測定処理を実現してもよい。また、学習装置10は、正解データデータベース31を外部のストレージサーバに記憶させてもよい。
〔4−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔5.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムまたはデータ(例えば、モデル)を実行することにより、制御部40の機能を実現する。コンピュータ1000の演算装置1030は、これらのプログラムまたはデータ(例えば、モデル)を一次記憶装置1040から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
〔6.効果〕
上述したように、学習装置10は、所定の文章に含まれる単語群を抽出する。そして、学習装置10は、単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、所定の文章を符号化する符号化器と、符号化器の出力に対して、複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、適用器によってアテンション行列が適用された符号化器の出力から、単語群に含まれる各単語と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元する復元器とを学習する。
また、学習装置10は、単語群に含まれる各単語が入力される入力層と、入力層の出力に基づいて各単語が有する属性を示す情報を出力する複数の中間層とを有する符号化器を学習する。また、学習装置10は、適用器によってアテンション行列が適用された符号化器の出力から、単語群に含まれる各単語と、各単語の属性と、各単語が前記文章中に出現する順序とを文章中における各単語の属性系列とともに復元する復元器を学習する。また、学習装置10は、入力層に対して複数の単語を順次入力した際における中間層に含まれるノードの状態の変化に基づいた複数の列成分を有するアテンション行列を適用する適用器を学習する。
また、学習装置10は、入力層に対して所定の単語を入力した際における複数の中間層に含まれる各ノードの状態を列方向に配置し、入力装置に対して複数の単語を順次入力した際における各ノードの状態の変化を行方向に配置した行列から生成される複数の小行列に基づいたアテンション行列を適用する適用器を学習する。また、学習装置10は、新たに入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成するノードを含む複数の中間層を有する符号化器を学習する。例えば、学習装置10は、DPCNの構造を有する複数の中間層を有する符号化器を学習する。また、学習装置10は、符号化器の出力に対して、アテンション行列の固有値、固有ベクトル、若しくは特異値を適用する適用器を学習する。
このような処理の結果、学習装置10は、符号化の際に損失する属性の特徴を考慮して、単語群から属性系列を含む文章を生成するモデルL10を学習することができるので、適切なテキストを類推し、適切な構造を有する自然な文章を作成することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。
20 通信部
30 記憶部
31 正解データデータベース
32 モデルデータベース
40 制御部
41 抽出部
42 学習部
43 受付部
44 生成部
45 出力部
100、200 情報処理装置

Claims (10)

  1. 所定の文章に含まれる単語群を抽出する抽出部と、
    前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器が単語から抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を生成し、前記符号化器の出力に対して、前記アテンション行列を積算した行列を生成する適用器と、前記適用器によって生成された行列から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習部と
    を有することを特徴とする学習装置。
  2. 前記学習部は、前記適用器によってアテンション行列が適用された前記符号化器の出力から、前記単語群に含まれる各単語と、当該各単語の属性と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器を学習する
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、前記単語群に含まれる各単語が入力される入力層と、前記入力層の出力に基づいて各単語が有する属性を示す情報を出力する複数の中間層とを有する符号化器を学習する
    ことを特徴とする請求項1または2に記載の学習装置。
  4. 前記学習部は、前記入力層に対して複数の単語を順次入力した際における前記中間層に含まれるノードの状態の変化に基づいた複数の列成分を有するアテンション行列を適用する適用器
    を学習することを特徴とする請求項に記載の学習装置。
  5. 前記学習部は、前記入力層に対して所定の単語を入力した際における前記複数の中間層に含まれる各ノードの状態を列方向に配置し、前記入力に対して複数の単語を順次入力した際における各ノードの状態の変化を行方向に配置した行列から生成される複数の小行列に基づいたアテンション行列を適用する適用器を学習する
    ことを特徴とする請求項3または4に記載の学習装置。
  6. 前記学習部は、新たに入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成するノードを含む複数の中間層を有する符号化器を学習する
    ことを特徴とする請求項〜5のうちいずれか1つに記載の学習装置。
  7. 前記学習部は、DPCN(Deep Predictive Coding Networks)の構造を有する複数の中間層を有する符号化器を学習する
    ことを特徴とする請求項6に記載の学習装置。
  8. 前記学習部は、前記符号化器の出力に対して、前記アテンション行列の固有値、固有ベクトル、若しくは特異値を適用する適用器を学習する
    ことを特徴とする請求項1〜7のうちいずれか1つに記載の学習装置。
  9. 所定の文章に含まれる単語群を抽出する抽出工程と、
    前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器が単語から抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を生成し、前記符号化器の出力に対して、前記アテンション行列を積算した行列を生成する適用器と、前記適用器によって生成された行列から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習工程と
    を含むことを特徴とする学習方法で生成される符号化器と適用器と復元器とからなるリカレントニューラルネットワークとしてコンピュータを動作させるためのプログラ
  10. 学習装置が実行する学習方法であって、
    所定の文章に含まれる単語群を抽出する抽出工程と、
    前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器が単語から抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を生成し、前記符号化器の出力に対して、前記アテンション行列を積算した行列を生成する適用器と、前記適用器によって生成された行列から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習工程と
    を含むことを特徴とする学習方法。
JP2017202995A 2017-10-19 2017-10-19 学習装置、プログラムおよび学習方法 Active JP6964481B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202995A JP6964481B2 (ja) 2017-10-19 2017-10-19 学習装置、プログラムおよび学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202995A JP6964481B2 (ja) 2017-10-19 2017-10-19 学習装置、プログラムおよび学習方法

Publications (2)

Publication Number Publication Date
JP2019079087A JP2019079087A (ja) 2019-05-23
JP6964481B2 true JP6964481B2 (ja) 2021-11-10

Family

ID=66626592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202995A Active JP6964481B2 (ja) 2017-10-19 2017-10-19 学習装置、プログラムおよび学習方法

Country Status (1)

Country Link
JP (1) JP6964481B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7170594B2 (ja) * 2019-06-25 2022-11-14 Kddi株式会社 同一事象に対して時系列に発生した異なるメディアデータを統合した学習モデルを構築するプログラム、装置及び方法
JP7344053B2 (ja) * 2019-09-02 2023-09-13 株式会社 ディー・エヌ・エー 所定のゲームを提供するためのシステム、方法、及びプログラム、並びに、デッキの分類を作成するための方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10268671B2 (en) * 2015-12-31 2019-04-23 Google Llc Generating parse trees of text segments using neural networks

Also Published As

Publication number Publication date
JP2019079087A (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
US11521110B2 (en) Learning apparatus, learning method, and non-transitory computer readable storage medium
GB2573189A (en) Generating a topic-based summary of textual content
CN106649434B (zh) 一种跨领域知识迁移的标签嵌入方法和装置
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
CN109582956B (zh) 应用于句子嵌入的文本表示方法和装置
CN109740167B (zh) 用于生成信息的方法和装置
CN115244587A (zh) 高效基础事实注释
JP6975610B2 (ja) 学習装置および学習方法
JP6964481B2 (ja) 学習装置、プログラムおよび学習方法
JP7058556B2 (ja) 判定装置、判定方法、および判定プログラム
US11531927B2 (en) Categorical data transformation and clustering for machine learning using natural language processing
CN112861514A (zh) 分割语法和语义的注意力增强的全相关变分自编码器
JP6467893B2 (ja) 情報処理システム、情報処理方法、及び、プログラム
JP6400038B2 (ja) 抽出装置および抽出方法
JP6775366B2 (ja) 選択装置、および選択方法
JP6391617B2 (ja) 学習装置、文章自動生成装置および学習方法
JP6680655B2 (ja) 学習装置および学習方法
JP2019021218A (ja) 学習装置、プログラムパラメータ、学習方法およびモデル
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
JP2018028866A (ja) 説明文生成方法、説明文生成モデル学習方法、及びプログラム
JP6910873B2 (ja) 特定装置および特定方法
JP7017478B2 (ja) 出力装置、出力方法および出力プログラム
JP6526607B2 (ja) 学習装置、学習方法、および学習プログラム
CN114519353A (zh) 模型的训练方法、情感消息生成方法和装置、设备、介质
JP6963988B2 (ja) 提供装置、提供方法および提供プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6964481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350