JP2018045656A - 学習装置、プログラムパラメータおよび学習方法 - Google Patents

学習装置、プログラムパラメータおよび学習方法 Download PDF

Info

Publication number
JP2018045656A
JP2018045656A JP2016182361A JP2016182361A JP2018045656A JP 2018045656 A JP2018045656 A JP 2018045656A JP 2016182361 A JP2016182361 A JP 2016182361A JP 2016182361 A JP2016182361 A JP 2016182361A JP 2018045656 A JP2018045656 A JP 2018045656A
Authority
JP
Japan
Prior art keywords
word
sentence
attribute
learning
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016182361A
Other languages
English (en)
Other versions
JP6680655B2 (ja
Inventor
祐 宮崎
Yu Miyazaki
祐 宮崎
隼人 小林
Hayato Kobayashi
隼人 小林
香里 谷尾
Kaori Tanio
香里 谷尾
晃平 菅原
Kohei Sugawara
晃平 菅原
正樹 野口
Masaki Noguchi
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016182361A priority Critical patent/JP6680655B2/ja
Publication of JP2018045656A publication Critical patent/JP2018045656A/ja
Application granted granted Critical
Publication of JP6680655B2 publication Critical patent/JP6680655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】適切な構造の文章を類推結果として出力する。【解決手段】本願に係る推定装置は、所定の文章に含まれる単語群を抽出する抽出部と、前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語と、当該各単語の属性と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに前記特徴から復元する復元器とを学習する学習部とを有することを特徴とする。【選択図】図1

Description

本発明は、学習装置、プログラムパラメータおよび学習方法に関する。
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、入力されたテキストに含まれる単語、文章、文脈を多次元ベクトルに変換して解析し、解析結果に基づいて、入力されたテキストと類似するテキストや、入力されたテキストに続くテキストを類推し、類推結果を出力する自然言語処理の技術が知られている。
特開2006−127077号公報
"Learning Phrase Representations using RNN Encoder−Decoder for Statistical Machine Translation",Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio, arXiv:1406.1078v3 [cs.CL] 3 Sep 2014
"トピックモデルによる統計的潜在意味解析(自然言語処理シリーズ)" 佐藤一誠(著)、奥村学(監修)、コロナ社 ISBN-10:4339027588
しかしながら、上記の従来技術では、適切な構造の文章を類推結果として出力することが難しい。
例えば、上述の従来技術では、入力された単語やテキストと類似する単語やテキスト等を出力しているに過ぎない。このため、例えば、出力対象となる複数の単語が存在する場合に、単語同士の係り受けといった属性系列を考慮して、適切な構造を有する自然な文章を出力することができない。
本願は、上記に鑑みてなされたものであって、適切な構造の文章を類推結果として出力することを目的とする。
本願に係る推定装置は、所定の文章に含まれる単語群を抽出する抽出部と、前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語と、当該各単語の属性と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに前記特徴から復元する復元器とを学習する学習部とを有することを特徴とする。
実施形態の一態様によれば、適切な構造の文章を類推結果として出力することができる。
図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。 図2は、実施形態に係る学習装置の構成例を示す図である。 図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係る学習装置が学習するデコーダのバリエーションを説明するための図である。 図5は、実施形態に係る学習装置が学習するエンコーダのバリエーションを示す図である。 図6は、実施形態に係る処理の流れの一例を説明するフローチャートである。 図7は、ハードウェア構成の一例を示す図である。
以下に、本願に係る学習装置、プログラムパラメータおよび学習方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、プログラムパラメータおよび学習方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
より具体的には、学習装置10は、インターネット等の所定のネットワークN(例えば、図2参照)を介して、任意の利用者が使用する情報処理装置100、200と通信可能である。例えば、学習装置10は、情報処理装置100、200との間で、複数の単語(以下、「単語群」と記載する場合がある。)を含む文章の送受信を行う。
なお、情報処理装置100、200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現されるものとする。
〔1−2.学習処理について〕
ここで、情報処理装置100は、利用者の発言に対する応答を出力する。例えば、情報処理装置100は、W2V(word2vec)等の技術を用いて、利用者の発言に含まれる単語群から、異なる分野の単語群であって、利用者の発言に含まれる単語群と同様の概念構造を有する単語群を特定する。このような単語群を文章化して出力した場合には、利用者の発言と概念構造が類似する文章であって、利用者の発言とは異なる分野に属する概念の文章を出力することができるので、利用者のセレンディピティを生じさせることができると考えられる。
しかしながら、文章には、単語群が有する概念以外にも、単語群を接続する係り受け等の各種属性の概念(以下、「属性系列」と記載する。)が含まれるため、このような単語群から適切な構造を有する自然な文章を生成するのは難しい。そこで、学習装置10は、以下の学習処理と測定処理とを実行する。
例えば、学習装置10は、文章に含まれる単語群の特徴と、各単語が文章中に出現する順序の特徴とともに、各単語の属性をリカレントニューラルネットワーク(以下「RNN(Recurrent Neural Network)と記載する。)に学習させる。より具体的には、学習装置10は、情報処理装置200から受信する正解データを用いて、以下の学習処理を実行する。まず、学習装置10は、所定の文章に含まれる単語群を抽出する。そして、学習装置10は、単語群に含まれる各単語が文章中に出現する順序とともにその単語群が有する特徴を学習するエンコーダ(符号化器)と、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに特徴から復元するデコーダ(復元器)とを学習する。ここで、属性系列は、例えば、係り受けを示す係り受け情報である。
より具体的には、学習装置10は、正解データとして受信した文章から単語群を抽出する。そして、学習装置10は、抽出した単語群に含まれる各単語を、文章に出現する順序でエンコーダに入力した際に、エンコーダが出力した特徴から、各単語の属性と各単語とを属性系列とともに、正解データとして受信した文章に出現する順序でデコーダが復元するように、RNN全体の学習を行う。このような学習は、例えば、バックプロパゲーション等の任意の学習手法が採用可能である。
ここで、単語の属性とは、単語の品詞や単語の原型、所定の分類処理により単語を分類した際のクラスタリングの結果等、表面的には表れない単語の性質を示す情報である。すなわち、学習装置10は、単語群が文章中に出現する順序や属性系列といった表面的な言語情報の特徴(すなわち、意味構造の特徴)のみならず、文章中に現れない単語の性質(すなわち、言語構造の特徴)をも学習する。
このような学習を行ったRNNに、情報処理装置100から受信した単語群を入力した場合は、単語群に含まれる各単語の属性が考慮された状態で、各単語が文章中に出現する順序で、属性系列とともに復元される。すなわち、RNNは、情報処理装置100から受信した単語群を含むであろう文章を、各単語の属性を考慮して復元する。この結果、学習装置10は、単語群に含まれる各単語の属性を考慮した上で、自然な文章を生成することができる。
〔1−3.デコーダの構成について〕
ここで、学習装置10は、エンコーダが出力した特徴から、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とを復元するデコーダであれば、任意の構成を有するデコーダの学習をおこなってよい。例えば、学習装置10は、エンコーダが出力した特徴から、各単語の属性を復元する属性レイヤと、属性レイヤの出力から、各単語を文章中に出現する順序で復元する単語レイヤとを有するデコーダを学習してもよい。より具体的には、学習装置10は、エンコーダが出力した特徴から各単語の属性を各単語が文章中に出現する順序で復元する属性レイヤと、エンコーダが出力した特徴と属性レイヤが復元した属性とに基づいて、文章中に出現する順序で各単語を復元する単語レイヤとを有するデコーダの学習を行ってもよい。
以下、より具体的なデコーダの構成例について説明する。例えば、RNNのエンコーダおよびデコーダは、1つのノードを有し、ノードの状態を順次遷移させることで、単語群の符号化および復号化を実現する。例えば、エンコーダは、単語を文章中に出現する順(以下、「出現順」と記載する。)でノードに入力することで、単語群の特徴や各単語が文章中に出現する順序を符号化する。そして、デコーダは、エンコーダが符号化した特徴をノードに入力し、ノードの状態を順次遷移させることで、符号化された単語を、文章中に出現する順序で復元する。
より具体的には、デコーダは、エンコーダの出力を受付けると、ノードの状態を状態h1へと遷移させる。そして、デコーダは、状態h1から最初の単語の属性z1を復元するとともに、状態h1と属性z1とから最初の単語y1を属性系列と共に復元し、単語y1と状態h1からノードの状態を状態h2へと遷移させる。ここで、デコーダは、属性z1を考慮してノードの状態を状態h2へと遷移させてもよい。続いて、デコーダは、前回復元した属性z2と現在の状態h2から、2番目の単語の属性z2を復元し、属性z2と前回復元した単語y1とから、2番目の単語y2を属性系列と共に復元する。
すなわち、デコーダは、状態h2を前の状態h1と前回復元した単語y1と前回復元した属性z1とから生成し、属性z2を前の属性z1と状態h2と前回復元した単語y1とから生成し、単語y2を前回復元した単語y1と属性z2と状態h2とから生成する。なお、デコーダは、前回復元した属性z1を考慮せずに、前回の状態h1と前回復元した単語y1とから状態h2を生成してもよい。また、デコーダは、前回復元した単語y1を考慮せずに、前回復元した属性z1と状態h2とから属性z2を生成してもよい。
また、学習装置10は、それぞれ異なる種別の属性を復元する複数の属性レイヤを有するエンコーダの学習を行ってもよい。すなわち、学習装置10は、特徴から単語群に含まれる各単語の属性であって、それぞれ異なる属性を復元する複数の属性レイヤと、複数の属性レイヤの出力から単語群に含まれる各単語を文章に出現する順序で復元する単語レイヤとを有するデコーダの学習を行ってもよい。なお、学習装置10は、任意の数の属性レイヤを有するデコーダの学習を行ってもよい。
例えば、学習装置10は、エンコーダが出力した特徴から、単語群に含まれる各単語の品詞を、各単語が文章中に出現する順序で復元する第1の属性レイヤと、エンコーダが出力した特徴から、単語群に含まれる各単語のクラスタリング結果を、各単語が文章中に出現する順序で復元する第2の属性レイヤとを有するデコーダの学習を行ってもよい。なお、このようなデコーダの単語レイヤは、第1の属性レイヤが復元した属性と、第2の属性レイヤが復元した属性と、エンコーダが出力した特徴とから、各単語を文章に含まれる順序で属性系列とともに復元することとなる。
〔1−4.エンコーダの構成について〕
ここで、学習装置10は、必須ではないものの、単語群に含まれる各単語の特徴と、各単語が文章中に出現する順序とを、各単語の属性と共に符号化するエンコーダの学習を行ってもよい。すなわち、学習装置10は、単語群に含まれる各単語の特徴と、各単語が文章中に出現する順序とを、各単語の属性とともにエンコーダに学習させてもよい。
例えば、学習装置10は、単語群に含まれる各単語を入力するレイヤと、各単語の属性を入力するレイヤとを含むエンコーダを学習する。より具体的には、学習装置10は、正解データとして取得した所定の文章に含まれる単語群と、単語群に含まれる各単語の属性とを抽出する。そして、学習装置10は、エンコーダとして、単語群に含まれる各単語を入力する単語レイヤと、各単語の属性を入力する属性レイヤとを有し、単語レイヤおよび属性レイヤの出力から、出力する特徴を生成するエンコーダの学習を行ってもよい。
〔1−5.トピックレイヤについて〕
また、学習装置10は、いわゆるトピックモデル(例えば、非特許文献2を参照)を用いて、単語群から文章の生成を行ってもよい。例えば、学習装置10は、エンコーダが出力した特徴から、所定の文章が示すトピックを復元するトピックレイヤを有するRNNを生成する。そして、学習装置10は、トピックレイヤの出力から、単語群に含まれる各単語と、各単語の属性と、各単語が所定の文章中に出現する順序とを属性系列とともに復元するデコーダを学習してもよい。
ここで、トピックモデルとは、ある文章が生成される過程を確率的に表現したモデルである。例えば、トピックモデルでは、文章に含まれる各単語が属する分野、すなわち文章毎のトピックの比率と、トピックの分布とから、文章を確率的に生成する。例えば、トピックモデルでは、文章に含まれる各単語の集合をθ、文章ごとのトピックの比率をP(z|θ)、トピックの分布をP(w|z)とすると、以下の式(1)で表される過程により文章を確率的に生成する。なおnは、トピックの分布の種別を示す添え字である。
Figure 2018045656
トピックレイヤは、このようなトピックモデルに基づいて、エンコーダが出力した特徴から、文章全体のトピックを示す情報、すなわち、文章のコンテキストを示すコンテキスト情報を抽出する。そして、トピックレイヤは、抽出したコンテキスト情報をデコーダに入力する。このような処理の結果、デコーダは、文章全体のコンテキストを考慮して、エンコーダが出力した特徴から各単語や各単語の属性を復元するので、より自然な文章を生成することができる。
なお、トピックレイヤは、文章が出現する位置(例えば、見出しや本文等)や、文章が出現する時間(例えば、文章が投稿されやすい日時)等、文章のコンテキストであれば任意のコンテキストを抽出してよい。
〔1−6.測定処理について〕
なお、学習装置10は、上述した学習処理により学習が行われたRNNを用いて、情報処理装置100から受信した単語群から文章を生成する測定処理を実行する。例えば、学習装置10は、情報処理装置100から単語群を受信すると、受信した単語群を順にRNNのエンコーダに入力し、デコーダが属性系列とともに復元した単語群、すなわち、文章を情報処理装置100へと出力する。
〔1−7.学習装置10が実行する処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理および測定処理の一例について説明する。まず、学習装置10は、正解データとなる文章を情報処理装置200から取得する(ステップS1)。なお、正解データとなる文章は、例えば、論文や特許公報、ブログ、マイクロブログ、インターネット上のニュース記事等、任意の文章が採用可能である。
このような場合、学習装置10は、エンコーダが出力する文章の特徴から、単語群の各単語と、各単語の属性と、各単語が文章中に出現する順序とを係り受け、すなわち属性系列とともに復元するデコーダの学習を行う学習処理を実行する(ステップS2)。例えば、図1に示す例では、学習装置10は、エンコーダL11と、デコーダL12と、トピックレイヤL13と、を有するRNNL10を生成する。また、学習装置10は、属性レイヤL14、および単語レイヤL15を有するデコーダL12を生成する。
また、学習装置10は、正解データとして取得した文章C10から、単語群C11を抽出する。そして、学習装置10は、単語群C11に含まれる各単語と、各単語の属性と、各単語が出現する順序との特徴をRNNL10に学習させる。より具体的には、学習装置10は、単語群C11をエンコーダL11に入力した際に、デコーダL12が出力する文章C20が文章C10と同じになるように、RNNL10の学習を行う。
例えば、図1に示す例では、学習装置10は、単語群の各単語x1〜x3を、各単語x1〜x3が文章C10中に出現する順序で、エンコーダL11のノードに入力する。この結果、エンコーダL11は、各単語x1〜x3と各単語x1〜x3が文章C10に出現する順序との特徴Cを出力する。そして、学習装置10は、特徴C10をデコーダL12とトピックレイヤC13とに入力する。
このような場合、デコーダL12は、特徴とトピックレイヤL13の出力とから単語y1〜y3を復元する。より具体的には、トピックレイヤL13は、特徴Cから文章C10のトピックを示す情報を出力する。そして、デコーダL12は、特徴CとトピックレイヤL13の出力とから、状態h1を生成し、状態h1から、各単語y1〜y3の属性と各単語y1〜y3の属性系列とともに、各単語y1〜y3を、各単語y1〜y3が文章C20中に出現する順序で復元する。例えば、デコーダL12の属性レイヤL14は、特徴CやトピックレイヤL13の出力から、各単語y1〜y3の属性z1〜z3を復元する。そして、デコーダL12の単語レイヤL15は、状態h1と、属性z1〜z3とから、単語y1〜y3を文章C20に出現する順序で属性系列と共に復元する。
そして、学習装置10は、文章C10と文章C20とが同じになるように、RNNの各種パラメータを調整する。例えば、学習装置10は、文章C10に含まれる各単語x1〜x3と、RNNが出力した各単語y1〜y3とが同一となるように、RNNのパラメータを調整する。また、学習装置10は、各単語x1〜x3の属性系列と、各単語y1〜y3の属性系列とが同一となるように、RNNのパラメータを調整する。また、学習装置10は、各単語x1〜x3の属性と、復元された属性z1〜z3とが同一となるように、RNNのパラメータを調整する。この結果、学習装置10は、単語x1〜x3が有する特徴、単語x1〜x3が出現する順序、および単語x1〜x3が有する属性の特徴をRNNL10に学習させることができる。
続いて、学習装置10は、情報処理装置100から文章化する単語群C31を取得する(ステップS3)。このような場合、学習装置10は、学習したRNNL10に単語群を入力することで、単語群に含まれる各単語を含む文章C30を生成する測定処理を実行する(ステップS4)。そして、学習装置10は、生成した文章C30を情報処理装置100へと出力する(ステップS5)。この結果、情報処理装置100は、単語群C31を含む自然な文章C30を得ることができる。
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、情報処理装置100、200との間で情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、正解データデータベース31を記憶する。なお、記憶部30は、例えば、学習するRNNのノードと伝達係数との関係性を示す情報等をさらに記憶しているものとする。
正解データデータベース31には、正解データとなる文章が登録されている。例えば、図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。図3に示す例では、正解データデータベース31には、「文章ID(Identifier)」、「文章データ」、「第1単語」、「第2単語」等といった項目を有する情報が登録される。
ここで、「文章ID(Identifier)」は、正解データとなる文章を識別するための情報である。また、「文章データ」とは、文章のテキストデータである。また、「第1単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に最初に出現する単語であり、「第2単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に2番目に出現する単語である。なお、正解データデータベース31には、「第1単語」や「第2単語」以外にも、文章に含まれる単語が順に登録されているものとする。
例えば、図3に示す例では、文章ID「ID#1」、文章データ「文章データ#1」、第1単語「単語#1−1」、および第2単語「単語#1−2」が対応付けて登録されている。このような情報は、文章ID「ID#1」が示す文章が文章データ「文章データ#1」であり、かかる文章中に第1単語「単語#1−1」および第2単語「単語#1−2」が順に含まれている旨を示す。
なお、図3に示す例では、「文章データ#1」、「単語#1−1」、「単語#1−2」等といった概念的な値について記載したが、実際には文章のテキストデータや単語のテキストデータが登録されることとなる。
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図2に示すように、制御部40は、抽出部41、学習部42、受付部43、生成部44、および出力部45を有する。なお、抽出部41および学習部42は、上述した学習処理を実行し、受付部43〜出力部45は、上述した測定処理を実行する。
抽出部41は、所定の文章に含まれる単語群を抽出する。例えば、抽出部41は、情報処理装置200から正解データとして文章を受信すると、形態素解析等により、文章に含まれる単語群を抽出する。そして、抽出部41は、受信した文章と、文章に含まれる単語群とを正解データデータベース31に登録する。より具体的には、抽出部41は、単語群に含まれる各単語を、文章中に出現する順に、正解データデータベース31に登録する。
学習部42は、単語群に含まれる各単語が文章中に出現する順序とともに単語群が有する特徴を学習するエンコーダと、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに特徴から復元するデコーダとの学習を行う。
例えば、学習部42は、エンコーダL11とデコーダL12とを有するRNNL10を生成する。続いて、学習部42は、正解データデータベース31に登録された文章と、その文章に含まれる単語群とを抽出する。そして、学習部42は、抽出した単語群を、文章中に出現する順序でRNNL10のエンコーダL11に入力した際に、エンコーダL11が出力した特徴から、エンコーダL11に入力した単語群と、各単語の属性とを、抽出した文章中に各単語が出現する順で、抽出した文章に含まれる属性系列とともに復元するように、エンコーダL11およびデコーダL12の調整を行う。すなわち、学習部42は、RNNL10に入力した文章と出力した文章とが同じになるように、RNNL10の調整を行う。
ここで、学習部42は、デコーダとして、特徴から単語群に含まれる各単語の属性を復元する属性レイヤと、属性レイヤの出力から単語群に含まれる各単語を復元する単語レイヤとを有するデコーダの学習を行う。例えば、学習部42は、状態h1から最初に出現する単語の属性z1を復元する属性レイヤL14と、状態h1および属性z1から最初に出現する単語y1を復元する単語レイヤL15とを有するデコーダL12の学習を行う。
なお、学習部42は、特徴から単語群に含まれる各単語の属性であって、それぞれ異なる属性を復元する複数の属性レイヤと、複数の属性レイヤの出力から単語群に含まれる各単語を復元する単語レイヤとを有するデコーダを学習してもよい。例えば、図4は、実施形態に係る学習装置が学習するデコーダのバリエーションを説明するための図である。例えば、図4に示す例では、デコーダL12は、第1属性レイヤL16と、第2属性レイヤL17と、単語レイヤL15とを有する。
ここで、第1属性レイヤL16と第2属性レイヤL17とは、それぞれ異なる属性を復元する。例えば、第1属性レイヤL16は、単語の品詞を復元し、第2属性レイヤL17は、単語の原型を復元する。そして、単語レイヤL15は、第1属性レイヤL16と第2属性レイヤL17との出力から、単語を復元する。
より詳細には、デコーダL12は、エンコーダL11が出力した特徴Cと、トピックレイヤL13の出力とに基づいて、状態h1を生成する。このような場合、第1属性レイヤL16は、状態h1から属性z1を復元する。また、第2属性レイヤL17は、状態h1から属性u1を復元する。そして、単語レイヤL15は、状態h1と、属性z1と、属性u1とから、単語y1を生成する。
ここで、図4では矢印を省略したが、デコーダL12は、状態h1と、属性z1と、属性u1と、単語y1とから状態h2を生成する。そして、第1属性レイヤL16は、属性z1と状態h2とから属性z2を復元する。なお、第1属性レイヤL16は、単語y1をさらに考慮して属性z2を復元してもよい。また、第2属性レイヤL17は、属性u1と状態h2とから属性u2を復元する。なお、第2属性レイヤL17は、単語y1をさらに考慮して属性u2を復元してもよい。そして、単語レイヤL15は、状態h2と、属性z2と、属性u2と、単語y1とから、単語y2を生成する。
また、学習部42は、特徴から所定の文章が示すトピックを復元するトピックレイヤの出力から、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元するデコーダを学習してもよい。すなわち、学習部42は、トピックレイヤL13が文章C10のトピックを復元するように、RNNL10の調整を行ってもよい。
また、学習部42は、エンコーダとして、単語群に含まれる各単語を入力する単語レイヤと、各単語の属性を入力する属性レイヤとを有し、単語レイヤおよび属性レイヤの出力から特徴を生成するエンコーダを学習してもよい。例えば、図5は、実施形態に係る学習装置が学習するエンコーダのバリエーションを示す図である。
例えば、学習部42は、単語群に含まれる各単語x1〜x3を出現順に受け付ける単語レイヤL18と、単語群の属性a1〜a3を、各単語の出現順に受け付ける属性レイヤL19とを有するエンコーダL11を生成する。このようなエンコーダL11においては、属性a1が入力された属性レイヤL19のノードが状態c1となり、状態c1と単語x1とから単語レイヤL18のノードが状態d1となる。また、属性レイヤL19のノードは、状態c1および状態d1と属性a2とから状態c2となり、単語レイヤL18のノードが状態c2と状態d1と単語x2とから状態d2となる。また、属性レイヤL19のノードは、状態c2および状態d2と属性a3とから状態c3となり、単語レイヤL18のノードが状態c3と状態d2と単語x3とから状態d3となる。そして、エンコーダL11は、状態d3に基づく特徴Cを出力する。
なお、図5に示すエンコーダL11の構成は、必ずしも必須ではない。すなわち、エンコーダL11側には、単語群の属性を学習させずとも、デコーダL12側に単語群の属性から各単語の属性を復元させるように学習を行った場合には、デコーダL12のみならず、エンコーダL11にも、単語群の属性を学習させることができると考えられる。この結果、エンコーダL11は、単語群の属性を入力する属性レイヤL19を有さずとも、単語群の属性を考慮した特徴の抽出、すなわち符号化を行うことができる。
図2にもどり、説明を続ける。受付部43は、情報処理装置100から文章化する単語群を受付ける。このような場合、受付部43は、受付けた単語群を生成部44に出力する。
生成部44は、上述した学習処理により学習が行われたRNNL10を用いて、受付部43が受け付けた単語群から文章を生成する。例えば、生成部44は、RNNL10に受付部43が受け付けた単語群を順に入力する。そして、生成部44は、RNNL10が属性系列と共に復元した単語群から文章を生成する。
出力部45は、情報処理装置100から受信した単語群を用いた文章を出力する。例えば、出力部45は、生成部44が生成した文章を情報処理装置100へと送信する。
〔3.学習装置が実行する処理の流れの一例〕
次に、図6を用いて、学習装置10が実行する処理の流れの一例について説明する。図6は、実施形態に係る処理の流れの一例を説明するフローチャートである。まず、学習装置10は、正解データとなる文章を取得すると(ステップS101)、取得した文章から単語群を抽出する(ステップS102)。そして、学習装置10は、単語群の各単語をエンコーダに入力した際に、デコーダがエンコーダの出力から各単語と、単語の属性と、単語の出現順序とを係り受け、すなわち属性系列とともに復元するように、RNNの学習を行う(ステップS103)。
また、学習装置10は、文章化する単語群を受けつけると、単語群を学習済みのRNNに入力する(ステップS104)。このような場合、学習装置10は、RNNが属性系列とともに出力した単語、すなわち、文章を出力し(ステップS105)、処理を終了する。
〔4.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
〔4−1.トピックモデルについて〕
上述した例では、学習装置10は、文章のトピックを出力するトピックレイヤL13を有するRNNを生成した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、トピックレイヤL13を有しないRNNを生成してもよい。また、学習装置10は、それぞれ異なるトピックモデルに基づいたトピックを出力する複数のトピックレイヤを有するRNNを生成してもよい。
また、学習装置10は、PLSA(Probabilistic Latent Semantic Analysis)のみならず、LDA(Latent Dirichlet Allocation)等、任意のトピックモデルに基づいて、特徴Cからトピックを抽出するトピックレイヤL13を有してもよい。また、学習装置10は、特徴CとトピックレイヤL13とから単語を復元するのではなく、トピックレイヤL13の出力のみから単語を復元するデコーダL12を学習してもよい。
〔4−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。例えば、学習装置10が上述した学習処理によって生成したエンコーダおよびデコーダを有するRNNを含むプログラムパラメータを用いることで、学習装置10以外の情報処理装置が、上述した測定処理を実現してもよい。また、学習装置10は、正解データデータベース31を外部のストレージサーバに記憶させてもよい。
〔4−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔5.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
〔6.効果〕
上述したように、学習装置10は、所定の文章に含まれる単語群を抽出する。そして、学習装置10は、単語群に含まれる各単語が文章中に出現する順序とともに単語群が有する特徴を学習するエンコーダと、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに特徴から復元するデコーダとを学習する。このため、学習装置10は、各単語の属性を考慮して、単語群から属性系列を含む文章を生成するRNNを学習することができるので、適切な構造を有する自然な文章を作成することができる。
また、学習装置10は、デコーダとして、特徴から単語群に含まれる各単語の属性を復元する属性レイヤと、属性レイヤの出力から単語群に含まれる各単語を復元する単語レイヤとを有するデコーダを学習する。このため、学習装置10は、各単語の属性を考慮して単語群から属性系列を含む文章を生成するRNNを学習することができる。
また、学習装置10は、特徴から単語群に含まれる各単語の属性であって、それぞれ異なる属性を復元する複数の属性レイヤと、複数の属性レイヤの出力から単語群に含まれる各単語を復元する単語レイヤとを有するデコーダを学習する。このため、学習装置10は、生成する文章の精度をより向上させることができる。
また、学習装置10は、デコーダとして、特徴から所定の文章が示すトピックを復元するトピックレイヤの出力から、単語群に含まれる各単語と、各単語の属性と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元するデコーダを学習する。このため、学習装置10は、文章のトピックを考慮して単語群から属性系列を含む文章を生成するRNNを学習することができる。このため、学習装置10は、生成する文章の精度をより向上させることができる。
また、学習装置10は、エンコーダとして、単語群に含まれる各単語を入力する単語レイヤと、各単語の属性を入力する属性レイヤとを有し、単語レイヤおよび属性レイヤの出力から特徴を生成するエンコーダを学習する。このため、学習装置10は、各単語の属性を考慮して、単語群から属性系列を含む文章を生成するRNNを学習することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。
20 通信部
30 記憶部
31 正解データデータベース
40 制御部
41 抽出部
42 学習部
43 受付部
44 生成部
45 出力部
100、200 情報処理装置

Claims (7)

  1. 所定の文章に含まれる単語群を抽出する抽出部と、
    前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語と、当該各単語の属性と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに前記特徴から復元する復元器とを学習する学習部と
    を有することを特徴とする学習装置。
  2. 前記学習部は、前記復元器として、前記特徴から前記単語群に含まれる各単語の属性を復元する第1の層と、当該第1の層の出力から前記単語群に含まれる各単語を復元する第2の層とを有する復元器を学習する
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、前記特徴から前記単語群に含まれる各単語の属性であって、それぞれ異なる属性を復元する複数の第1の層と、当該複数の第1の層の出力から前記単語群に含まれる各単語を復元する第2の層とを有する復元器を学習する
    ことを特徴とする請求項2に記載の学習装置。
  4. 前記学習部は、前記復元器として、前記特徴から前記所定の文章が示すトピックを復元するトピック復元層の出力から、前記単語群に含まれる各単語と、各単語の属性と、各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器を学習する
    ことを特徴とする請求項1〜3のうちいずれか1つに記載の学習装置。
  5. 前記学習部は、前記符号化器として、前記単語群に含まれる各単語を入力する第3の層と、各単語の属性を入力する第4の層とを有し、当該第3の層および第4の層の出力から出力する特徴を生成する符号化器を学習する
    ことを特徴とする請求項1〜4のうちいずれか1つに記載の学習装置。
  6. 所定の文章に含まれる単語群を抽出する抽出工程と、
    前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語と、各単語の属性と、各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに前記特徴から復元する復元器とを学習する学習工程と
    を含むことを特徴とする学習方法で生成される符号化器と復元器とからなるリカレントニューラルネットワークを含むプログラムパラメータ。
  7. 学習装置が実行する学習方法であって、
    所定の文章に含まれる単語群を抽出する抽出工程と、
    前記単語群に含まれる各単語が前記文章中に出現する順序とともに当該単語群が有する特徴を学習する符号化器と、前記単語群に含まれる各単語と、当該各単語の属性と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに前記特徴から復元する復元器とを学習する学習工程と
    を含むことを特徴とする学習方法。
JP2016182361A 2016-09-16 2016-09-16 学習装置および学習方法 Active JP6680655B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016182361A JP6680655B2 (ja) 2016-09-16 2016-09-16 学習装置および学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016182361A JP6680655B2 (ja) 2016-09-16 2016-09-16 学習装置および学習方法

Publications (2)

Publication Number Publication Date
JP2018045656A true JP2018045656A (ja) 2018-03-22
JP6680655B2 JP6680655B2 (ja) 2020-04-15

Family

ID=61695118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016182361A Active JP6680655B2 (ja) 2016-09-16 2016-09-16 学習装置および学習方法

Country Status (1)

Country Link
JP (1) JP6680655B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021218A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 学習装置、プログラムパラメータ、学習方法およびモデル
JP2020035019A (ja) * 2018-08-27 2020-03-05 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233707A (ja) * 1992-02-17 1993-09-10 Mitsubishi Electric Corp 情報データベース装置
US20150356401A1 (en) * 2014-06-06 2015-12-10 Google Inc. Generating representations of input sequences using neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233707A (ja) * 1992-02-17 1993-09-10 Mitsubishi Electric Corp 情報データベース装置
US20150356401A1 (en) * 2014-06-06 2015-12-10 Google Inc. Generating representations of input sequences using neural networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
河東 宗祐 他1名: "発話者を考慮した学習に基づく対話システムの検討", 第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会) [O, JPN6019032299, 2 March 2016 (2016-03-02), JP, ISSN: 0004226021 *
渡辺 有祐 他2名: "直列化された係り受け構造によるニューラルネット文生成", 言語処理学会第22回年次大会 発表論文集 [ONLINE], JPN6019032296, 29 February 2016 (2016-02-29), JP, ISSN: 0004226020 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021218A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 学習装置、プログラムパラメータ、学習方法およびモデル
JP2020035019A (ja) * 2018-08-27 2020-03-05 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP7155758B2 (ja) 2018-08-27 2022-10-19 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6680655B2 (ja) 2020-04-15

Similar Documents

Publication Publication Date Title
US11521110B2 (en) Learning apparatus, learning method, and non-transitory computer readable storage medium
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
JP6151404B1 (ja) 学習装置、学習方法および学習プログラム
JP6491262B2 (ja) モデル
JP6975610B2 (ja) 学習装置および学習方法
JP7058556B2 (ja) 判定装置、判定方法、および判定プログラム
US20190164083A1 (en) Categorical Data Transformation and Clustering for Machine Learning using Natural Language Processing
JP6680655B2 (ja) 学習装置および学習方法
JP6964481B2 (ja) 学習装置、プログラムおよび学習方法
JP6775366B2 (ja) 選択装置、および選択方法
JP6391617B2 (ja) 学習装置、文章自動生成装置および学習方法
JP6400038B2 (ja) 抽出装置および抽出方法
JP2019021218A (ja) 学習装置、プログラムパラメータ、学習方法およびモデル
CN112307738A (zh) 用于处理文本的方法和装置
JP2019057023A (ja) 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル
JP2018028866A (ja) 説明文生成方法、説明文生成モデル学習方法、及びプログラム
Zhuo Consumer Demand Behavior Mining and Product Recommendation Based on Online Product Review Mining and Fuzzy Sets
JP7017478B2 (ja) 出力装置、出力方法および出力プログラム
JP6526607B2 (ja) 学習装置、学習方法、および学習プログラム
WO2018066083A1 (ja) 学習プログラム、情報処理装置および学習方法
JP6979899B2 (ja) 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム
JP6963988B2 (ja) 提供装置、提供方法および提供プログラム
Zaikis et al. DACL: A Domain-Adapted Contrastive Learning Approach to Low Resource Language Representations for Document Clustering Tasks
JP7265837B2 (ja) 学習装置および学習方法
JP7054645B2 (ja) 生成装置、生成方法、生成プログラムおよびプログラムパラメータ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200319

R150 Certificate of patent or registration of utility model

Ref document number: 6680655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350