JP6964481B2 - 学習装置、プログラムおよび学習方法 - Google Patents
学習装置、プログラムおよび学習方法 Download PDFInfo
- Publication number
- JP6964481B2 JP6964481B2 JP2017202995A JP2017202995A JP6964481B2 JP 6964481 B2 JP6964481 B2 JP 6964481B2 JP 2017202995 A JP2017202995 A JP 2017202995A JP 2017202995 A JP2017202995 A JP 2017202995A JP 6964481 B2 JP6964481 B2 JP 6964481B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- sentence
- encoder
- learning
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 48
- 239000011159 matrix material Substances 0.000 claims description 105
- 238000000605 extraction Methods 0.000 claims description 33
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 7
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 32
- 230000010365 information processing Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 238000005259 measurement Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000007704 transition Effects 0.000 description 8
- 238000005070 sampling Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Description
〔1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
ここで、学習装置10は、入力された文章に対応する応答を出力する。例えば、学習装置10は、w2v(word2vec)やs2v(sentence2vec)等、単語や文章をベクトル(多次元量)に変換し、変換後のベクトルを用いて入力された文章に対応する応答を出力する。より具体的な例を挙げると、学習装置10は、利用者の発言に含まれる単語群から、異なる分野の単語群であって、利用者の発言に含まれる単語群と同様の概念構造を有する単語群を特定する。このような単語群を文章化して出力した場合には、利用者の発言と概念構造が類似する文章であって、利用者の発言とは異なる分野に属する概念の文章を出力することができるので、利用者のセレンディピティを生じさせることができると考えられる。
ここで、エンコーダが、それぞれ異なる種別の属性を抽出する複数の中間層を有する場合、単語群が有する特徴をより精度良く抽出することができるとも考えられる。しかしながら、上述したモデルにおけるエンコーダがRNN(Recurrent Neural Networks)やLSTM(Long short-term memory)と呼ばれる構造を有するニューラルネットワークにより実現される場合、単語が入力される度に値をデコーダに引き渡す構造が考えられる。すなわち、エンコーダは、入力された単語が有する複数の属性を丸めた単一の値をデコーダに引き渡すこととなる。この結果、文章の特徴を適切に学習することができない恐れがある。
ここで、学習装置10は、アテンション行列が適用されたエンコーダの出力から、各単語の重要度に基づいて、単語群に含まれる各単語と各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに特徴から復元するデコーダであれば、任意の構成を有するデコーダの学習をおこなってよい。例えば、学習装置10は、適用器が出力した特徴から、各単語の属性を復元する属性復元レイヤと、属性復元レイヤの出力から、各単語を文章中に出現する順序で復元する単語復元レイヤとを有するデコーダを学習する。より具体的には、学習装置10は、エンコーダが出力した特徴に対してアテンション行列を適用した特徴行列の入力を受付けると、特徴行列から各単語の属性を各単語が文章中に出現する順序で復元する属性復元レイヤと、特徴行列と属性復元レイヤが復元した属性とに基づいて、文章中に出現する順序で各単語を復元する単語復元レイヤとを有するデコーダを学習する。
また、学習装置10は、いわゆるトピックモデルを用いて、単語群から文章の生成を行ってもよい。例えば、学習装置10は、適用器が生成した特徴行列から、所定の文章が示すトピックを復元するトピックレイヤを有するモデルを生成する。そして、学習装置10は、トピックレイヤの出力から、単語群に含まれる各単語と、各単語の属性と、各単語が所定の文章中に出現する順序とを属性系列とともに復元するデコーダを学習してもよい。
なお、学習装置10は、上述した学習処理により学習が行われたモデルを用いて、学習装置10から受信した単語群から文章を生成する測定処理を実行する。例えば、学習装置10は、学習装置10から単語群を受信すると、受信した単語群を順にモデルのエンコーダに入力し、デコーダが属性系列とともに復元した単語群、すなわち、文章を学習装置10へと出力する。
次に、図1を用いて、学習装置10が実行する学習処理および測定処理の一例について説明する。まず、学習装置10は、正解データとなる文章を情報処理装置200から取得する(ステップS1)。なお、正解データとなる文章は、例えば、論文や特許公報、ブログ、マイクロブログ、インターネット上のニュース記事等、任意の文章が採用可能である。
ここで、学習装置10は、属性抽出層L12に含まれるノードのうち、複数のノードの状態に基づいて、アテンション行列の列成分を設定するのであれば、任意の手法によりアテンション行列の列成分を設定して良い。例えば、学習装置10は、ある単語を入力した際における属性抽出層L12の各ノードの出力をそのままアテンション行列の列成分として採用してもよい。
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
次に、図5を用いて、学習装置10が実行する処理の流れの一例について説明する。図5は、実施形態に係る処理の流れの一例を説明するフローチャートである。まず、学習装置10は、正解データとなる文章を取得すると(ステップS101)、取得した文章から単語群を抽出する(ステップS102)。そして、学習装置10は、単語から複数の属性を抽出するエンコーダと、単語を順に入力した際の属性に基づいた複数の列を有するアテンション行列をエンコーダの出力に適用する適用器と、適用器の出力から元の文章を復元するデコーダとを学習する(ステップS103)。
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
また、学習装置10は、全体で一つのDPCNにより構成されるエンコーダENやデコーダDCを有するモデルL10の学習を行ってもよい。また、学習装置10は、状態レイヤL20、属性復元レイヤL21、単語復元レイヤL22がそれぞれDPCNにより構成されるデコーダDCを有するモデルL10の学習を行ってもよい。
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。例えば、学習装置10が上述した学習処理によって生成したエンコーダおよびデコーダを有するモデルL10を含むプログラムパラメータを用いることで、学習装置10以外の情報処理装置が、上述した測定処理を実現してもよい。また、学習装置10は、正解データデータベース31を外部のストレージサーバに記憶させてもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述してきた実施形態に係る学習装置10は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、学習装置10は、所定の文章に含まれる単語群を抽出する。そして、学習装置10は、単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、所定の文章を符号化する符号化器と、符号化器の出力に対して、複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、適用器によってアテンション行列が適用された符号化器の出力から、単語群に含まれる各単語と、各単語が文章中に出現する順序とを文章中における各単語の属性系列とともに復元する復元器とを学習する。
30 記憶部
31 正解データデータベース
32 モデルデータベース
40 制御部
41 抽出部
42 学習部
43 受付部
44 生成部
45 出力部
100、200 情報処理装置
Claims (10)
- 所定の文章に含まれる単語群を抽出する抽出部と、
前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器が単語から抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を生成し、前記符号化器の出力に対して、前記アテンション行列を積算した行列を生成する適用器と、前記適用器によって生成された行列から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習部と
を有することを特徴とする学習装置。 - 前記学習部は、前記適用器によってアテンション行列が適用された前記符号化器の出力から、前記単語群に含まれる各単語と、当該各単語の属性と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器を学習する
ことを特徴とする請求項1に記載の学習装置。 - 前記学習部は、前記単語群に含まれる各単語が入力される入力層と、前記入力層の出力に基づいて各単語が有する属性を示す情報を出力する複数の中間層とを有する符号化器を学習する
ことを特徴とする請求項1または2に記載の学習装置。 - 前記学習部は、前記入力層に対して複数の単語を順次入力した際における前記中間層に含まれるノードの状態の変化に基づいた複数の列成分を有するアテンション行列を適用する適用器
を学習することを特徴とする請求項3に記載の学習装置。 - 前記学習部は、前記入力層に対して所定の単語を入力した際における前記複数の中間層に含まれる各ノードの状態を列方向に配置し、前記入力層に対して複数の単語を順次入力した際における各ノードの状態の変化を行方向に配置した行列から生成される複数の小行列に基づいたアテンション行列を適用する適用器を学習する
ことを特徴とする請求項3または4に記載の学習装置。 - 前記学習部は、新たに入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成するノードを含む複数の中間層を有する符号化器を学習する
ことを特徴とする請求項3〜5のうちいずれか1つに記載の学習装置。 - 前記学習部は、DPCN(Deep Predictive Coding Networks)の構造を有する複数の中間層を有する符号化器を学習する
ことを特徴とする請求項6に記載の学習装置。 - 前記学習部は、前記符号化器の出力に対して、前記アテンション行列の固有値、固有ベクトル、若しくは特異値を適用する適用器を学習する
ことを特徴とする請求項1〜7のうちいずれか1つに記載の学習装置。 - 所定の文章に含まれる単語群を抽出する抽出工程と、
前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器が単語から抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を生成し、前記符号化器の出力に対して、前記アテンション行列を積算した行列を生成する適用器と、前記適用器によって生成された行列から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習工程と
を含むことを特徴とする学習方法で生成される符号化器と適用器と復元器とからなるリカレントニューラルネットワークとしてコンピュータを動作させるためのプログラム。 - 学習装置が実行する学習方法であって、
所定の文章に含まれる単語群を抽出する抽出工程と、
前記単語群に含まれる各単語の属性であって、それぞれ異なる複数の属性に基づいて、前記所定の文章を符号化する符号化器と、前記符号化器が単語から抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を生成し、前記符号化器の出力に対して、前記アテンション行列を積算した行列を生成する適用器と、前記適用器によって生成された行列から、前記単語群に含まれる各単語と、当該各単語が前記文章中に出現する順序とを前記文章中における各単語の属性系列とともに復元する復元器とを学習する学習工程と
を含むことを特徴とする学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017202995A JP6964481B2 (ja) | 2017-10-19 | 2017-10-19 | 学習装置、プログラムおよび学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017202995A JP6964481B2 (ja) | 2017-10-19 | 2017-10-19 | 学習装置、プログラムおよび学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079087A JP2019079087A (ja) | 2019-05-23 |
JP6964481B2 true JP6964481B2 (ja) | 2021-11-10 |
Family
ID=66626592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017202995A Active JP6964481B2 (ja) | 2017-10-19 | 2017-10-19 | 学習装置、プログラムおよび学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6964481B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7170594B2 (ja) * | 2019-06-25 | 2022-11-14 | Kddi株式会社 | 同一事象に対して時系列に発生した異なるメディアデータを統合した学習モデルを構築するプログラム、装置及び方法 |
JP7344053B2 (ja) * | 2019-09-02 | 2023-09-13 | 株式会社 ディー・エヌ・エー | 所定のゲームを提供するためのシステム、方法、及びプログラム、並びに、デッキの分類を作成するための方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10268671B2 (en) * | 2015-12-31 | 2019-04-23 | Google Llc | Generating parse trees of text segments using neural networks |
-
2017
- 2017-10-19 JP JP2017202995A patent/JP6964481B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019079087A (ja) | 2019-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11521110B2 (en) | Learning apparatus, learning method, and non-transitory computer readable storage medium | |
US20200265196A1 (en) | Pre-Trained Projection Networks for Transferable Natural Language Representations | |
JP6975610B2 (ja) | 学習装置および学習方法 | |
CN109582956B (zh) | 应用于句子嵌入的文本表示方法和装置 | |
GB2573189A (en) | Generating a topic-based summary of textual content | |
CN115244587A (zh) | 高效基础事实注释 | |
CN113360660B (zh) | 文本类别识别方法、装置、电子设备和存储介质 | |
JP6964481B2 (ja) | 学習装置、プログラムおよび学習方法 | |
JP7058556B2 (ja) | 判定装置、判定方法、および判定プログラム | |
JP2019021218A (ja) | 学習装置、プログラムパラメータ、学習方法およびモデル | |
US20190164083A1 (en) | Categorical Data Transformation and Clustering for Machine Learning using Natural Language Processing | |
JP6963988B2 (ja) | 提供装置、提供方法および提供プログラム | |
JP6467893B2 (ja) | 情報処理システム、情報処理方法、及び、プログラム | |
JP6400038B2 (ja) | 抽出装置および抽出方法 | |
JP6775366B2 (ja) | 選択装置、および選択方法 | |
JP6391617B2 (ja) | 学習装置、文章自動生成装置および学習方法 | |
JP6680655B2 (ja) | 学習装置および学習方法 | |
KR20230015702A (ko) | 비디오-텍스트 검색 학습 장치 및 비디오-텍스트 검색 학습 방법 | |
JP2019057266A (ja) | 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル | |
JP7017478B2 (ja) | 出力装置、出力方法および出力プログラム | |
JP6526607B2 (ja) | 学習装置、学習方法、および学習プログラム | |
CN114519353A (zh) | 模型的训练方法、情感消息生成方法和装置、设备、介质 | |
CN109800438B (zh) | 用于生成信息的方法和装置 | |
JP7265837B2 (ja) | 学習装置および学習方法 | |
CN110852112A (zh) | 词向量嵌入方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6964481 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |