JP6526607B2 - Learning apparatus, learning method, and learning program - Google Patents

Learning apparatus, learning method, and learning program Download PDF

Info

Publication number
JP6526607B2
JP6526607B2 JP2016161488A JP2016161488A JP6526607B2 JP 6526607 B2 JP6526607 B2 JP 6526607B2 JP 2016161488 A JP2016161488 A JP 2016161488A JP 2016161488 A JP2016161488 A JP 2016161488A JP 6526607 B2 JP6526607 B2 JP 6526607B2
Authority
JP
Japan
Prior art keywords
learning
sentence
unit
rnn
learning device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016161488A
Other languages
Japanese (ja)
Other versions
JP2018028872A (en
Inventor
清水 徹
徹 清水
伸幸 清水
伸幸 清水
隼人 小林
隼人 小林
香里 谷尾
香里 谷尾
晃平 菅原
晃平 菅原
ヒンチュン マク
ヒンチュン マク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016161488A priority Critical patent/JP6526607B2/en
Publication of JP2018028872A publication Critical patent/JP2018028872A/en
Application granted granted Critical
Publication of JP6526607B2 publication Critical patent/JP6526607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、学習装置、学習方法、および学習プログラムに関する。 The present invention, a learning device, a learning method, about your and learning programs.

従来、RNN(Recurrent neural network)やディープラーニング等と呼ばれる技術を用いて、情報にラベルを付与する技術が知られている。このような技術の一例として、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行い、文章にラベルを付与する技術が知られている。   2. Description of the Related Art Conventionally, techniques for labeling information using techniques called Recurrent Neural Network (RNN) and deep learning are known. As an example of such a technique, there is known a technique of learning a learning device to output a label indicating the content or type of a sentence according to the content of an input sentence and applying a label to the sentence .

“Learning phrase representations using RNN encoder-decoder for statistical machine translation.” K. Cho, B. van Merrienboer, C. Gulcehre, D. Bahdanau,F. Bougares, H. Schwenk, and Y. Bengio. In Proceedings of the 2014 Confer-ence on EMNLP, 2014.“Learning phrase representation using RNN encoder-decoder for statistical machine translation.” K. Cho, B. van Merrienboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, and Y. Bengio. In Proceedings of the 2014 Confer-ence on EMNLP, 2014.

Socher, R.; Perelygin, A.; Wu, J.; Chuang, J.; Manning, C. D.; Ng, A.; and Potts, C. 2013. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP 2013), 1631-1642. Association for Computational Linguistics.So ,, Perelygin, A .; Wu, J .; Chuang, J .; Manning, CD; Ng, A .; and Potts, C. 2013. Recursive deep models for semantic compositionality over a sentiment treebank. The 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP 2013), 1631-1642. Association for Computational Linguistics.

しかしながら、従来技術では、学習器が適切なラベルを付与することができない場合がある。   However, in the prior art, there are cases where the learning device can not provide appropriate labels.

例えば、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行う場合には、文章とその文章に付与すべきラベルとの関係性を学習器に学習させることとなる。しかしながら、文章とその文章に付与すべきラベルとを含む正解データが十分に準備できない場合には、文章とラベルとの関係性を適切に学習することができず、学習器が適切なラベルを付与することができなくなる恐れがある。   For example, when learning a learning device to output a label indicating the content or type of a sentence according to the content of the input sentence, the relationship between the sentence and the label to be attached to the sentence is learned Will make the vessel learn. However, if correct data including the sentence and the label to be attached to the sentence can not be prepared sufficiently, the relationship between the sentence and the label can not be properly learned, and the learning device assigns the appropriate label. There is a risk that you will not be able to

本願は、上記に鑑みてなされたものであって、文章に付与するラベルの精度を向上させることを目的とする。   This application is made in view of the above, and it aims at improving the accuracy of the label given to a sentence.

本願に係る学習装置は、第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部ととを有することを特徴とする。   A learning apparatus according to the present application includes a first learning unit that causes a learning device and a restoring device included in a first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialog; A first generation unit for generating a second recurrent neural network using at least one of the above-described learners or reconstructors, and a relationship between a sentence and a label given to the sentence, the second recurrent And a second learning unit for making the neural network learn.

実施形態の一態様によれば、文章に付与するラベルの精度を向上させることができる。   According to one aspect of the embodiment, the accuracy of the label given to the text can be improved.

図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of learning processing performed by the learning device according to the embodiment. 図2は、実施形態に係る学習装置の構成例を示す図である。FIG. 2 is a diagram illustrating an exemplary configuration of a learning device according to the embodiment. 図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。FIG. 3 is a diagram showing an example of information registered in the dialogue data database according to the embodiment. 図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。FIG. 4 is a diagram showing an example of information registered in a learning data database according to the embodiment. 図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。FIG. 5 is a first diagram showing a variation of RNN generated by the learning device according to the embodiment. 図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。FIG. 6 is a second diagram showing a variation of the RNN generated by the learning device according to the embodiment. 図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。FIG. 7 is a flowchart illustrating an example of the flow of learning processing according to the embodiment. 図8は、ハードウェア構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of the hardware configuration.

以下に、本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
Hereinafter, a learning apparatus, a learning method, program parameters, and a mode for implementing a learning program according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the learning device, the learning method, the program parameters, and the learning program according to the present application are not limited by the embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.
[Embodiment]

〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
[1-1. Example of learning device]
First, an example of the learning process performed by the learning device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of learning processing performed by the learning device according to the embodiment. In FIG. 1, the learning device 10 is an information processing device that executes learning processing described below, and is realized by, for example, a server device, a cloud system, or the like.

より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、利用者が使用する端末装置100といった任意の装置と通信が可能である。また、学習装置10は、任意の利用者間における対話を取得するための入力装置200(例えば、図2を参照)と通信可能である。   More specifically, the learning device 10 can communicate with any device such as the terminal device 100 used by the user via a predetermined network N such as the Internet. In addition, the learning device 10 can communicate with an input device 200 (see, for example, FIG. 2) for acquiring an interaction between arbitrary users.

なお、端末装置100や入力装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。また、学習装置10は、サーバ装置やクラウドシステム等の任意の情報処理装置により実現される。   The terminal device 100 and the input device 200 are realized by a smart device such as a smartphone or a tablet, an information processing device such as a server device such as a desktop PC (Personal Computer) or a notebook PC. The learning device 10 is realized by any information processing device such as a server device or a cloud system.

〔1−2.学習処理について〕
ここで、学習装置10は、入力された文章に対し、その文章の種別や内容等といった属性を示す属性情報を付与するためのモデルを学習する。このような属性情報は、ラベル、タグ、又はメタデータ等と呼ばれ、文章の検索や選択を行う際に利用される。なお、以下の説明では属性情報をラベルと記載する。
[1-2. About learning process]
Here, the learning device 10 learns a model for adding attribute information indicating an attribute such as the type and content of the sentence to the input sentence. Such attribute information is called a label, a tag, or metadata, and is used when searching for or selecting a sentence. In the following description, attribute information is referred to as a label.

例えば、学習装置10は、文章に含まれる複数の単語を、各単語が文章中に出現する順に入力した際に、各単語の特徴と、各単語が出現する順番の特徴とを学習するリカレントニューラルネットワーク(以下「RNN(Recurrent Neural Network)と記載する。)の学習を行う。ここで、RNNは、複数の情報を順に入力した際に、各情報の特徴と入力された順番の特徴とを符号化し、符号化した特徴を出力する学習器(エンコーダ)と、学習器が出力した特徴に基づいて、新たな情報を復元する復元器(デコーダ)とを有するニューラルネットワークである。例えば、復元器は、学習器が出力した特徴から、学習器に入力された複数の情報を、入力した順に復元するといった処理を実行する。   For example, when a plurality of words included in a sentence are input in the order in which the words appear in the sentence, the learning device 10 learns the features of each word and the features of the order in which the words appear The network (hereinafter referred to as “recurrent neural network (RNN)) is learned. Here, when a plurality of pieces of information are input in order, the RNN codes the features of each piece of information and the features of the input order It is a neural network having a learning unit (encoder) that outputs the encoded feature, and a restoring unit (decoder) that restores new information based on the feature output from the learning unit. A process is performed to restore a plurality of pieces of information input to the learning device in the order in which they are input, from the features output from the learning device.

例えば、学習装置10は、RNNの学習に用いられる学習データとして、所定の文章と、その文章に付与すべきラベルとの組を取得する。このような場合、学習装置10は、文章に含まれる単語をRNNに入力した際に、文章に付与すべきラベルを出力するようにRNNの学習を行う。例えば、学習装置10は、バックプロパゲーション法等、ディープラーニングやニューラルネットワーク等の学習に用いられる任意の学習手法を用いて、RNNの学習を実行する。   For example, the learning device 10 acquires, as learning data used for RNN learning, a set of a predetermined sentence and a label to be attached to the sentence. In such a case, when a word contained in a sentence is input to the RNN, the learning device 10 learns the RNN so as to output a label to be attached to the sentence. For example, the learning device 10 performs RNN learning using a back propagation method or any learning method used for learning such as deep learning or neural network.

しかしながら、学習データの数が十分に取得できなかった場合には、文章に含まれる各単語の特徴や、単語が出現する順番の特徴等を適切に学習することができず、文章に付与するラベルの精度が低下する恐れがある。   However, when the number of learning data can not be acquired sufficiently, the feature of each word included in the sentence, the feature of the order in which the words appear, etc. can not be learned appropriately, and the label attached to the sentence Accuracy may decrease.

そこで、学習装置10は、以下の学習処理を実行する。まず、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。続いて、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、第2RNNに学習させる。すなわち、学習装置10は、対話に含まれる発話と応答とを用いて、文章とラベルとの関係性のプレトレーニングを行う。   Therefore, the learning device 10 executes the following learning process. First, the learning device 10 causes the learning device and the restoring device of the first RNN to learn the relationship between the utterance and the response in the predetermined dialogue. Subsequently, the learning device 10 generates a second RNN using at least one of the learning device and the restoring device in which the learning has been performed. Then, the learning device 10 causes the second RNN to learn the relation between the sentence and the label given to the sentence. That is, the learning device 10 performs pre-training on the relationship between the sentence and the label using the utterance and the response included in the dialogue.

ここで、対話に含まれる発話と応答とには、隠れた共通性が含まれると予測される。例えば、ある小説を原作とするアニメや映画が存在する場合に、対話に含まれる発話と応答とには、小説に関する対話であるのか、アニメに関する対話であるのか、映画に関する対話であるのか等といった隠れた共通性が存在する。また、対話に含まれる発話と、発話に対する応答とには、共通する文脈(コンテキスト)が存在すると予測される。このような共通性は、文章のコンテキストとラベルのコンテキストとの共通性に類似すると予測される。すると、発話と応答との関係性をあらかじめ学習した場合には、文章とラベルとの共通性や共起性を補強しうると考えられる。   Here, it is predicted that the utterance and the response included in the dialogue include hidden commonality. For example, when there is an animation or movie based on a novel, the utterance and the response included in the dialogue may be a dialogue about a novel, a dialogue about an animation, or a dialogue about a movie, etc. There is a hidden commonality. In addition, it is predicted that the utterance included in the dialogue and the response to the utterance have a common context (context). Such commonality is predicted to be similar to commonality between the context of sentences and the context of labels. Then, if the relationship between the speech and the response is learned in advance, it is considered that the commonality and co-occurrence of the text and the label can be reinforced.

そこで、学習装置10は、発話と応答とを用いて、RNNに含まれる学習器と復元器とのプレトレーニングを行う。例えば、学習装置10は、発話を学習器に入力した際に、その発話に対する応答を復元器が出力するように、学習器および復元器のプレトレーニングを行う。より具体的には、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに、その各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が発話を符号化した特徴、すなわち、学習器が出力する情報から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。   Therefore, the learning device 10 performs pre-training on the learning device and the restoring device included in the RNN using the utterance and the response. For example, when a speech is input to a learning device, the learning device 10 performs pre-training on the learning device and the restoring device such that the restoration device outputs a response to the speech. More specifically, the learning device 10 causes the learning device to learn the features that each word has, together with the order in which the words included in the utterance appear in the utterance. Then, the learning apparatus 10 restores the decompressor so that each word included in the response is restored from the feature of the speech encoded by the learning device, that is, the information output from the learning device, along with the order in which each word appears in the response. To learn.

なお、学習装置10は、発話と応答とを、それぞれ学習器または復元器のいずれかに対応付けるのであれば、発話を学習器に対応付けて学習させ、応答を復元器に対応付けて学習させる必要はない。例えば、学習装置10は、応答を学習器に対応付けて学習させ、発話を復元器に対応付けて学習させてもよい。具体的には、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させてもよい。また、学習装置10は、学習器と復元器とでパラメータを共有させることで、学習器兼復元器となるモデルの学習を行なってもよい。例えば、学習装置10は、学習器兼復元器として動作する1つのRNNの学習を行ってもよい。   In addition, if the learning device 10 associates the speech and the response with either the learning device or the restoration device, it is necessary to cause the speech to be learned in association with the learning device, and to make the response correspond to the restoration device and learned. There is no. For example, the learning device 10 may associate the response with the learning device to learn, and associate the utterance with the recovery device to learn. Specifically, the learning device 10 may perform learning of the learning device and the restoring device such that the restoring device outputs an utterance corresponding to the response when the response is input to the learning device. For example, the learning device 10 causes the learning device to learn the features that each word has with the order in which the words included in the response appear in the response. Then, the learning device 10 may make the decompressor learn so as to restore each word included in the utterance along with the order in which each word appears in the utterance from the feature encoded by the learning device. Further, the learning device 10 may perform learning of a model serving as a learning / restoring device by sharing parameters between the learning device and the restoration device. For example, the learning device 10 may perform learning of one RNN operating as a learning and restoring device.

〔1−3.RNNの生成について〕
ここで、学習装置10は、プレトレーニングを行ったRNN、すなわち、第1RNNをそのまま用いて、文章とラベルとの関係性を学習させてもよい。また、学習装置10は、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、新たなRNNを生成し、生成したRNNに文章とラベルとの関係性を学習させてもよい。
[1-3. About generation of RNN]
Here, the learning device 10 may learn the relationship between the sentence and the label by using the pre-trained RNN, that is, the first RNN as it is. Also, even if the learning device 10 generates a new RNN using at least one of a learning device or a restoring device included in the first RNN, and causes the generated RNN to learn the relationship between a sentence and a label. Good.

例えば、学習装置10は、第1RNNに含まれる学習器と、新たに生成した復元器とを用いて、第2RNNを生成する。ここで、新たに生成した復元器とは、第1RNNに含まれる復元器であれば、任意の復元器が適用可能であり、例えば、ニューロン間で情報を伝達する際の伝達係数を初期化(例えば、ランダム化)した復元器であってもよい。このようにして生成された第2RNNには、学習器側に、発話と応答とに含まれる隠れた共通性の特徴が反映されていると考えられる。換言すると、第2RNNは、文章を入力した際に適切なラベルを出力するように、各ニューロン間の伝達係数が収束しやすいと考えられる。このため、学習データの量が十分に存在しない場合であっても、第2RNNは、学習データに含まれる文章とラベルとの関係性、すなわち、文章とラベルとが有する隠れた共通性の特徴を迅速に学習することができると考えられる。   For example, the learning device 10 generates a second RNN using the learning device included in the first RNN and the newly generated restorer. Here, if the newly generated restorer is the restorer included in the first RNN, any restorer is applicable, and, for example, the transfer coefficient at the time of transmitting information between neurons is initialized ( For example, it may be a randomizer). It is considered that the feature of the hidden commonness included in the speech and the response is reflected on the learning device side in the second RNN generated in this manner. In other words, it is considered that the second RNN is likely to converge the transmission coefficients between the respective neurons so as to output an appropriate label when the sentence is input. Therefore, even if the amount of learning data is not sufficient, the second RNN is related to the relation between the sentence and the label included in the learning data, that is, the feature of the hidden commonality possessed by the sentence and the label. It is thought that you can learn quickly.

そこで、学習装置10は、第2RNNに学習データの文章を入力した際に、入力した文章に付与すべきラベルを第2RNNが出力するように、第2RNNの復号化の学習を行う。例えば、学習装置10は、ランダムに初期化した復元器と、第1RNNの学習器とを接続し、学習器のパラメータを固定して、復元器側のパラメータの更新を行う。この結果、学習装置10は、文章に対して適切なラベルを付与するRNNを生成することができるので、文章に付与するラベルの精度を改善することができる。   Therefore, when a sentence of learning data is input to the second RNN, the learning device 10 performs learning of decoding of the second RNN so that the second RNN outputs a label to be attached to the input sentence. For example, the learning device 10 connects a randomly initialized restorer to the first RNN's learner, fixes the parameters of the learner, and updates the restorer-side parameters. As a result, since the learning device 10 can generate an RNN that gives an appropriate label to a sentence, the accuracy of the label given to the sentence can be improved.

ここで、学習装置10は、第3RNNにおける学習、すなわち、学習データ以外の文章に対してラベルを付与する際に、第2RNNをそのまま利用してさらに全体を学習させてもよく、第2RNNを用いて新たな第3RNNを生成し、新たな第3RNNを測定時に用いるRNN(以下、「測定用RNN」と記載する。)としてもよい。例えば、第2RNNに含まれる復元器には、文章とラベルとの関係性の特徴が学習されていると予測される。より具体的には、第2RNNに含まれる復元器は、複数の単語の特徴と、各単語が出現する順序の特徴とを示す情報から、その複数の単語がその順序で現れる文章に対して付与すべきラベルを示す情報を出力するように学習が行われている。そこで、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを含む第3RNNに対してさらに全体学習をおこなった第3RNNを測定用RNNとしてもよい。また、学習装置10は、第2RNNを通さずに、第1RNNの学習器を利用して、さらに全体学習をさせた第3RNNを測定用RNNとしてもよい。また、学習装置10は、第3RNNの学習時において、学習器のパラメータを固定して復元器側のパラメータのみを更新し、ある程度の学習が進んだ再に、学習器側のパラメータの固定を外して、第3RNN全体の学習(トレーニング)を行ってもよい。   Here, the learning device 10 may use the second RNN as it is for learning in the third RNN, that is, when applying a label to a sentence other than the learning data, using the second RNN. A new third RNN may be generated, and the new third RNN may be used as the RNN used in the measurement (hereinafter referred to as “measurement RNN”). For example, it is predicted that the feature of the relation between the sentence and the label is learned in the decompressor included in the second RNN. More specifically, the decompressor included in the second RNN is added to the sentence in which the plurality of words appear in the order, from the information indicating the features of the plurality of words and the features of the order in which each word appears Learning is performed so as to output information indicating a label to be done. Therefore, the learning device 10 may use, as the measurement RNN, the third RNN further subjected to the entire learning with respect to the third RNN including the restoration device included in the second RNN and the learning device included in the first RNN. Further, the learning device 10 may use the first RNN's learning device as the measurement RNN without passing through the second RNN, and may use the third RNN subjected to the overall learning. Also, at the time of learning of the third RNN, the learning device 10 fixes the parameters of the learning device and updates only the parameters on the restoration device side, and removes the fixing of the learning device parameters again after some learning has progressed. The entire third RNN may be trained (training).

そして、学習装置10は、第3RNNを用いて、ラベルの付与対象となる文章に対してラベルを付与してもよい。例えば、学習装置10は、第3RNNに含まれる学習器の入力層に、文章に含まれる各単語を各単語が出現する順序で入力し、学習器の出力層から出力された情報、すなわち、入力された文章に含まれる各単語の特徴と各単語が出現する順序の特徴とを示す特徴情報を、復元器の入力層に入力する。そして、学習装置10は、復元器が特徴情報に基づいて出力したラベルを示す情報から、文章に対して付与すべきラベルを決定する。   Then, the learning device 10 may assign a label to a sentence to which a label is to be assigned, using the third RNN. For example, the learning device 10 inputs each word included in the sentence in the order in which each word appears in the input layer of the learning device included in the third RNN, and the information output from the output layer of the learning device, ie, the input Feature information indicating features of each word included in the sentence and features of the order in which each word appears is input to the input layer of the decompressor. Then, the learning device 10 determines the label to be attached to the text from the information indicating the label output by the decompressor based on the feature information.

〔1−4.RNNのバリエーションについて〕
ここで、学習装置10は、対話に含まれる発話と応答とを用いてプレトレーニングを行った学習器または復元器を用いるのであれば、任意の処理を用いて、測定用RNNを生成してよい。例えば、学習装置10は、第1RNNに含まれる学習器と新たな復元器とから第2RNNを生成し、学習データを用いて第2RNNを学習する。そして、学習装置10は、学習を行った第2RNNを、そのまま測定用RNNとしてもよい。
[1-4. About variations of RNN]
Here, the learning device 10 may generate the measurement RNN using any process, as long as it uses a learner or a restorer that has performed pre-training using the utterance and the response included in the dialogue. . For example, the learning device 10 generates a second RNN from the learning device included in the first RNN and a new decompressor, and learns the second RNN using the learning data. Then, the learning device 10 may use the second RNN subjected to the learning as the measurement RNN as it is.

また、学習装置10は、第1RNNに含まれる学習器と、新たな復元器とを用いて第2RNNを生成し、学習データを用いて第2RNNを学習する。続いて、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを用いて第3RNNを生成し、学習データを用いて、第3RNNの学習を行う。そして、学習装置10は、学習データを用いて学習を行った第3RNNを測定用RNNとして出力してもよい。   Also, the learning device 10 generates a second RNN using the learning device included in the first RNN and a new recovery device, and learns the second RNN using learning data. Subsequently, the learning device 10 generates a third RNN using the restoration device included in the second RNN and the learning device included in the first RNN, and performs learning of the third RNN using learning data. Then, the learning device 10 may output the third RNN learned using the learning data as the measurement RNN.

なお、学習装置10は、第2RNNの学習を行う際と、第3RNNの学習を行う際とで、同一の学習データを用いてもよく、異なる学習データを用いてもよい。また、学習装置10は、文章とその文章に付与すべきラベルとの組である学習データに加えて、対話に含まれる発話と応答との組を学習データとし、第2RNNや第3RNNの学習を行ってもよい。   The learning device 10 may use the same learning data or may use different learning data when performing learning of the second RNN and when performing learning of the third RNN. In addition to learning data which is a set of a sentence and a label to be attached to the sentence, the learning device 10 sets a pair of an utterance and a response included in the dialogue as learning data, and learns the second and third RNNs. You may go.

〔1−5.文章とラベルについて〕
ここで、学習装置10は、任意の文章に対して付与される任意のラベルを付与するRNNの学習を行ってよい。すなわち、学習装置10がラベルを付与する文章とは、小説、新聞記事、ブログ、マイクロブログ、批評、投稿等といった執筆物に関する文章であってもよく、カルテ等といった記録等であってもよい。また、文章は、一文であってもよく複数の文からなる文章であってもよい。例えば、学習装置10は、書籍や作品単位で文章の学習等を行ってもよい。
[1-5. About sentences and labels]
Here, the learning device 10 may perform learning of the RNN to which an arbitrary label given to an arbitrary sentence is given. That is, the sentence to which the learning device 10 applies a label may be a sentence related to an article such as a novel, a newspaper article, a blog, a microblog, a critique, a post, or a record such as a medical record. The sentence may be a single sentence or may be a sentence consisting of a plurality of sentences. For example, the learning device 10 may learn sentences and the like in units of books or works.

また、学習装置10が付与するラベルとは、文章の内容や属性等を示す単語や文章等であってもよく、検索などに使用される数値や文字列等であってもよい。   Further, the label given by the learning device 10 may be a word or a sentence indicating the content or attribute of the sentence, or may be a numerical value or a character string used for a search or the like.

〔1−6.数式の一例〕
次に、上述した学習処理を示す数式の一例について説明する。例えば、時刻「t」における学習器の「j」番目のノードの状態を「hj<t>」と記載すると、学習器における各ノードの状態は、以下の式(1)で表すことができる。ここで、式(1)中の波付き「hj<t>」は、式(2)で表すことができ、「zj」および「rj」は、以下の式(3)および式(4)で表される。ここで、「xt」は、「t」番目の入力を示す。また、式(2)〜式(4)の「W」および「U」は、学習器の接続係数を示すパラメータである。
[1-6. Example of formula]
Next, an example of a mathematical expression indicating the above-described learning process will be described. For example, if the state of the “j” -th node of the learning device at time “t” is described as “hj <t>”, the state of each node in the learning device can be expressed by the following equation (1). Here, the waved “hj <t>” in the formula (1) can be expressed by the formula (2), and the “zj” and the “rj” can be expressed by the following formulas (3) and (4) expressed. Here, “xt” indicates the “t” -th input. Moreover, "W" and "U" of Formula (2)-Formula (4) are parameters which show the connection coefficient of a learning device.

Figure 0006526607
Figure 0006526607

Figure 0006526607
Figure 0006526607

Figure 0006526607
Figure 0006526607

Figure 0006526607
Figure 0006526607

すると、学習器による学習結果は、式(5)で示すことができる。   Then, the learning result by the learning device can be expressed by equation (5).

Figure 0006526607
Figure 0006526607

ここで、学習器の出力は、復元器の各ノードへと伝達される。このような復元器のノードへの入力は、式(6)で示すことができる。   Here, the output of the learner is transmitted to each node of the restorer. The input to such a decompressor node can be shown by equation (6).

Figure 0006526607
Figure 0006526607

すると、時刻「t」における復元器の「j」番目のノードの状態を「h´j<t>」とすると、「h´j<t>」は、以下の式(7)で示すことができる。ここで、式(7)中の波付き「h´j<t>」は、以下の式(8)で表すことができ、「z´j」および「r´j」は、以下の式(9)および式(10)で表される。また、式(8)〜式(10)の「W´」および「U´」は、復元器の接続係数を示すパラメータである。   Then, assuming that the state of the “j” -th node of the decompressor at time “t” is “h′j <t>”, “h′j <t>” can be expressed by the following equation (7) it can. Here, the waved “h′j <t>” in the formula (7) can be expressed by the following formula (8), and “z′j” and “r′j” are 9) and equation (10). Moreover, "W '" and "U'" of Formula (8)-Formula (10) are parameters which show the connection coefficient of a decompressor.

Figure 0006526607
Figure 0006526607

Figure 0006526607
Figure 0006526607

Figure 0006526607
Figure 0006526607

Figure 0006526607
Figure 0006526607

例えば、学習装置10は、学習器が文章に含まれる複数の単語、すなわち単語群の特徴および順番を学習し、復元器が学習器の出力から、学習器に入力された複数の単語が学習器に入力された順で出現する文章に対して付与すべきラベルを示す情報を出力するように、式(1)〜式(10)における「W」、「U」、「W´」および「U´」の値を学習する。   For example, in the learning device 10, the learning device learns a plurality of words included in the sentence, that is, the features and order of the word group, and the restoring device learns the plurality of words input to the learning device from the output of the learning device. "W", "U", "W '", and "U" in equations (1) to (10) so as to output information indicating labels to be attached to the sentences that appear in the order in which they are input to Learn the value of ''.

〔1−7.学習処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理の一例について説明する。まず、学習装置10は、利用者の発言Aや発言B等といった対話を入力として受付ける(ステップS1)。例えば、入力装置200は、マイクなどの音声を取得する音声取得装置を用いて、複数の利用者間で行われた対話の音声を取得する。そして、入力装置200は、任意の音声認識技術を用いて、対話をテキストデータに変換し、変換後のテキストデータ、すなわち、対話のテキストデータを学習装置10へと送信する。
[1-7. Example of learning process]
Next, an example of the learning process performed by the learning device 10 will be described with reference to FIG. First, the learning device 10 accepts a dialogue such as the user's statement A or statement B as an input (step S1). For example, the input device 200 acquires the voice of the dialog performed between a plurality of users using a voice acquisition device that acquires voice such as a microphone. Then, the input device 200 converts the dialogue into text data using any speech recognition technology, and transmits the converted text data, that is, the dialogue text data to the learning device 10.

より具体的には、入力装置200は、ある利用者による発言Aのテキストデータを発話のデータ(以下、「発話データ」と記載する場合がある。)とし、発言Aに対する他の利用者の応答である発言Bのテキストデータを応答のデータ(以下、「応答データ」と記載する場合がある。)として生成する。そして、入力装置200は、発話データおよび応答データを、対話のデータとして学習装置10へと送信する。   More specifically, the input device 200 sets text data of a speech A by a certain user as speech data (hereinafter sometimes referred to as "speech data"), and the response of the other user to the speech A The text data of statement B which is is generated as data of the response (which may hereinafter be described as "response data"). Then, the input device 200 transmits the speech data and the response data to the learning device 10 as data of dialogue.

このような場合、学習装置10は、入力した対話文に含まれる発話と応答とを、それぞれ第1RNNの学習器または復元器のいずれかに対応付けて、発話と応答とに内在する隠れた情報、すなわち、発話と応答とに内在する隠れた共通性をプレトレーニングする(ステップS2)。例えば、学習装置10は、対話のテキストデータから、発話とその発話に対応する応答とを抽出する。そして、学習装置10は、第1RNNに含まれる学習器EN01に対して発話に含まれる各単語をその発話に含まれる順に入力した場合に、学習器EN01の出力から、学習器EN01に入力した発話に対応する応答に含まれる各単語を、その応答に含まれる順で復元器DE01が出力するように、学習器EN01および復元器DE01の学習を行う。より具体的には、学習装置10は、学習器EN01および復元器DE01の伝達係数を補正する。   In such a case, the learning device 10 associates the utterance and the response included in the input dialogue text with either the learning device or the recovery device of the first RNN, respectively, and hides the hidden information inherent in the utterance and the response. That is, pre-training the hidden commonality inherent in speech and response (step S2). For example, the learning device 10 extracts an utterance and a response corresponding to the utterance from text data of a dialog. Then, when the learning device 10 inputs each word included in the utterance to the learning device EN01 included in the first RNN in the order included in the utterance, the utterance input to the learning device EN01 from the output of the learning device EN01 The learner EN01 and the restorer DE01 are trained such that the restorer DE01 outputs the words included in the response corresponding to the order in which the words are included in the response. More specifically, the learning device 10 corrects the transfer coefficients of the learning device EN01 and the restoring device DE01.

次に、学習装置10は、プレトレーニングを行った学習器EN01と新たな復元器DE02とを組み合わせた第2RNNを生成し、ラベル付き文章(すなわち、学習データ)の文章から、そのラベル付き文章のラベルを生成するように、第2RNNの学習を行う(ステップS3)。例えば、学習装置10は、第2RNNに含まれる学習器EN01に対してラベル付き文章の文章に含まれる各単語をその文章に含まれる順に入力した場合に、学習器EN01の出力から、ラベル付き文章のラベルを示す情報を復元器DE02が出力するように、学習器EN01および復元器DE02の学習を行う。   Next, the learning device 10 generates a second RNN combining the pre-trained learning device EN01 and the new restoring device DE02, and from the sentence of the labeled sentence (that is, learning data), the labeled sentence The second RNN is learned to generate a label (step S3). For example, when the learning device 10 inputs each word included in the sentence of the labeled sentence to the learning device EN01 included in the second RNN in the order included in the sentence, the output of the learning device EN01 indicates the labeled sentence The learner EN01 and the restorer DE02 are trained so that the restorer DE02 outputs information indicating the label of.

ここで、学習装置10は、ラベルの付与対象となる文章を端末装置100から取得したものとする(ステップS4)。このような場合、学習装置10は、測定時の処理を実行する。より具体的には、学習装置10は、ラベル付き文章を用いてラベルの学習を行った復元器DE02と、プレトレーニングを行った学習器EN01とを組み合わせた第3RNNを測定用RNNとして、端末装置100から取得した文章に付与するラベルを判定する(ステップS5)。例えば、学習装置10は、測定用RNNの学習器EN01に端末装置100から取得した文章に含まれる各単語を、各単語が出現する順序で入力する。そして、学習装置10は、測定用RNNの復元器DE02が出力した情報に基づいて、文章に付与すべきラベルを判定する。その後、学習装置10は、判定結果であるラベルを示す情報を、端末装置100に対して出力する(ステップS6)。   Here, it is assumed that the learning device 10 has acquired a sentence to which a label is to be attached from the terminal device 100 (step S4). In such a case, the learning device 10 executes processing at the time of measurement. More specifically, the learning device 10 uses, as a measurement RNN, a third RNN in which the restorer DE02 that has performed label learning using a labeled sentence and the learning device EN01 that has performed pre-training are terminal devices. The label given to the sentence acquired from 100 is determined (step S5). For example, the learning device 10 inputs the words included in the sentence acquired from the terminal device 100 to the learning device EN01 of the measurement RNN in the order in which the words appear. Then, the learning device 10 determines a label to be attached to the text based on the information output from the restoration device DE02 of the measurement RNN. Thereafter, the learning device 10 outputs information indicating the label that is the determination result to the terminal device 100 (step S6).

〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of learning device]
Hereinafter, an example of a functional configuration of the learning device 10 for realizing the above-described learning process will be described. FIG. 2 is a diagram illustrating an exemplary configuration of a learning device according to the embodiment. As shown in FIG. 2, the learning device 10 includes a communication unit 20, a storage unit 30, and a control unit 40.

通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や入力装置200との間で情報の送受信を行う。   The communication unit 20 is realized by, for example, a network interface card (NIC). The communication unit 20 is connected to the network N in a wired or wireless manner, and transmits and receives information to and from the terminal device 100 and the input device 200.

記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、対話データデータベース31、および学習データデータベース32を記憶する。なお、記憶部30は、例えば、学習するRNNのノードと伝達係数との関係性を示す情報等をさらに記憶しているものとする。   The storage unit 30 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 30 also stores a dialogue data database 31 and a learning data database 32. Note that the storage unit 30 further stores, for example, information indicating the relationship between the node of the RNN to be learned and the transfer coefficient.

対話データデータベース31には、プレトレーニングに用いる対話のデータが登録されている。例えば、図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。図3に示す例では、対話データデータベース31には、「対話ID」、「発話情報」、「応答情報」等といった項目を有する情報が登録される。なお、対話データデータベース31には、発話や応答を行った利用者の属性等、図3に示す情報以外の情報が登録されていてもよい。   In the dialogue data database 31, dialogue data used for pre-training is registered. For example, FIG. 3 is a diagram showing an example of information registered in the dialogue data database according to the embodiment. In the example shown in FIG. 3, information having items such as “dialogue ID”, “speech information”, “response information”, etc. is registered in the dialogue data database 31. In the dialogue data database 31, information other than the information shown in FIG. 3 may be registered, such as the attributes of the user who made the utterance or the response.

ここで、「対話ID(Identifier)」は、対話を識別するための情報である。また、「発話情報」とは、発話のテキストデータである。また、「応答情報」とは、対応付けられた発話に対する応答のテキストデータである。なお、図3に示す例では、「対話#1」、「発話#1」、「応答#1」等といった概念的な値について記載したが、実際には、対話を識別する識別子や、テキストデータ等が対話データデータベース31に登録される。   Here, "dialogue ID (Identifier)" is information for identifying a dialogue. Also, "utterance information" is text data of an utterance. Also, “response information” is text data of a response to the associated utterance. In the example shown in FIG. 3, conceptual values such as “dialogue # 1”, “utterance # 1”, “response # 1”, etc. are described, but in practice, an identifier for identifying dialogue, text data, etc. Etc. are registered in the dialogue data database 31.

例えば、図3に示す例では、対話ID「対話#1」、発話情報「発話#1」、および応答情報「応答#1」が対応付けて登録されている。このような情報は、対話ID「対話#1」が示す対話に含まれる発話のテキストデータが「発話#1」であり、この発話に対する応答のテキストデータが「応答#1」である旨を示す。   For example, in the example illustrated in FIG. 3, the dialog ID “dialogue # 1”, the utterance information “utterance # 1”, and the response information “response # 1” are registered in association with each other. Such information indicates that the text data of the utterance included in the dialogue indicated by the dialogue ID "dialogue # 1" is "utterance # 1" and the text data of the response to this utterance is "response # 1". .

図2に戻り、説明を続ける。学習データデータベース32には、RNNの学習に用いられる学習データ、すなわち、ラベル付き文章が登録されている。例えば、図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図4に示す例では、学習データデータベース32には、「学習データID」、「文章情報」、「ラベル情報」等といった項目を有する情報が登録される。なお、学習データデータベース32には、図3に示す情報以外にも、ラベル付き文章に関連する任意の情報が登録されていてもよい。   Return to FIG. 2 and continue the description. In the learning data database 32, learning data used for learning of the RNN, that is, sentences with labels are registered. For example, FIG. 4 is a diagram showing an example of information registered in a learning data database according to the embodiment. In the example shown in FIG. 4, information having items such as “learning data ID”, “text information”, “label information” and the like is registered in the learning data database 32. In addition to the information shown in FIG. 3, arbitrary information related to the labeled text may be registered in the learning data database 32.

ここで、「学習データID」は、学習データとしての対話を識別するための情報である。また、「文章情報」とは、ラベル付き文章の文章、すなわちテキストデータである。また、「ラベル情報」とは、対応付けられた文章に対して付与されるべきラベルを示す情報である。なお、図4に示す例では、「データ#1」、「文章#1」、「ラベル#1」等といった概念的な値について記載したが、実際には、ラベル付き文章を識別する識別子や、テキストデータ等が学習データデータベース32に登録される。   Here, “learning data ID” is information for identifying a dialogue as learning data. Also, “text information” is text of labeled text, that is, text data. Further, “label information” is information indicating a label to be provided to the associated text. In the example shown in FIG. 4, conceptual values such as “data # 1”, “text # 1”, “label # 1”, etc. are described, but actually, an identifier for identifying a text with a label, Text data and the like are registered in the learning data database 32.

例えば、図4に示す例では、学習データID「データ#1」、文章情報「文章#1」、およびラベル情報「ラベル#1」が対応付けて登録されている。このような情報は、学習データID「データ#1」が示すラベル付き文章に含まれる文章のテキストデータが「文章#1」であり、この文章に対して付与されるべきラベルが「ラベル#1」である旨を示す。   For example, in the example illustrated in FIG. 4, the learning data ID “data # 1”, the text information “text # 1”, and the label information “label # 1” are registered in association with each other. Such information is that the text data of the sentence included in the labeled sentence indicated by the learning data ID "data # 1" is "sentence # 1", and the label to be assigned to this sentence is "label # 1. It shows that it is ".

図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。   Return to FIG. 2 and continue the description. The control unit 40 is a controller, for example, a processor such as a central processing unit (CPU) or a micro processing unit (MPU), and executes various programs stored in the storage device in the learning device 10 by using a RAM or the like. It is realized by being implemented as a work area. The control unit 40 is a controller, and may be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図2に示すように、制御部40は、取得部41、第1学習部42、第2学習部43、生成部44、および測定部45を有する。   As shown in FIG. 2, the control unit 40 includes an acquisition unit 41, a first learning unit 42, a second learning unit 43, a generation unit 44, and a measurement unit 45.

取得部41は、所定の対話における発話と、その発話に対する応答とを取得する。例えば、取得部41は、入力装置200から対話のテキストデータを取得すると、取得したテキストデータの解析を行い、発話のテキストデータと、その発話に対する応答のテキストデータとを抽出する。そして、取得部41は、抽出した発話のテキストデータと応答のテキストデータとを対話データとして対話データデータベース31に登録する。なお、取得部41は、形態素解析等、任意の文字列解析技術を用いて、発話と、その発話に対応する応答とを抽出してよい。   The acquisition unit 41 acquires an utterance in a predetermined dialogue and a response to the utterance. For example, when acquiring the text data of dialog from the input device 200, the acquiring unit 41 analyzes the acquired text data, and extracts the text data of the utterance and the text data of the response to the utterance. Then, the acquisition unit 41 registers the extracted text data of the utterance and the text data of the response in the dialog data database 31 as dialog data. The acquiring unit 41 may extract an utterance and a response corresponding to the utterance using any character string analysis technology such as morphological analysis.

第1学習部42は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。すなわち、第1学習部42は、対話を用いたRNNのプレトレーニングを実行する。   The first learning unit 42 causes the learning device and the restoring device of the first RNN to learn the relationship between an utterance and a response in a predetermined dialogue. That is, the first learning unit 42 performs pre-training of the RNN using the dialogue.

例えば、第1学習部42は、対話データデータベース31から対話に含まれる発話と応答とを取得する。また、第1学習部42は、初期化された第1RNN等、プレトレーニングの対象となる第1RNNを準備する。そして、第1学習部42は、発話を第1RNNの学習器に入力した際に、その発話に対する応答を第1RNNの復元器が出力するように、学習器および復元器の学習を行う。より具体的には、第1学習部42は、発話に含まれる各単語を発話内で出現する順番で学習器に入力し、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう学習器と復元器を学習させる。すなわち、第1学習部42は、発話の各単語が有する特徴と各単語が出現する順番との特徴とを学習器と復元器とに学習させる。   For example, the first learning unit 42 acquires the utterance and the response included in the dialogue from the dialogue data database 31. In addition, the first learning unit 42 prepares a first RNN to be subjected to pre-training, such as the initialized first RNN. Then, when the first learning unit 42 inputs an utterance to the first RNN learning unit, the first learning unit 42 performs learning of the learning unit and the restoring unit so that the first RNN restoration unit outputs a response to the utterance. More specifically, the first learning unit 42 inputs each word included in the speech to the learning device in the order of appearance in the speech, and each word included in the response is extracted from the features encoded by the learning device. Train the learner and restorer to restore the words with the order in which they appear in the response. That is, the first learning unit 42 causes the learning device and the restoring device to learn the features of each word of the utterance and the features of the order in which the words appear.

なお、第1学習部42は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、第1学習部42には、応答に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させてもよい。   The first learning unit 42 may perform learning of the learning device and the restoring device so that when the response is input to the learning device, the restoring device outputs an utterance corresponding to the response. For example, the first learning unit 42 causes the learning device to learn the features possessed by each word along with the order in which the words included in the response appear in the utterance, and the features encoded by the learning device The decompressor may be trained to recover the words with the order in which each word appears in the response.

第2学習部43は、学習データデータベース32に登録された学習データであるラベル付き文章を用いて、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて生成された第2RNNや、第3RNNの学習を行う。なお、第2学習部43が実行する処理の例については、後述する。   The second learning unit 43 uses a sentence with a label, which is learning data registered in the learning data database 32, to generate a second RNN generated using at least one of a learning device or a restoring device included in the first RNN. And, do learning of the 3rd RNN. An example of processing performed by the second learning unit 43 will be described later.

生成部44は、第1学習部42によって学習が行われた学習器または復元器、すなわち、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。例えば、生成部44は、第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。   The generating unit 44 generates the second RNN using at least one of the learning device or the restoring device that has been learned by the first learning unit 42, that is, the learning device or the restoring device included in the first RNN. For example, the generation unit 44 generates a second RNN using the learning device included in the first RNN and the new recovery device.

このような第2RNNが生成された場合、第2学習部43は、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を、第2RNNに学習させる。   When such a second RNN is generated, the second learning unit 43 causes the second RNN to learn the relationship between the sentence of the labeled sentence registered in the learning data database 32 and the label of the labeled sentence.

また、生成部44は、第2学習部43によって第2RNNの学習が行われた場合、第1学習部42によってプレトレーニングが行われた第1RNNの学習器と、第2学習部43によって学習が行われた第2RNNの復元器とを含む第3RNNを生成する。そして、生成部44は、生成した第3RNNを測定用RNNとして記憶部30等に登録する。   In addition, when the second learning unit 43 performs the second RNN learning, the generating unit 44 performs the learning by the first RNN learning device for which the first learning unit 42 has performed the pre-training, and the second learning unit 43 A third RNN is generated that includes the performed second RNN's restorer. Then, the generation unit 44 registers the generated third RNN as a measurement RNN in the storage unit 30 or the like.

なお、第2学習部43は、第3RNNに対して、学習データを用いたさらなる学習を行ってもよい。例えば、第2学習部43は、第3RNNに対して、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を学習させる。そして、第2学習部43は、学習を行った第3RNNを測定用RNNとして記憶部30等に登録してもよい。   The second learning unit 43 may perform further learning using learning data for the third RNN. For example, the second learning unit 43 causes the third RNN to learn the relationship between the sentence of the labeled sentence registered in the learning data database 32 and the label of the labeled sentence. Then, the second learning unit 43 may register the third RNN subjected to the learning in the storage unit 30 or the like as the measurement RNN.

測定部45は、測定用RNNを用いた測定処理を実行する。例えば、測定部45は、端末装置100からラベルの付与対象となる文章を受付けた場合は、生成部44によって生成された第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定する。例えば、測定部45は、受付けられた文章に含まれる各単語を、文章中に出現する順序で測定用RNNの学習器に入力し、測定用RNNの復元器が出力した情報に基づいて、受付けられた文章に付与されるラベルを特定する。そして、測定部45は、特定したラベルを示す情報を、端末装置100へと送信する。   The measurement unit 45 executes measurement processing using the measurement RNN. For example, when the measuring unit 45 receives a sentence to which a label is to be attached from the terminal device 100, the third RNN generated by the generating unit 44 is specified as the measuring RNN, and the label given to the received sentence is specified. Do. For example, the measuring unit 45 inputs each word included in the received sentence into the learning unit of the measurement RNN in the order of appearance in the sentence, and receives it based on the information output by the restoration unit of the measurement RNN. Identify the label given to the sentence Then, the measuring unit 45 transmits information indicating the identified label to the terminal device 100.

なお、測定部45は、第2学習部43によってラベル付き文章を用いた学習がさらに行われた第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。また、測定部45は、第2学習部43により学習が行われた第2RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。   The measuring unit 45 may specify the label given to the received sentence as the third RNN for which the second learning unit 43 further performs learning using the sentence with label as the measurement RNN. In addition, the measurement unit 45 may specify the label given to the received sentence, using the second RNN learned by the second learning unit 43 as the measurement RNN.

〔3.RNNのバリエーション〕
次に、図5および図6を用いて、学習装置10が測定用RNNとして用いるRNNの生成のバリエーションについて説明する。図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。また、図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。
[3. Variation of RNN]
Next, variations of generation of RNN used by the learning device 10 as a measurement RNN will be described with reference to FIGS. 5 and 6. FIG. 5 is a first diagram showing a variation of RNN generated by the learning device according to the embodiment. FIG. 6 is a second diagram showing a variation of the RNN generated by the learning device according to the embodiment.

まず、図5を用いて、第2RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS10)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS11)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS12)。そして、学習装置10は、学習を行った第2RNNの復元器DE02と(ステップS13)、学習を行った第2RNNの学習器EN01と(ステップS14)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS15)。   First, an example of processing for setting the second RNN as a measurement RNN will be described using FIG. 5. For example, the learning device 10 generates a first RNN including a learning device EN01 and a restoring device DE01, and performs pre-training using an utterance and a response (step S10). Subsequently, the learning device 10 takes out the learning device EN01 included in the first RNN (step S11), generates a second RNN using the learning device EN01 and the new decompressor DE02, and generates a sentence with a label and a label The second RNN is learned by using (step S12). Then, the learning apparatus 10 uses the restoration device DE02 of the second RNN that has performed learning (step S13), and the learning device EN01 of the second RNN that has performed learning (step S14) as the measurement RNN. To execute a measurement process for identifying the label (step S15).

次に、図6を用いて、ラベル付き文章を用いた学習を行った第3RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS20)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS21)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS22)。   Next, with reference to FIG. 6, an example of processing for setting the third RNN subjected to learning using a labeled sentence as the measurement RNN will be described. For example, the learning device 10 generates a first RNN including a learning device EN01 and a restoring device DE01, and performs pre-training using an utterance and a response (step S20). Subsequently, the learning device 10 takes out the learning device EN01 included in the first RNN (step S21), generates a second RNN using the learning device EN01 and the new decompressor DE02, and generates a sentence with a label and a label The second RNN is learned by using (step S22).

また、学習装置10は、学習を行った第2RNNの復元器DE02を取り出し(ステップS23)、プレトレーニングを行った第1RNNに含まれる学習器EN01と組み合わせた第3RNNを生成し(ステップS24)、ラベル付き文章を用いて第3RNNの学習を再度実行する(ステップS25)。そして、学習装置10は、学習を行った第3RNNの復元器DE02と(ステップS26)、学習を行った第3RNNの学習器EN01と(ステップS27)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS28)。   Also, the learning device 10 takes out the restorer DE02 of the second RNN which has performed learning (step S23), and generates a third RNN combined with the learning device EN01 included in the first RNN which has performed pre-training (step S24). The learning of the third RNN is executed again using the labeled text (step S25). Then, the learning apparatus 10 uses the restoration device DE02 of the third RNN that has performed learning (step S26), and the learning device EN01 of the third RNN that has performed learning (step S27) as the measurement RNN. To execute a measurement process for identifying the label (step S28).

〔4.学習装置が実行する処理の流れの一例〕
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、対話文を取得し(ステップS101)、対話文から発話と応答とを抽出する(ステップS102)。そして、学習装置10は、発話から応答を再現するように、第1RNNに含まれる学習器と復元器とのプレトレーニングを行う(ステップS103)。
[4. Example of Flow of Processing Executed by Learning Device]
Next, an example of the flow of the learning process performed by the learning device 10 will be described using FIG. 7. FIG. 7 is a flowchart illustrating an example of the flow of learning processing according to the embodiment. First, the learning device 10 acquires a dialogue sentence (step S101), and extracts an utterance and a response from the dialogue sentence (step S102). Then, the learning device 10 performs pre-training on the learning device and the restoring device included in the first RNN so as to reproduce the response from the speech (step S103).

続いて、学習装置10は、プレトレーニング済みの学習器と、新たな復元器とを用いた第2RNNを生成し(ステップS104)、ラベル付き文章の文章からラベルを示す情報を生成するように、第2RNNの学習を行う(ステップS105)。そして、学習装置10は、学習済みの第2RNNの復元器と、プレトレーニング済みの第1RNNに含まれる学習器とを用いた第3RNNを生成し(ステップS106)、生成した第3RNNを測定用RNNとして用いて、測定処理を実行し(ステップS107)、処理を終了する。   Subsequently, the learning device 10 generates a second RNN using the pre-trained learning device and the new restoring device (step S104), and generates information indicating a label from the text of the labeled text. The second RNN is learned (step S105). Then, the learning device 10 generates a third RNN using the restored second RNN and the learning device included in the pre-trained first RNN (step S106), and the generated third RNN for measurement RNN To execute the measurement process (step S107), and the process ends.

〔5.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
[5. Modified example]
In the above, an example of the learning process by the learning device 10 has been described. However, the embodiments are not limited to this. Hereinafter, variations of the learning process performed by the learning device 10 will be described.

〔5−1.測定用RNNについて〕
上述した例では、学習装置10は、生成した測定用RNNを用いて、ラベルの付与対象となる文章に付与するラベルを特定した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、生成した測定用RNNを用いて、文章からラベルを付与するプログラムを生成し、生成したプログラムを出力してもよい。このようなプログラムは、学習装置10以外の情報処理装置が実行することで、学習装置10により生成された測定用RNNを用いて、文章からラベルを特定させることができる。すなわち、学習装置10が生成した測定用RNNは、文章からラベルを特定するプログラムのプログラムパラメータとして用いられてもよい。
[5-1. About RNN for measurement]
In the example described above, the learning device 10 specifies the label to be attached to the text to which the label is to be attached, using the generated measurement RNN. However, the embodiments are not limited to this. For example, the learning device 10 may generate a program for applying a label from a sentence using the generated measurement RNN, and may output the generated program. Such a program can be executed by an information processing apparatus other than the learning apparatus 10, whereby the label can be specified from the text using the measurement RNN generated by the learning apparatus 10. That is, the measurement RNN generated by the learning device 10 may be used as a program parameter of a program for identifying a label from a sentence.

〔5−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。また、学習装置10は、対話データデータベース31および学習データデータベース32を外部のストレージサーバに記憶させてもよい。
5-2. Device configuration〕
In the example described above, the learning device 10 executes the learning process and the measurement process in the learning device 10. However, the embodiments are not limited to this. For example, the learning device 10 may perform only the learning process, and another device may perform the measurement process. Also, the learning device 10 may store the dialogue data database 31 and the learning data database 32 in an external storage server.

〔5−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5-3. Other]
Further, among the processes described in the above embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being manually performed. All or part of them can be performed automatically by known methods. In addition to the above, the processing procedures, specific names, and information including various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した第1学習部42及び第2学習部43は統合されてもよい。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured. For example, the first learning unit 42 and the second learning unit 43 illustrated in FIG. 2 may be integrated.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, it is possible to combine suitably each embodiment mentioned above in the range which does not contradict process content.

〔6.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. program〕
Further, the learning device 10 according to the embodiment described above is realized by, for example, a computer 1000 configured as shown in FIG. FIG. 8 is a diagram illustrating an example of the hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a form in which an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected by a bus 1090. Have.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。   The arithmetic unit 1030 operates based on a program stored in the primary storage unit 1040 or the secondary storage unit 1050, a program read from the input unit 1020, etc., and executes various processing. The primary storage device 1040 is a memory device, such as a RAM, temporarily storing data used by the computing device 1030 for various operations. The secondary storage device 1050 is a storage device in which data used by the arithmetic device 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), an HDD, a flash memory or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。   The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), or the like It is realized by a connector of a standard such as HDMI (High Definition Multimedia Interface). The input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, and a scanner, and is realized by, for example, USB or the like.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。   The input device 1020 may be, for example, an optical recording medium such as a compact disc (CD), a digital versatile disc (DVD), a phase change rewritable disc (PD), a magneto-optical recording medium such as a magneto-optical disc (MO), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. The input device 1020 may also be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。   The network IF 1080 receives data from another device via the network N and sends it to the computing device 1030, and transmits data generated by the computing device 1030 via the network N to the other device.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。   The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the processing unit 1030 loads a program from the input unit 1020 or the secondary storage unit 1050 onto the primary storage unit 1040 and executes the loaded program.

例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。   For example, when the computer 1000 functions as the learning device 10, the computing device 1030 of the computer 1000 implements the function of the control unit 40 by executing the program loaded on the primary storage device 1040.

〔7.効果〕
上述したように、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。そして、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成し、文章とその文章に付与されるラベルとの関係性を、第2RNNに学習させる。このように、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うので、文章に付与するラベルの精度を向上させることができる。また、学習データがある程度潤沢にある場合は、従来の学習手法で学習したRNNよりも分類精度(性能)が良いRNNを取得することができる。
[7. effect〕
As described above, the learning device 10 causes the learning device and the restoring device of the first RNN to learn the relationship between the utterance and the response in the predetermined dialogue. Then, the learning device 10 generates a second RNN using at least one of the learning device or the restoring device in which the learning has been performed, and the relationship between the sentence and the label attached to the sentence is the second RNN. Let them learn. As described above, since the learning device 10 pre-trains the RNN using the hidden commonality included in the utterance and the response to the utterance, the accuracy of the label given to the sentence can be improved. In addition, when the learning data is abundant to some extent, it is possible to obtain an RNN having better classification accuracy (performance) than an RNN learned by the conventional learning method.

また、学習装置10は、発話を学習器に入力した際に、発話に対する応答を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。   In addition, when the speech is input to the learning device, the learning device 10 performs learning of the learning device and the restoring device such that the restoration device outputs a response to the speech. For example, the learning device 10 causes the learning device to learn the features possessed by each word along with the order in which the words included in the utterance appear in the utterance, and each word included in the response is extracted from the features encoded by the learning device. Train the decompressor to recover with the order in which the words appear in the response.

また、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させる。   Further, when the response is input to the learning device, the learning device 10 performs learning of the learning device and the recovery device such that the recovery device outputs an utterance corresponding to the response. For example, the learning device 10 causes the learning device to learn the features possessed by each word along with the order in which the words included in the response appear in the response, and each word included in the utterance is extracted from the features encoded by the learning device. Train the decompressor to recover with the order in which the words appear in the utterance.

上述した処理の結果、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うことができる。   As a result of the above-described processing, the learning device 10 can perform pre-training of the RNN using the hidden commonality included in the utterance and the response to the utterance.

また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。   Also, the learning device 10 generates a second RNN using a learner included in the first RNN subjected to the pre-training and a new restorer. Also, the learning device 10 generates a third RNN including a learning device included in the first RNN subjected to the pre-training and a restoration device included in the second RNN subjected to the learning using the learning data. Then, when the sentence to which the label is to be attached is received, the learning device 10 specifies the label to be attached to the received sentence using the third RNN. For this reason, the learning device 10 can prevent the deterioration of the accuracy of the label given to the text.

また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、生成された第3RNNに学習させ、学習が行われた第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。   Also, the learning device 10 generates a third RNN including a learning device included in the first RNN subjected to the pre-training and a restoration device included in the second RNN subjected to the learning using the learning data. Then, the learning device 10 causes the generated third RNN to learn the relationship between the text and the label attached to the text, and the label attached to the received text using the third RNN subjected to the learning. Identify For this reason, the learning device 10 can prevent the deterioration of the accuracy of the label given to the text.

また、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第2RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。   When the learning device 10 receives a sentence to which a label is to be attached, the learning device 10 uses the second RNN to specify a label to be attached to the received sentence. For this reason, the learning device 10 can prevent the deterioration of the accuracy of the label given to the text.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although some of the embodiments of the present application have been described above in detail based on the drawings, these are only examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the description of the invention. It is possible to implement the invention in other improved forms.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。   Also, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the generation unit can be read as a generation unit or a generation circuit.

20 通信部
30 記憶部
31 対話データデータベース
32 学習データデータベース
40 制御部
41 取得部
42 第1学習部
43 第2学習部
44 生成部
45 測定部
100 端末装置
200 入力装置
Reference Signs List 20 communication unit 30 storage unit 31 dialogue data database 32 learning data database 40 control unit 41 acquisition unit 42 first learning unit 43 second learning unit 44 generation unit 45 measurement unit 100 terminal device 200 input device

Claims (11)

第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、
前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部と
を有することを特徴とする学習装置。
A first learning unit that causes a learning device and a restoring device of the first recurrent neural network to learn the relationship between an utterance and a response in a predetermined dialogue;
A first generation unit that generates a second recurrent neural network using at least one of a learning device or a restoring device that has been learned by the first learning device;
And a second learning unit that causes the second recurrent neural network to learn the relationship between a sentence and a label given to the sentence.
前記第1学習部は、前記発話を前記学習器に入力した際に、当該発話に対する応答を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
ことを特徴とする請求項1に記載の学習装置。
The first learning unit is characterized in that when the speech is input to the learning device, the first learning unit performs learning of the learning device and the restoration device such that the restoration device outputs a response to the speech. The learning device according to Item 1.
前記第1学習部は、前記発話に含まれる各単語が当該発話内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記応答に含まれる各単語を各単語が当該応答内で出現する順番とともに復元するよう前記復元器を学習させる
ことを特徴とする請求項2に記載の学習装置。
The first learning unit causes the learning device to learn the features of each word along with the order in which the words included in the utterance appear in the utterance, and the features encoded by the learning device are included in the response. The learning device according to claim 2, wherein the decompressor is trained to recover each word in the response along with the order in which each word appears in the response.
前記第1学習部は、前記応答を前記学習器に入力した際に、当該応答に対応する発話を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
ことを特徴とする請求項1に記載の学習装置。
The first learning unit performs learning of the learning device and the restoring device such that when the response is input to the learning device, the restoring device outputs an utterance corresponding to the response. The learning device according to claim 1.
前記第1学習部は、前記応答に含まれる各単語が当該応答内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記発話に含まれる各単語を各単語が当該発話内で出現する順番とともに復元するよう前記復元器を学習させる
ことを特徴とする請求項4に記載の学習装置。
The first learning unit causes the learning device to learn the features of each word along with the order in which the words included in the response appear in the response, and the features encoded by the learning device are included in the utterance. 5. The learning apparatus according to claim 4, wherein the decompressor is trained so as to recover each word that is generated along with the order in which each word appears in the utterance.
前記第1生成部は、前記第1学習部によって学習が行われた学習器と新たな復元器とを用いて前記第2リカレントニューラルネットワークを生成する
ことを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。
The first generation unit generates the second recurrent neural network using a learning device that has been learned by the first learning unit and a new restoration device. The learning device according to any one.
前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
ラベルの付与対象となる文章を受付けた場合は、前記第2生成部により生成された前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。
A second generation unit that generates a third recurrent neural network including a learning unit learned by the first learning unit and a restoration unit included in the second recurrent neural network learned by the second learning unit;
When a sentence to which a label is to be attached is received, the third recurrent neural network generated by the second generation unit is used to specify a label to be attached to the received sentence. The learning device according to claim 6, characterized in that
前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2生成部によって生成された第3リカレントニューラルネットワークに学習させる第3学習部と、
ラベルの付与対象となる文章を受付けた場合は、前記第3学習部により学習が行われた前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。
A second generation unit that generates a third recurrent neural network including a learning unit learned by the first learning unit and a restoration unit included in the second recurrent neural network learned by the second learning unit;
A third learning unit that causes the third recurrent neural network generated by the second generation unit to learn the relationship between the sentence and the label attached to the sentence;
When a sentence to which a label is to be attached is received, the identification unit for identifying a label to be attached to the accepted sentence using the third recurrent neural network learned by the third learning unit The learning apparatus according to claim 6, comprising:
ラベルの付与対象となる文章を受付けた場合は、前記第2学習部により学習が行われた前記第2リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。
When a sentence to which a label is to be attached is received, the identification unit for identifying a label to be attached to the accepted sentence using the second recurrent neural network learned by the second learning unit The learning apparatus according to claim 6, comprising:
学習装置が実行する学習方法であって、
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と
を含むことを特徴とする学習方法。
A learning method executed by the learning device,
A first learning step of causing the learning device and the restoring device of the first recurrent neural network to learn the relationship between an utterance and a response in a predetermined dialogue;
A first generation step of generating a second recurrent neural network using at least one of a learner and a restorer trained in the first learn step;
And a second learning step of causing the second recurrent neural network to learn the relationship between a sentence and a label attached to the sentence.
コンピュータに
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習手順と、
前記第1学習手順によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成手順と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習手順と
を実行させる学習プログラム。
A first learning procedure for causing a computer to learn the relationship between an utterance and a response in a predetermined dialogue on a learning device and a restoring device included in the first recurrent neural network;
A first generation procedure for generating a second recurrent neural network using at least one of a learner and a restorer trained by the first learn procedure;
A second learning procedure for causing the second recurrent neural network to learn the relationship between a sentence and a label given to the sentence.
JP2016161488A 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program Active JP6526607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161488A JP6526607B2 (en) 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161488A JP6526607B2 (en) 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program

Publications (2)

Publication Number Publication Date
JP2018028872A JP2018028872A (en) 2018-02-22
JP6526607B2 true JP6526607B2 (en) 2019-06-05

Family

ID=61248452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161488A Active JP6526607B2 (en) 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program

Country Status (1)

Country Link
JP (1) JP6526607B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220013850A (en) * 2020-07-27 2022-02-04 주식회사 딥브레인에이아이 Method and apparatus for generating speech video

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6222821B2 (en) * 2013-10-10 2017-11-01 日本放送協会 Error correction model learning device and program
JP6062879B2 (en) * 2014-03-14 2017-01-18 日本電信電話株式会社 Model learning apparatus, method and program

Also Published As

Publication number Publication date
JP2018028872A (en) 2018-02-22

Similar Documents

Publication Publication Date Title
Ozdemir et al. Feature Engineering Made Easy: Identify unique features from your dataset in order to build powerful machine learning systems
US20220222489A1 (en) Generation of training data for machine learning based models for named entity recognition for natural language processing
JP6462970B1 (en) Classification device, classification method, generation method, classification program, and generation program
CN109766418B (en) Method and apparatus for outputting information
CN113128227A (en) Entity extraction method and device
CN113901191A (en) Question-answer model training method and device
CN112805715A (en) Identifying entity attribute relationships
WO2019133676A1 (en) System and method for domain-and language-independent definition extraction using deep neural networks
CN115391499A (en) Method for generating multitask generation model, question-answer pair generation method and related device
JP6770709B2 (en) Model generator and program for machine learning.
JP6391617B2 (en) Learning device, sentence automatic generation device, and learning method
JP6975610B2 (en) Learning device and learning method
JP6400038B2 (en) Extraction apparatus and extraction method
JP6775366B2 (en) Selection device and selection method
CN112307738A (en) Method and device for processing text
JP6526607B2 (en) Learning apparatus, learning method, and learning program
JP6680655B2 (en) Learning device and learning method
Promrit et al. Convolutional neural networks for thai poem classification
JP6082657B2 (en) Pose assignment model selection device, pose assignment device, method and program thereof
JP2019079087A (en) Learning device, program parameter and learning method
JP2019021218A (en) Learning device, program parameter, learning method and model
Manaswi et al. Developing chatbots
Lamons et al. Python Deep Learning Projects: 9 projects demystifying neural network and deep learning models for building intelligent systems
WO2018066083A1 (en) Learning program, information processing device and learning method
JP2018010481A (en) Deep case analyzer, deep case learning device, deep case estimation device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180718

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350