JP2018028872A - Learning device, method for learning, program parameter, and learning program - Google Patents

Learning device, method for learning, program parameter, and learning program Download PDF

Info

Publication number
JP2018028872A
JP2018028872A JP2016161488A JP2016161488A JP2018028872A JP 2018028872 A JP2018028872 A JP 2018028872A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2018028872 A JP2018028872 A JP 2018028872A
Authority
JP
Japan
Prior art keywords
learning
sentence
neural network
rnn
recurrent neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016161488A
Other languages
Japanese (ja)
Other versions
JP6526607B2 (en
Inventor
清水 徹
Toru Shimizu
徹 清水
伸幸 清水
Nobuyuki Shimizu
伸幸 清水
隼人 小林
Hayato Kobayashi
隼人 小林
香里 谷尾
Kaori Tanio
香里 谷尾
晃平 菅原
Kohei Sugawara
晃平 菅原
ヒンチュン マク
Hing Chun Mak
ヒンチュン マク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016161488A priority Critical patent/JP6526607B2/en
Publication of JP2018028872A publication Critical patent/JP2018028872A/en
Application granted granted Critical
Publication of JP6526607B2 publication Critical patent/JP6526607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase the accuracy of a label provided to a sentence.SOLUTION: A learning device according to the present application includes: a first learning section for allowing a learning unit and a restoration unit of a first recurrent neural network to learn the relation between a speech generation and a response in a predetermined conversation; a first generation section for generating a second recurrent neural network, using at least one of the learning unit and the restoration unit having learned by the action of the first learning section; and a second learning section for allowing the second recurrent neural network to learn the relation between a sentence and a label provided to the sentence.SELECTED DRAWING: Figure 1

Description

本発明は、学習装置、学習方法、プログラムパラメータおよび学習プログラムに関する。   The present invention relates to a learning device, a learning method, a program parameter, and a learning program.

従来、RNN(Recurrent neural network)やディープラーニング等と呼ばれる技術を用いて、情報にラベルを付与する技術が知られている。このような技術の一例として、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行い、文章にラベルを付与する技術が知られている。   2. Description of the Related Art Conventionally, a technique for labeling information using a technique called RNN (Recurrent neural network), deep learning, or the like is known. As an example of such a technique, a technique is known in which a learning device learns to output a label indicating the content or type of a sentence according to the content of the input sentence, and gives a label to the sentence. .

“Learning phrase representations using RNN encoder-decoder for statistical machine translation.” K. Cho, B. van Merrienboer, C. Gulcehre, D. Bahdanau,F. Bougares, H. Schwenk, and Y. Bengio. In Proceedings of the 2014 Confer-ence on EMNLP, 2014.“Learning phrase representations using RNN encoder-decoder for statistical machine translation.” K. Cho, B. van Merrienboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, and Y. Bengio. In Proceedings of the 2014 Confer-ence on EMNLP, 2014.

Socher, R.; Perelygin, A.; Wu, J.; Chuang, J.; Manning, C. D.; Ng, A.; and Potts, C. 2013. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP 2013), 1631-1642. Association for Computational Linguistics.Socher, R .; Perelygin, A .; Wu, J .; Chuang, J .; Manning, CD; Ng, A .; and Potts, C. 2013.Recursive deep models for semantic compositionality over a sentiment treebank.In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP 2013), 1631-1642. Association for Computational Linguistics.

しかしながら、従来技術では、学習器が適切なラベルを付与することができない場合がある。   However, in the prior art, the learning device may not be able to give an appropriate label.

例えば、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行う場合には、文章とその文章に付与すべきラベルとの関係性を学習器に学習させることとなる。しかしながら、文章とその文章に付与すべきラベルとを含む正解データが十分に準備できない場合には、文章とラベルとの関係性を適切に学習することができず、学習器が適切なラベルを付与することができなくなる恐れがある。   For example, if the learning device learns to output a label indicating the content or type of a sentence according to the content of the input sentence, it learns the relationship between the sentence and the label to be assigned to the sentence. Will be made to learn. However, if the correct data including the sentence and the label to be attached to the sentence cannot be prepared sufficiently, the relationship between the sentence and the label cannot be properly learned, and the learning device assigns an appropriate label. You may not be able to do it.

本願は、上記に鑑みてなされたものであって、文章に付与するラベルの精度を向上させることを目的とする。   The present application has been made in view of the above, and an object thereof is to improve the accuracy of a label applied to a sentence.

本願に係る学習装置は、第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部ととを有することを特徴とする。   The learning device according to the present application performs learning by a first learning unit that causes a learning device and a restorer included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue, and the first learning unit performs learning. The relationship between the first generation unit that generates the second recurrent neural network using at least one of the learned learner and the restorer, and the sentence and the label given to the sentence is expressed as the second recurrent. And a second learning unit that causes the neural network to learn.

実施形態の一態様によれば、文章に付与するラベルの精度を向上させることができる。   According to one aspect of the embodiment, it is possible to improve the accuracy of a label attached to a sentence.

図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a learning process executed by the learning device according to the embodiment. 図2は、実施形態に係る学習装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the learning device according to the embodiment. 図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of information registered in the dialogue data database according to the embodiment. 図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of information registered in the learning data database according to the embodiment. 図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。FIG. 5 is a first diagram illustrating variations of the RNN generated by the learning device according to the embodiment. 図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。FIG. 6 is a second diagram illustrating variations of the RNN generated by the learning device according to the embodiment. 図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。FIG. 7 is a flowchart for explaining an example of the flow of the learning process according to the embodiment. 図8は、ハードウェア構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a hardware configuration.

以下に、本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
Hereinafter, a learning apparatus, a learning method, a program parameter, and a mode for carrying out a learning program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. In addition, the learning apparatus, the learning method, the program parameter, and the learning program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
[Embodiment]

〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
[1-1. Example of learning device)
First, an example of learning processing executed by the learning device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a learning process executed by the learning device according to the embodiment. In FIG. 1, the learning device 10 is an information processing device that performs a learning process described below, and is realized by, for example, a server device or a cloud system.

より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、利用者が使用する端末装置100といった任意の装置と通信が可能である。また、学習装置10は、任意の利用者間における対話を取得するための入力装置200(例えば、図2を参照)と通信可能である。   More specifically, the learning device 10 can communicate with an arbitrary device such as the terminal device 100 used by the user via a predetermined network N such as the Internet. In addition, the learning device 10 can communicate with an input device 200 (see, for example, FIG. 2) for acquiring a dialogue between arbitrary users.

なお、端末装置100や入力装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。また、学習装置10は、サーバ装置やクラウドシステム等の任意の情報処理装置により実現される。   The terminal device 100 and the input device 200 are realized by an information processing device such as a smart device such as a smartphone or a tablet, a desktop PC (Personal Computer), a notebook PC, or the like. The learning device 10 is realized by an arbitrary information processing device such as a server device or a cloud system.

〔1−2.学習処理について〕
ここで、学習装置10は、入力された文章に対し、その文章の種別や内容等といった属性を示す属性情報を付与するためのモデルを学習する。このような属性情報は、ラベル、タグ、又はメタデータ等と呼ばれ、文章の検索や選択を行う際に利用される。なお、以下の説明では属性情報をラベルと記載する。
[1-2. About the learning process)
Here, the learning apparatus 10 learns a model for giving attribute information indicating attributes such as the type and content of the sentence to the input sentence. Such attribute information is called a label, tag, or metadata, and is used when searching or selecting a sentence. In the following description, attribute information is referred to as a label.

例えば、学習装置10は、文章に含まれる複数の単語を、各単語が文章中に出現する順に入力した際に、各単語の特徴と、各単語が出現する順番の特徴とを学習するリカレントニューラルネットワーク(以下「RNN(Recurrent Neural Network)と記載する。)の学習を行う。ここで、RNNは、複数の情報を順に入力した際に、各情報の特徴と入力された順番の特徴とを符号化し、符号化した特徴を出力する学習器(エンコーダ)と、学習器が出力した特徴に基づいて、新たな情報を復元する復元器(デコーダ)とを有するニューラルネットワークである。例えば、復元器は、学習器が出力した特徴から、学習器に入力された複数の情報を、入力した順に復元するといった処理を実行する。   For example, when the learning apparatus 10 inputs a plurality of words included in a sentence in the order in which each word appears in the sentence, the recurrent neural network learns the characteristics of each word and the characteristics in the order in which each word appears. A network (hereinafter referred to as “RNN (Recurrent Neural Network)”) is learned. Here, when a plurality of pieces of information are sequentially input, the RNN encodes the characteristics of each information and the characteristics of the input order. And a learning device (encoder) that outputs encoded features and a restoration device (decoder) that restores new information based on the features output from the learning device. Then, a process of restoring a plurality of pieces of information input to the learning device in the input order from the features output by the learning device is executed.

例えば、学習装置10は、RNNの学習に用いられる学習データとして、所定の文章と、その文章に付与すべきラベルとの組を取得する。このような場合、学習装置10は、文章に含まれる単語をRNNに入力した際に、文章に付与すべきラベルを出力するようにRNNの学習を行う。例えば、学習装置10は、バックプロパゲーション法等、ディープラーニングやニューラルネットワーク等の学習に用いられる任意の学習手法を用いて、RNNの学習を実行する。   For example, the learning device 10 acquires a set of a predetermined sentence and a label to be given to the sentence as learning data used for RNN learning. In such a case, the learning device 10 learns the RNN to output a label to be given to the sentence when a word included in the sentence is input to the RNN. For example, the learning device 10 performs RNN learning using an arbitrary learning method used for learning such as deep learning or a neural network such as a back-propagation method.

しかしながら、学習データの数が十分に取得できなかった場合には、文章に含まれる各単語の特徴や、単語が出現する順番の特徴等を適切に学習することができず、文章に付与するラベルの精度が低下する恐れがある。   However, if the number of learning data cannot be acquired sufficiently, it is not possible to properly learn the characteristics of each word included in the sentence, the characteristics of the order in which the words appear, etc. There is a risk that the accuracy of the will decrease.

そこで、学習装置10は、以下の学習処理を実行する。まず、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。続いて、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、第2RNNに学習させる。すなわち、学習装置10は、対話に含まれる発話と応答とを用いて、文章とラベルとの関係性のプレトレーニングを行う。   Therefore, the learning device 10 executes the following learning process. First, the learning device 10 causes the learning device and the restoration device included in the first RNN to learn the relationship between utterances and responses in a predetermined dialogue. Subsequently, the learning device 10 generates the second RNN using at least one of the learning device or the restoring device in which learning has been performed. Then, the learning device 10 causes the second RNN to learn the relationship between the sentence and the label attached to the sentence. That is, the learning device 10 performs pre-training on the relationship between the sentence and the label using the utterance and the response included in the dialogue.

ここで、対話に含まれる発話と応答とには、隠れた共通性が含まれると予測される。例えば、ある小説を原作とするアニメや映画が存在する場合に、対話に含まれる発話と応答とには、小説に関する対話であるのか、アニメに関する対話であるのか、映画に関する対話であるのか等といった隠れた共通性が存在する。また、対話に含まれる発話と、発話に対する応答とには、共通する文脈(コンテキスト)が存在すると予測される。このような共通性は、文章のコンテキストとラベルのコンテキストとの共通性に類似すると予測される。すると、発話と応答との関係性をあらかじめ学習した場合には、文章とラベルとの共通性や共起性を補強しうると考えられる。   Here, it is predicted that hidden commonality is included in the utterance and response included in the dialogue. For example, when there is an anime or movie based on a novel, whether the utterance and response included in the dialogue is a dialogue about a novel, a dialogue about an animation, a dialogue about a movie, etc. There is a hidden commonality. Further, it is predicted that a common context (context) exists in the utterance included in the dialogue and the response to the utterance. Such commonality is expected to be similar to the commonality between the sentence context and the label context. Then, if the relationship between the utterance and the response is learned in advance, it is considered that the commonality and co-occurrence between the sentence and the label can be reinforced.

そこで、学習装置10は、発話と応答とを用いて、RNNに含まれる学習器と復元器とのプレトレーニングを行う。例えば、学習装置10は、発話を学習器に入力した際に、その発話に対する応答を復元器が出力するように、学習器および復元器のプレトレーニングを行う。より具体的には、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに、その各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が発話を符号化した特徴、すなわち、学習器が出力する情報から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。   Therefore, the learning device 10 performs pre-training of the learning device and the restoration device included in the RNN using the utterance and the response. For example, when the utterance is input to the learning device, the learning device 10 performs pre-training of the learning device and the restoration device so that the restoration device outputs a response to the utterance. More specifically, the learning device 10 causes the learning device to learn the characteristics of each word along with the order in which each word included in the utterance appears in the utterance. Then, the learning device 10 uses a restorer to restore each word included in the response together with the order in which each word appears in the response from the feature that the learner has encoded the utterance, that is, the information output by the learner. Let them learn.

なお、学習装置10は、発話と応答とを、それぞれ学習器または復元器のいずれかに対応付けるのであれば、発話を学習器に対応付けて学習させ、応答を復元器に対応付けて学習させる必要はない。例えば、学習装置10は、応答を学習器に対応付けて学習させ、発話を復元器に対応付けて学習させてもよい。具体的には、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させてもよい。また、学習装置10は、学習器と復元器とでパラメータを共有させることで、学習器兼復元器となるモデルの学習を行なってもよい。例えば、学習装置10は、学習器兼復元器として動作する1つのRNNの学習を行ってもよい。   Note that if the learning device 10 associates an utterance and a response with either a learning device or a restoring device, the learning device 10 needs to learn the utterance in association with the learning device and learn the response in association with the restoring device. There is no. For example, the learning device 10 may learn the response in association with the learning device, and learn the utterance in association with the decompressor. Specifically, the learning device 10 may learn the learning device and the restoration device so that when the response is input to the learning device, the restoration device outputs an utterance corresponding to the response. For example, the learning device 10 causes the learner to learn the characteristics of each word along with the order in which each word included in the response appears in the response. Then, the learning device 10 may cause the restoration device to learn to restore each word included in the utterance together with the order in which each word appears in the utterance from the features encoded by the learning device. Further, the learning device 10 may perform learning of a model that serves as a learner and restorer by sharing parameters between the learner and the restorer. For example, the learning apparatus 10 may perform learning of one RNN that operates as a learner / restorer.

〔1−3.RNNの生成について〕
ここで、学習装置10は、プレトレーニングを行ったRNN、すなわち、第1RNNをそのまま用いて、文章とラベルとの関係性を学習させてもよい。また、学習装置10は、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、新たなRNNを生成し、生成したRNNに文章とラベルとの関係性を学習させてもよい。
[1-3. About generation of RNN]
Here, the learning device 10 may learn the relationship between the sentence and the label by using the RNN that has undergone pre-training, that is, the first RNN as it is. In addition, the learning device 10 may generate a new RNN using at least one of the learning device and the restoring device included in the first RNN, and let the generated RNN learn the relationship between the sentence and the label. Good.

例えば、学習装置10は、第1RNNに含まれる学習器と、新たに生成した復元器とを用いて、第2RNNを生成する。ここで、新たに生成した復元器とは、第1RNNに含まれる復元器であれば、任意の復元器が適用可能であり、例えば、ニューロン間で情報を伝達する際の伝達係数を初期化(例えば、ランダム化)した復元器であってもよい。このようにして生成された第2RNNには、学習器側に、発話と応答とに含まれる隠れた共通性の特徴が反映されていると考えられる。換言すると、第2RNNは、文章を入力した際に適切なラベルを出力するように、各ニューロン間の伝達係数が収束しやすいと考えられる。このため、学習データの量が十分に存在しない場合であっても、第2RNNは、学習データに含まれる文章とラベルとの関係性、すなわち、文章とラベルとが有する隠れた共通性の特徴を迅速に学習することができると考えられる。   For example, the learning device 10 generates the second RNN using a learning device included in the first RNN and a newly generated restoration device. Here, the newly generated restorer can be any restorer as long as it is a restorer included in the first RNN. For example, a transfer coefficient for transmitting information between neurons is initialized ( For example, it may be a randomized restorer. In the second RNN generated in this way, it is considered that the hidden commonality feature included in the utterance and the response is reflected on the learning device side. In other words, the second RNN is considered to easily converge the transfer coefficients between the neurons so that an appropriate label is output when a sentence is input. For this reason, even if the amount of learning data does not exist sufficiently, the second RNN shows the relationship between the sentence and the label included in the learning data, that is, the hidden common feature of the sentence and the label. It is thought that it can learn quickly.

そこで、学習装置10は、第2RNNに学習データの文章を入力した際に、入力した文章に付与すべきラベルを第2RNNが出力するように、第2RNNの復号化の学習を行う。例えば、学習装置10は、ランダムに初期化した復元器と、第1RNNの学習器とを接続し、学習器のパラメータを固定して、復元器側のパラメータの更新を行う。この結果、学習装置10は、文章に対して適切なラベルを付与するRNNを生成することができるので、文章に付与するラベルの精度を改善することができる。   Therefore, the learning device 10 learns decoding of the second RNN so that when the sentence of the learning data is input to the second RNN, the second RNN outputs a label to be given to the input sentence. For example, the learning device 10 connects a randomly initialized restorer and a first RNN learner, fixes the learner parameters, and updates the parameters on the restorer side. As a result, the learning device 10 can generate an RNN that gives an appropriate label to the sentence, and thus can improve the accuracy of the label given to the sentence.

ここで、学習装置10は、第3RNNにおける学習、すなわち、学習データ以外の文章に対してラベルを付与する際に、第2RNNをそのまま利用してさらに全体を学習させてもよく、第2RNNを用いて新たな第3RNNを生成し、新たな第3RNNを測定時に用いるRNN(以下、「測定用RNN」と記載する。)としてもよい。例えば、第2RNNに含まれる復元器には、文章とラベルとの関係性の特徴が学習されていると予測される。より具体的には、第2RNNに含まれる復元器は、複数の単語の特徴と、各単語が出現する順序の特徴とを示す情報から、その複数の単語がその順序で現れる文章に対して付与すべきラベルを示す情報を出力するように学習が行われている。そこで、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを含む第3RNNに対してさらに全体学習をおこなった第3RNNを測定用RNNとしてもよい。また、学習装置10は、第2RNNを通さずに、第1RNNの学習器を利用して、さらに全体学習をさせた第3RNNを測定用RNNとしてもよい。また、学習装置10は、第3RNNの学習時において、学習器のパラメータを固定して復元器側のパラメータのみを更新し、ある程度の学習が進んだ再に、学習器側のパラメータの固定を外して、第3RNN全体の学習(トレーニング)を行ってもよい。   Here, when learning is performed in the third RNN, that is, when a label is assigned to a sentence other than the learning data, the learning apparatus 10 may use the second RNN as it is to further learn the whole, and uses the second RNN. It is also possible to generate a new third RNN and use the new third RNN at the time of measurement (hereinafter referred to as “measurement RNN”). For example, it is predicted that the reconstructor included in the second RNN has learned the characteristics of the relationship between the text and the label. More specifically, the reconstructor included in the second RNN assigns to the sentences in which the plurality of words appear in the order from the information indicating the characteristics of the plurality of words and the characteristics of the order in which each word appears. Learning is performed so that information indicating a label to be output is output. Therefore, the learning device 10 may use, as the measurement RNN, the third RNN obtained by further performing overall learning on the third RNN including the restorer included in the second RNN and the learner included in the first RNN. Further, the learning device 10 may use the third RNN that is further subjected to the overall learning using the learning device of the first RNN without passing through the second RNN as the measurement RNN. Also, the learning device 10 fixes the learning device parameters and updates only the restoring device parameters during the learning of the third RNN, and unfixes the learning device parameters after a certain amount of learning has progressed. Thus, learning (training) of the entire third RNN may be performed.

そして、学習装置10は、第3RNNを用いて、ラベルの付与対象となる文章に対してラベルを付与してもよい。例えば、学習装置10は、第3RNNに含まれる学習器の入力層に、文章に含まれる各単語を各単語が出現する順序で入力し、学習器の出力層から出力された情報、すなわち、入力された文章に含まれる各単語の特徴と各単語が出現する順序の特徴とを示す特徴情報を、復元器の入力層に入力する。そして、学習装置10は、復元器が特徴情報に基づいて出力したラベルを示す情報から、文章に対して付与すべきラベルを決定する。   And the learning apparatus 10 may provide a label with respect to the sentence used as the label provision object using 3rd RNN. For example, the learning device 10 inputs each word included in the sentence in the order in which each word appears in the input layer of the learning device included in the third RNN, and the information output from the output layer of the learning device, that is, the input Feature information indicating the features of each word included in the written sentence and the features of the order in which each word appears is input to the input layer of the decompressor. And the learning apparatus 10 determines the label which should be provided with respect to a sentence from the information which shows the label which the decompressor output based on the feature information.

〔1−4.RNNのバリエーションについて〕
ここで、学習装置10は、対話に含まれる発話と応答とを用いてプレトレーニングを行った学習器または復元器を用いるのであれば、任意の処理を用いて、測定用RNNを生成してよい。例えば、学習装置10は、第1RNNに含まれる学習器と新たな復元器とから第2RNNを生成し、学習データを用いて第2RNNを学習する。そして、学習装置10は、学習を行った第2RNNを、そのまま測定用RNNとしてもよい。
[1-4. About variations of RNN]
Here, the learning device 10 may generate the measurement RNN using an arbitrary process as long as it uses a learning device or a restoration device that has been pre-trained using the speech and response included in the dialogue. . For example, the learning device 10 generates a second RNN from a learning device included in the first RNN and a new restoration device, and learns the second RNN using learning data. And the learning apparatus 10 is good also considering the 2nd RNN which learned as it is as a measurement RNN.

また、学習装置10は、第1RNNに含まれる学習器と、新たな復元器とを用いて第2RNNを生成し、学習データを用いて第2RNNを学習する。続いて、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを用いて第3RNNを生成し、学習データを用いて、第3RNNの学習を行う。そして、学習装置10は、学習データを用いて学習を行った第3RNNを測定用RNNとして出力してもよい。   In addition, the learning device 10 generates a second RNN using a learning device included in the first RNN and a new restoration device, and learns the second RNN using learning data. Subsequently, the learning device 10 generates a third RNN using a decompressor included in the second RNN and a learner included in the first RNN, and learns the third RNN using the learning data. Then, the learning device 10 may output the third RNN that has been learned using the learning data as the measurement RNN.

なお、学習装置10は、第2RNNの学習を行う際と、第3RNNの学習を行う際とで、同一の学習データを用いてもよく、異なる学習データを用いてもよい。また、学習装置10は、文章とその文章に付与すべきラベルとの組である学習データに加えて、対話に含まれる発話と応答との組を学習データとし、第2RNNや第3RNNの学習を行ってもよい。   Note that the learning device 10 may use the same learning data or may use different learning data when performing the second RNN learning and the third RNN learning. In addition to learning data that is a set of a sentence and a label to be assigned to the sentence, the learning device 10 uses a pair of an utterance and a response included in the dialogue as learning data, and learns the second RNN and the third RNN. You may go.

〔1−5.文章とラベルについて〕
ここで、学習装置10は、任意の文章に対して付与される任意のラベルを付与するRNNの学習を行ってよい。すなわち、学習装置10がラベルを付与する文章とは、小説、新聞記事、ブログ、マイクロブログ、批評、投稿等といった執筆物に関する文章であってもよく、カルテ等といった記録等であってもよい。また、文章は、一文であってもよく複数の文からなる文章であってもよい。例えば、学習装置10は、書籍や作品単位で文章の学習等を行ってもよい。
[1-5. (About text and labels)
Here, the learning apparatus 10 may perform learning of an RNN that gives an arbitrary label given to an arbitrary sentence. That is, the sentence to which the learning device 10 gives a label may be a sentence relating to a writing such as a novel, a newspaper article, a blog, a microblog, a criticism, a posting, or a record such as a medical record. The sentence may be a single sentence or a sentence composed of a plurality of sentences. For example, the learning device 10 may perform sentence learning or the like in units of books or works.

また、学習装置10が付与するラベルとは、文章の内容や属性等を示す単語や文章等であってもよく、検索などに使用される数値や文字列等であってもよい。   Further, the label provided by the learning device 10 may be a word or a sentence indicating the content or attribute of the sentence, or may be a numerical value or a character string used for searching or the like.

〔1−6.数式の一例〕
次に、上述した学習処理を示す数式の一例について説明する。例えば、時刻「t」における学習器の「j」番目のノードの状態を「hj<t>」と記載すると、学習器における各ノードの状態は、以下の式(1)で表すことができる。ここで、式(1)中の波付き「hj<t>」は、式(2)で表すことができ、「zj」および「rj」は、以下の式(3)および式(4)で表される。ここで、「xt」は、「t」番目の入力を示す。また、式(2)〜式(4)の「W」および「U」は、学習器の接続係数を示すパラメータである。
[1-6. Example formula)
Next, an example of a mathematical expression indicating the learning process described above will be described. For example, when the state of the “j” -th node of the learning device at time “t” is described as “hj <t>”, the state of each node in the learning device can be expressed by the following equation (1). Here, the wavy “hj <t>” in the equation (1) can be expressed by the equation (2), and “zj” and “rj” can be expressed by the following equations (3) and (4). expressed. Here, “xt” indicates the “t” th input. Further, “W” and “U” in the equations (2) to (4) are parameters indicating the connection coefficient of the learning device.

Figure 2018028872
Figure 2018028872

Figure 2018028872
Figure 2018028872

Figure 2018028872
Figure 2018028872

Figure 2018028872
Figure 2018028872

すると、学習器による学習結果は、式(5)で示すことができる。   Then, the learning result by the learning device can be expressed by Expression (5).

Figure 2018028872
Figure 2018028872

ここで、学習器の出力は、復元器の各ノードへと伝達される。このような復元器のノードへの入力は、式(6)で示すことができる。   Here, the output of the learning device is transmitted to each node of the restoring device. The input to such a restorer node can be expressed by equation (6).

Figure 2018028872
Figure 2018028872

すると、時刻「t」における復元器の「j」番目のノードの状態を「h´j<t>」とすると、「h´j<t>」は、以下の式(7)で示すことができる。ここで、式(7)中の波付き「h´j<t>」は、以下の式(8)で表すことができ、「z´j」および「r´j」は、以下の式(9)および式(10)で表される。また、式(8)〜式(10)の「W´」および「U´」は、復元器の接続係数を示すパラメータである。   Then, if the state of the “j” -th node of the decompressor at time “t” is “h′j <t>”, “h′j <t>” can be expressed by the following equation (7). it can. Here, “h′j <t>” with a wave in the equation (7) can be expressed by the following equation (8), and “z′j” and “r′j” 9) and the formula (10). In addition, “W ′” and “U ′” in Expression (8) to Expression (10) are parameters indicating the connection coefficient of the restorer.

Figure 2018028872
Figure 2018028872

Figure 2018028872
Figure 2018028872

Figure 2018028872
Figure 2018028872

Figure 2018028872
Figure 2018028872

例えば、学習装置10は、学習器が文章に含まれる複数の単語、すなわち単語群の特徴および順番を学習し、復元器が学習器の出力から、学習器に入力された複数の単語が学習器に入力された順で出現する文章に対して付与すべきラベルを示す情報を出力するように、式(1)〜式(10)における「W」、「U」、「W´」および「U´」の値を学習する。   For example, in the learning device 10, the learning device learns a plurality of words included in a sentence, that is, the characteristics and order of the word group, and the restoration device uses the output of the learning device to obtain the plurality of words input to the learning device. “W”, “U”, “W ′”, and “U” in Expressions (1) to (10) so as to output information indicating labels to be attached to sentences appearing in the order of input. The value of “′” is learned.

〔1−7.学習処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理の一例について説明する。まず、学習装置10は、利用者の発言Aや発言B等といった対話を入力として受付ける(ステップS1)。例えば、入力装置200は、マイクなどの音声を取得する音声取得装置を用いて、複数の利用者間で行われた対話の音声を取得する。そして、入力装置200は、任意の音声認識技術を用いて、対話をテキストデータに変換し、変換後のテキストデータ、すなわち、対話のテキストデータを学習装置10へと送信する。
[1-7. Example of learning process)
Next, an example of a learning process executed by the learning device 10 will be described with reference to FIG. First, the learning apparatus 10 accepts a dialogue such as a user's statement A or statement B as an input (step S1). For example, the input device 200 acquires a voice of a dialogue performed between a plurality of users using a voice acquisition device such as a microphone. Then, the input device 200 converts the dialogue into text data using an arbitrary voice recognition technique, and transmits the converted text data, that is, the text data of the dialogue to the learning device 10.

より具体的には、入力装置200は、ある利用者による発言Aのテキストデータを発話のデータ(以下、「発話データ」と記載する場合がある。)とし、発言Aに対する他の利用者の応答である発言Bのテキストデータを応答のデータ(以下、「応答データ」と記載する場合がある。)として生成する。そして、入力装置200は、発話データおよび応答データを、対話のデータとして学習装置10へと送信する。   More specifically, the input device 200 uses the text data of the utterance A by a certain user as utterance data (hereinafter sometimes referred to as “utterance data”), and other users' responses to the utterance A. Is generated as response data (hereinafter may be referred to as “response data”). The input device 200 transmits the speech data and the response data to the learning device 10 as dialogue data.

このような場合、学習装置10は、入力した対話文に含まれる発話と応答とを、それぞれ第1RNNの学習器または復元器のいずれかに対応付けて、発話と応答とに内在する隠れた情報、すなわち、発話と応答とに内在する隠れた共通性をプレトレーニングする(ステップS2)。例えば、学習装置10は、対話のテキストデータから、発話とその発話に対応する応答とを抽出する。そして、学習装置10は、第1RNNに含まれる学習器EN01に対して発話に含まれる各単語をその発話に含まれる順に入力した場合に、学習器EN01の出力から、学習器EN01に入力した発話に対応する応答に含まれる各単語を、その応答に含まれる順で復元器DE01が出力するように、学習器EN01および復元器DE01の学習を行う。より具体的には、学習装置10は、学習器EN01および復元器DE01の伝達係数を補正する。   In such a case, the learning device 10 associates the utterance and the response included in the input dialogue sentence with either the learning device or the restoration device of the first RNN, respectively, and hidden information inherent in the utterance and the response. That is, pre-training is performed on the hidden commonality inherent in speech and response (step S2). For example, the learning device 10 extracts an utterance and a response corresponding to the utterance from the text data of the dialog. Then, when the learning device 10 inputs the words included in the utterance in the order included in the utterance to the learning device EN01 included in the first RNN, the utterance input to the learning device EN01 from the output of the learning device EN01. The learning unit EN01 and the restoring unit DE01 perform learning so that the restoring unit DE01 outputs each word included in the response corresponding to the in the order included in the response. More specifically, the learning device 10 corrects the transfer coefficients of the learning device EN01 and the restoring device DE01.

次に、学習装置10は、プレトレーニングを行った学習器EN01と新たな復元器DE02とを組み合わせた第2RNNを生成し、ラベル付き文章(すなわち、学習データ)の文章から、そのラベル付き文章のラベルを生成するように、第2RNNの学習を行う(ステップS3)。例えば、学習装置10は、第2RNNに含まれる学習器EN01に対してラベル付き文章の文章に含まれる各単語をその文章に含まれる順に入力した場合に、学習器EN01の出力から、ラベル付き文章のラベルを示す情報を復元器DE02が出力するように、学習器EN01および復元器DE02の学習を行う。   Next, the learning device 10 generates a second RNN that combines the pre-training learner EN01 and the new decompressor DE02, and from the sentence of the labeled sentence (that is, learning data), The second RNN is learned so as to generate a label (step S3). For example, when the learning device 10 inputs each word included in the sentence of the labeled sentence to the learning device EN01 included in the second RNN in the order included in the sentence, the learning apparatus 10 reads the labeled sentence from the output of the learning device EN01. The learning unit EN01 and the restoring unit DE02 perform learning so that the restoring unit DE02 outputs information indicating the label of.

ここで、学習装置10は、ラベルの付与対象となる文章を端末装置100から取得したものとする(ステップS4)。このような場合、学習装置10は、測定時の処理を実行する。より具体的には、学習装置10は、ラベル付き文章を用いてラベルの学習を行った復元器DE02と、プレトレーニングを行った学習器EN01とを組み合わせた第3RNNを測定用RNNとして、端末装置100から取得した文章に付与するラベルを判定する(ステップS5)。例えば、学習装置10は、測定用RNNの学習器EN01に端末装置100から取得した文章に含まれる各単語を、各単語が出現する順序で入力する。そして、学習装置10は、測定用RNNの復元器DE02が出力した情報に基づいて、文章に付与すべきラベルを判定する。その後、学習装置10は、判定結果であるラベルを示す情報を、端末装置100に対して出力する(ステップS6)。   Here, it is assumed that the learning device 10 has acquired a sentence to be given a label from the terminal device 100 (step S4). In such a case, the learning device 10 executes processing at the time of measurement. More specifically, the learning device 10 uses the third RNN, which is a combination of the restoration device DE02 that has performed label learning using a labeled sentence, and the learning device EN01 that has undergone pre-training, as an RNN for measurement. The label given to the sentence acquired from 100 is determined (step S5). For example, the learning device 10 inputs each word included in the sentence acquired from the terminal device 100 to the learning device EN01 of the measurement RNN in the order in which each word appears. And the learning apparatus 10 determines the label which should be provided to a sentence based on the information which the decompressor DE02 of measurement RNN output. Thereafter, the learning device 10 outputs information indicating the label that is the determination result to the terminal device 100 (step S6).

〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of learning device]
Hereinafter, an example of a functional configuration of the learning device 10 that realizes the above-described learning process will be described. FIG. 2 is a diagram illustrating a configuration example of the learning device according to the embodiment. As illustrated in FIG. 2, the learning device 10 includes a communication unit 20, a storage unit 30, and a control unit 40.

通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や入力装置200との間で情報の送受信を行う。   The communication unit 20 is realized by, for example, a NIC (Network Interface Card). The communication unit 20 is connected to the network N by wire or wireless, and transmits and receives information to and from the terminal device 100 and the input device 200.

記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、対話データデータベース31、および学習データデータベース32を記憶する。なお、記憶部30は、例えば、学習するRNNのノードと伝達係数との関係性を示す情報等をさらに記憶しているものとする。   The storage unit 30 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 30 also stores a dialogue data database 31 and a learning data database 32. Note that the storage unit 30 further stores, for example, information indicating the relationship between the node of the RNN to be learned and the transfer coefficient.

対話データデータベース31には、プレトレーニングに用いる対話のデータが登録されている。例えば、図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。図3に示す例では、対話データデータベース31には、「対話ID」、「発話情報」、「応答情報」等といった項目を有する情報が登録される。なお、対話データデータベース31には、発話や応答を行った利用者の属性等、図3に示す情報以外の情報が登録されていてもよい。   In the dialogue data database 31, dialogue data used for pre-training is registered. For example, FIG. 3 is a diagram illustrating an example of information registered in the dialogue data database according to the embodiment. In the example illustrated in FIG. 3, information having items such as “dialog ID”, “utterance information”, “response information”, and the like is registered in the dialog data database 31. Note that information other than the information shown in FIG. 3, such as the attributes of the user who made an utterance or a response, may be registered in the dialog data database 31.

ここで、「対話ID(Identifier)」は、対話を識別するための情報である。また、「発話情報」とは、発話のテキストデータである。また、「応答情報」とは、対応付けられた発話に対する応答のテキストデータである。なお、図3に示す例では、「対話#1」、「発話#1」、「応答#1」等といった概念的な値について記載したが、実際には、対話を識別する識別子や、テキストデータ等が対話データデータベース31に登録される。   Here, the “dialog ID (Identifier)” is information for identifying a dialog. “Speech information” is text data of an utterance. “Response information” is text data of a response to the associated utterance. In the example shown in FIG. 3, conceptual values such as “dialog # 1”, “utterance # 1”, “response # 1”, and the like have been described. Are registered in the dialogue data database 31.

例えば、図3に示す例では、対話ID「対話#1」、発話情報「発話#1」、および応答情報「応答#1」が対応付けて登録されている。このような情報は、対話ID「対話#1」が示す対話に含まれる発話のテキストデータが「発話#1」であり、この発話に対する応答のテキストデータが「応答#1」である旨を示す。   For example, in the example illustrated in FIG. 3, the conversation ID “dialog # 1”, the utterance information “utterance # 1”, and the response information “response # 1” are registered in association with each other. Such information indicates that the text data of the utterance included in the dialog indicated by the dialog ID “dialog # 1” is “utterance # 1”, and the text data of the response to this utterance is “response # 1”. .

図2に戻り、説明を続ける。学習データデータベース32には、RNNの学習に用いられる学習データ、すなわち、ラベル付き文章が登録されている。例えば、図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図4に示す例では、学習データデータベース32には、「学習データID」、「文章情報」、「ラベル情報」等といった項目を有する情報が登録される。なお、学習データデータベース32には、図3に示す情報以外にも、ラベル付き文章に関連する任意の情報が登録されていてもよい。   Returning to FIG. 2, the description will be continued. In the learning data database 32, learning data used for RNN learning, that is, labeled sentences are registered. For example, FIG. 4 is a diagram illustrating an example of information registered in the learning data database according to the embodiment. In the example illustrated in FIG. 4, information having items such as “learning data ID”, “text information”, and “label information” is registered in the learning data database 32. In addition to the information shown in FIG. 3, arbitrary information related to the labeled sentence may be registered in the learning data database 32.

ここで、「学習データID」は、学習データとしての対話を識別するための情報である。また、「文章情報」とは、ラベル付き文章の文章、すなわちテキストデータである。また、「ラベル情報」とは、対応付けられた文章に対して付与されるべきラベルを示す情報である。なお、図4に示す例では、「データ#1」、「文章#1」、「ラベル#1」等といった概念的な値について記載したが、実際には、ラベル付き文章を識別する識別子や、テキストデータ等が学習データデータベース32に登録される。   Here, the “learning data ID” is information for identifying a dialogue as learning data. “Sentence information” is a sentence of a labeled sentence, that is, text data. “Label information” is information indicating a label to be assigned to the associated text. In the example shown in FIG. 4, conceptual values such as “data # 1”, “sentence # 1”, “label # 1”, and the like are described. However, in practice, an identifier for identifying a labeled sentence, Text data or the like is registered in the learning data database 32.

例えば、図4に示す例では、学習データID「データ#1」、文章情報「文章#1」、およびラベル情報「ラベル#1」が対応付けて登録されている。このような情報は、学習データID「データ#1」が示すラベル付き文章に含まれる文章のテキストデータが「文章#1」であり、この文章に対して付与されるべきラベルが「ラベル#1」である旨を示す。   For example, in the example illustrated in FIG. 4, the learning data ID “data # 1”, the sentence information “sentence # 1”, and the label information “label # 1” are registered in association with each other. In such information, the text data of the sentence included in the labeled sentence indicated by the learning data ID “data # 1” is “sentence # 1”, and the label to be given to this sentence is “label # 1”. ".

図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。   Returning to FIG. 2, the description will be continued. The control unit 40 is a controller. For example, various programs stored in a storage device inside the learning device 10 are stored in a RAM or the like by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). This is realized by being executed as a work area. The control unit 40 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部40は、取得部41、第1学習部42、第2学習部43、生成部44、および測定部45を有する。   As illustrated in FIG. 2, the control unit 40 includes an acquisition unit 41, a first learning unit 42, a second learning unit 43, a generation unit 44, and a measurement unit 45.

取得部41は、所定の対話における発話と、その発話に対する応答とを取得する。例えば、取得部41は、入力装置200から対話のテキストデータを取得すると、取得したテキストデータの解析を行い、発話のテキストデータと、その発話に対する応答のテキストデータとを抽出する。そして、取得部41は、抽出した発話のテキストデータと応答のテキストデータとを対話データとして対話データデータベース31に登録する。なお、取得部41は、形態素解析等、任意の文字列解析技術を用いて、発話と、その発話に対応する応答とを抽出してよい。   The acquisition unit 41 acquires an utterance in a predetermined dialogue and a response to the utterance. For example, when acquiring the text data of the dialog from the input device 200, the acquiring unit 41 analyzes the acquired text data and extracts the text data of the utterance and the text data of the response to the utterance. Then, the acquisition unit 41 registers the extracted utterance text data and response text data in the dialog data database 31 as dialog data. The acquisition unit 41 may extract an utterance and a response corresponding to the utterance using an arbitrary character string analysis technique such as morphological analysis.

第1学習部42は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。すなわち、第1学習部42は、対話を用いたRNNのプレトレーニングを実行する。   The first learning unit 42 causes the learning device and the restoration device included in the first RNN to learn the relationship between the utterance and the response in a predetermined dialogue. That is, the first learning unit 42 performs pre-training of the RNN using dialogue.

例えば、第1学習部42は、対話データデータベース31から対話に含まれる発話と応答とを取得する。また、第1学習部42は、初期化された第1RNN等、プレトレーニングの対象となる第1RNNを準備する。そして、第1学習部42は、発話を第1RNNの学習器に入力した際に、その発話に対する応答を第1RNNの復元器が出力するように、学習器および復元器の学習を行う。より具体的には、第1学習部42は、発話に含まれる各単語を発話内で出現する順番で学習器に入力し、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう学習器と復元器を学習させる。すなわち、第1学習部42は、発話の各単語が有する特徴と各単語が出現する順番との特徴とを学習器と復元器とに学習させる。   For example, the first learning unit 42 acquires utterances and responses included in the dialogue from the dialogue data database 31. In addition, the first learning unit 42 prepares a first RNN to be pretrained, such as an initialized first RNN. Then, when the utterance is input to the first RNN learner, the first learning unit 42 learns the learner and the restorer so that the first RNN restorer outputs a response to the utterance. More specifically, the first learning unit 42 inputs each word included in the utterance to the learning device in the order in which the words appear in the utterance, and each word included in the response from each feature encoded by the learning device. The learner and the restorer are trained to restore the words in the order in which they appear in the response. That is, the first learning unit 42 causes the learning device and the restoration device to learn the characteristics of each word in the utterance and the characteristics of the order in which each word appears.

なお、第1学習部42は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、第1学習部42には、応答に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させてもよい。   Note that the first learning unit 42 may perform learning of the learning device and the restoration device so that when the response is input to the learning device, the restoration device outputs an utterance corresponding to the response. For example, the first learning unit 42 causes the learner to learn the features of each word together with the order in which each word included in the response appears in the utterance, and each feature included in the utterance from the features encoded by the learner. The restorer may be trained to restore words with the order in which each word appears in the response.

第2学習部43は、学習データデータベース32に登録された学習データであるラベル付き文章を用いて、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて生成された第2RNNや、第3RNNの学習を行う。なお、第2学習部43が実行する処理の例については、後述する。   The second learning unit 43 uses the labeled sentence that is the learning data registered in the learning data database 32 to generate the second RNN generated using at least one of the learning device and the restoring device included in the first RNN. Or, the third RNN is learned. An example of processing executed by the second learning unit 43 will be described later.

生成部44は、第1学習部42によって学習が行われた学習器または復元器、すなわち、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。例えば、生成部44は、第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。   The generation unit 44 generates the second RNN using at least one of the learning device or the restoration device learned by the first learning unit 42, that is, the learning device or the restoration device included in the first RNN. For example, the generation unit 44 generates the second RNN using a learning device and a new restorer included in the first RNN.

このような第2RNNが生成された場合、第2学習部43は、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を、第2RNNに学習させる。   When such a second RNN is generated, the second learning unit 43 causes the second RNN to learn the relationship between the sentence of the labeled sentence registered in the learning data database 32 and the label of the labeled sentence.

また、生成部44は、第2学習部43によって第2RNNの学習が行われた場合、第1学習部42によってプレトレーニングが行われた第1RNNの学習器と、第2学習部43によって学習が行われた第2RNNの復元器とを含む第3RNNを生成する。そして、生成部44は、生成した第3RNNを測定用RNNとして記憶部30等に登録する。   In addition, when the second learning unit 43 performs the second RNN learning, the generation unit 44 performs the learning by the first RNN learning device that has been pretrained by the first learning unit 42 and the second learning unit 43. A third RNN is generated that includes a reconstructor of the performed second RNN. Then, the generation unit 44 registers the generated third RNN as the measurement RNN in the storage unit 30 or the like.

なお、第2学習部43は、第3RNNに対して、学習データを用いたさらなる学習を行ってもよい。例えば、第2学習部43は、第3RNNに対して、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を学習させる。そして、第2学習部43は、学習を行った第3RNNを測定用RNNとして記憶部30等に登録してもよい。   Note that the second learning unit 43 may perform further learning using the learning data on the third RNN. For example, the second learning unit 43 causes the third RNN to learn the relationship between the sentence of the labeled sentence registered in the learning data database 32 and the label of the labeled sentence. The second learning unit 43 may register the learned third RNN as the measurement RNN in the storage unit 30 or the like.

測定部45は、測定用RNNを用いた測定処理を実行する。例えば、測定部45は、端末装置100からラベルの付与対象となる文章を受付けた場合は、生成部44によって生成された第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定する。例えば、測定部45は、受付けられた文章に含まれる各単語を、文章中に出現する順序で測定用RNNの学習器に入力し、測定用RNNの復元器が出力した情報に基づいて、受付けられた文章に付与されるラベルを特定する。そして、測定部45は、特定したラベルを示す情報を、端末装置100へと送信する。   The measurement unit 45 executes measurement processing using the measurement RNN. For example, when the measurement unit 45 receives a sentence to be given a label from the terminal device 100, the measurement unit 45 uses the third RNN generated by the generation unit 44 as the measurement RNN to identify the label to be given to the received sentence. To do. For example, the measurement unit 45 inputs each word included in the accepted sentence to the learning RNN learning device in the order in which the words appear in the sentence, and accepts the word based on the information output from the measuring RNN decompressor. The label given to the given sentence is specified. Then, the measurement unit 45 transmits information indicating the identified label to the terminal device 100.

なお、測定部45は、第2学習部43によってラベル付き文章を用いた学習がさらに行われた第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。また、測定部45は、第2学習部43により学習が行われた第2RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。   Note that the measurement unit 45 may specify a label to be given to the accepted sentence, with the third RNN that has been further learned using the labeled sentence by the second learning unit 43 as the measurement RNN. Moreover, the measurement part 45 may specify the label provided to the received sentence by making 2nd RNN learned by the 2nd learning part 43 into measurement RNN.

〔3.RNNのバリエーション〕
次に、図5および図6を用いて、学習装置10が測定用RNNとして用いるRNNの生成のバリエーションについて説明する。図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。また、図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。
[3. Variation of RNN]
Next, with reference to FIG. 5 and FIG. 6, variations of generation of the RNN used by the learning device 10 as the measurement RNN will be described. FIG. 5 is a first diagram illustrating variations of the RNN generated by the learning device according to the embodiment. FIG. 6 is a second diagram illustrating variations of the RNN generated by the learning device according to the embodiment.

まず、図5を用いて、第2RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS10)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS11)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS12)。そして、学習装置10は、学習を行った第2RNNの復元器DE02と(ステップS13)、学習を行った第2RNNの学習器EN01と(ステップS14)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS15)。   First, an example of a process for setting the second RNN as the measurement RNN will be described with reference to FIG. For example, the learning device 10 generates a first RNN including the learning device EN01 and the restoring device DE01, and performs pre-training using the utterance and the response (step S10). Subsequently, the learning device 10 takes out the learning device EN01 included in the first RNN (step S11), generates a second RNN using the learning device EN01 and the new restoration device DE02, and describes the sentence and label of the labeled sentence. Is used to learn the second RNN (step S12). Then, the learning device 10 uses the learned second RNN restorer DE02 (step S13) and the learned second RNN learner EN01 (step S14) as they are to obtain the measurement RNN, and the sentence Measurement processing for specifying the label is executed (step S15).

次に、図6を用いて、ラベル付き文章を用いた学習を行った第3RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS20)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS21)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS22)。   Next, with reference to FIG. 6, an example of processing in which the third RNN that has performed learning using the labeled sentence is used as the measurement RNN will be described. For example, the learning device 10 generates a first RNN including the learning device EN01 and the restoring device DE01, and performs pre-training using the utterance and the response (step S20). Subsequently, the learning device 10 takes out the learning device EN01 included in the first RNN (step S21), generates a second RNN using the learning device EN01 and the new restoration device DE02, and describes the sentence and label of the labeled sentence. Is used to learn the second RNN (step S22).

また、学習装置10は、学習を行った第2RNNの復元器DE02を取り出し(ステップS23)、プレトレーニングを行った第1RNNに含まれる学習器EN01と組み合わせた第3RNNを生成し(ステップS24)、ラベル付き文章を用いて第3RNNの学習を再度実行する(ステップS25)。そして、学習装置10は、学習を行った第3RNNの復元器DE02と(ステップS26)、学習を行った第3RNNの学習器EN01と(ステップS27)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS28)。   Further, the learning device 10 takes out the restoring device DE02 of the second RNN that has performed learning (Step S23), generates a third RNN that is combined with the learning device EN01 included in the first RNN that has undergone pre-training (Step S24), The learning of the third RNN is executed again using the labeled sentence (step S25). Then, the learning device 10 uses the learned third RNN learner DE02 (step S26) and the learned third RNN learner EN01 (step S27) as they are to obtain the measurement RNN, and the sentence. Measurement processing for specifying the label is executed (step S28).

〔4.学習装置が実行する処理の流れの一例〕
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、対話文を取得し(ステップS101)、対話文から発話と応答とを抽出する(ステップS102)。そして、学習装置10は、発話から応答を再現するように、第1RNNに含まれる学習器と復元器とのプレトレーニングを行う(ステップS103)。
[4. Example of flow of processing executed by learning device]
Next, an example of the flow of learning processing executed by the learning device 10 will be described with reference to FIG. FIG. 7 is a flowchart for explaining an example of the flow of the learning process according to the embodiment. First, the learning device 10 acquires a dialogue sentence (step S101), and extracts an utterance and a response from the dialogue sentence (step S102). Then, the learning device 10 performs pre-training with the learning device and the restoration device included in the first RNN so as to reproduce the response from the utterance (step S103).

続いて、学習装置10は、プレトレーニング済みの学習器と、新たな復元器とを用いた第2RNNを生成し(ステップS104)、ラベル付き文章の文章からラベルを示す情報を生成するように、第2RNNの学習を行う(ステップS105)。そして、学習装置10は、学習済みの第2RNNの復元器と、プレトレーニング済みの第1RNNに含まれる学習器とを用いた第3RNNを生成し(ステップS106)、生成した第3RNNを測定用RNNとして用いて、測定処理を実行し(ステップS107)、処理を終了する。   Subsequently, the learning device 10 generates the second RNN using the pre-trained learner and the new reconstructor (step S104), and generates information indicating the label from the sentence of the labeled sentence. The second RNN is learned (step S105). Then, the learning device 10 generates a third RNN using the learned second RNN restorer and the learner included in the pre-trained first RNN (step S106), and the generated third RNN is used as the measurement RNN. Are used to execute the measurement process (step S107), and the process is terminated.

〔5.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
[5. (Modification)
In the above, an example of the learning process by the learning device 10 has been described. However, the embodiment is not limited to this. Hereinafter, the variation of the learning process which the learning apparatus 10 performs is demonstrated.

〔5−1.測定用RNNについて〕
上述した例では、学習装置10は、生成した測定用RNNを用いて、ラベルの付与対象となる文章に付与するラベルを特定した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、生成した測定用RNNを用いて、文章からラベルを付与するプログラムを生成し、生成したプログラムを出力してもよい。このようなプログラムは、学習装置10以外の情報処理装置が実行することで、学習装置10により生成された測定用RNNを用いて、文章からラベルを特定させることができる。すなわち、学習装置10が生成した測定用RNNは、文章からラベルを特定するプログラムのプログラムパラメータとして用いられてもよい。
[5-1. About RNN for measurement]
In the above-described example, the learning device 10 specifies a label to be given to a sentence to be given a label, using the generated measurement RNN. However, the embodiment is not limited to this. For example, the learning apparatus 10 may generate a program for assigning a label from a sentence using the generated measurement RNN and output the generated program. Such a program is executed by an information processing device other than the learning device 10, so that the label can be specified from the sentence using the measurement RNN generated by the learning device 10. That is, the measurement RNN generated by the learning device 10 may be used as a program parameter of a program that specifies a label from a sentence.

〔5−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。また、学習装置10は、対話データデータベース31および学習データデータベース32を外部のストレージサーバに記憶させてもよい。
[5-2. Device configuration〕
In the example described above, the learning device 10 performs the learning process and the measurement process in the learning device 10. However, the embodiment is not limited to this. For example, the learning device 10 may execute only the learning process, and other devices may execute the measurement process. Further, the learning device 10 may store the dialogue data database 31 and the learning data database 32 in an external storage server.

〔5−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5-3. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, information including various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した第1学習部42及び第2学習部43は統合されてもよい。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the first learning unit 42 and the second learning unit 43 illustrated in FIG. 2 may be integrated.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the above-described embodiments can be appropriately combined within a range in which processing contents are not contradictory.

〔6.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. program〕
Further, the learning device 10 according to the embodiment described above is realized by a computer 1000 having a configuration as shown in FIG. 8, for example. FIG. 8 is a diagram illustrating an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected via a bus 1090. Have

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。   The arithmetic device 1030 operates based on a program stored in the primary storage device 1040 and the secondary storage device 1050, a program read from the input device 1020, and the like, and executes various processes. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic device 1030 for various arithmetic operations. The secondary storage device 1050 is a storage device in which data used for various calculations by the calculation device 1030 and various databases are registered, and is realized by a ROM (Read Only Memory), HDD, flash memory, or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。   The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), This is realized by a standard connector such as HDMI (registered trademark) (High Definition Multimedia Interface). The input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, and a scanner, and is realized by, for example, a USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。   The input device 1020 includes, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), and a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. The input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。   The network IF 1080 receives data from other devices via the network N and sends the data to the arithmetic device 1030, and transmits data generated by the arithmetic device 1030 to other devices via the network N.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。   The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。   For example, when the computer 1000 functions as the learning device 10, the arithmetic device 1030 of the computer 1000 implements the function of the control unit 40 by executing a program loaded on the primary storage device 1040.

〔7.効果〕
上述したように、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。そして、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成し、文章とその文章に付与されるラベルとの関係性を、第2RNNに学習させる。このように、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うので、文章に付与するラベルの精度を向上させることができる。また、学習データがある程度潤沢にある場合は、従来の学習手法で学習したRNNよりも分類精度(性能)が良いRNNを取得することができる。
[7. effect〕
As described above, the learning device 10 causes the learning device and the restoration device included in the first RNN to learn the relationship between the utterance and the response in a predetermined dialogue. Then, the learning device 10 generates the second RNN using at least one of the learning device or the restoring device in which learning is performed, and the relationship between the sentence and the label attached to the sentence is determined as the second RNN. To learn. As described above, the learning apparatus 10 performs pre-training of the RNN using the hidden commonality included in the utterance and the response to the utterance, so that it is possible to improve the accuracy of the label attached to the sentence. In addition, when the learning data is abundant to some extent, it is possible to acquire an RNN with better classification accuracy (performance) than an RNN learned by a conventional learning method.

また、学習装置10は、発話を学習器に入力した際に、発話に対する応答を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。   The learning device 10 learns the learning device and the restoration device so that the restoration device outputs a response to the utterance when the utterance is input to the learning device. For example, the learning device 10 causes the learner to learn the characteristics of each word together with the order in which each word included in the utterance appears in the utterance, and each word included in the response is recorded from the feature encoded by the learner. The restorer is trained to restore with the order in which the words appear in the response.

また、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させる。   Further, the learning device 10 learns the learning device and the restoration device so that when the response is input to the learning device, the restoration device outputs the utterance corresponding to the response. For example, the learning device 10 causes the learner to learn the features of each word together with the order in which each word included in the response appears in the response, and each word included in the utterance is recorded from the features encoded by the learner. The restorer is trained to restore words with the order in which they appear in the utterance.

上述した処理の結果、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うことができる。   As a result of the processing described above, the learning device 10 can perform pre-training of the RNN using the hidden commonality included in the utterance and the response to the utterance.

また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。   In addition, the learning device 10 generates a second RNN using a learning device and a new restoration device included in the first RNN that has undergone pre-training. Further, the learning device 10 generates a third RNN including a learning device included in the first RNN that has been subjected to pre-training, and a restoring device that is included in the second RNN that has been subjected to learning using learning data. And the learning apparatus 10 specifies the label provided to the received sentence using 3rd RNN, when the sentence used as the provision object of a label is received. For this reason, the learning apparatus 10 can prevent the deterioration of the precision of the label provided to a sentence.

また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、生成された第3RNNに学習させ、学習が行われた第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。   Further, the learning device 10 generates a third RNN including a learning device included in the first RNN that has been subjected to pre-training, and a restoring device that is included in the second RNN that has been subjected to learning using learning data. Then, the learning device 10 causes the generated third RNN to learn the relationship between the sentence and the label given to the sentence, and the label given to the accepted sentence using the learned third RNN. Is identified. For this reason, the learning apparatus 10 can prevent the deterioration of the precision of the label provided to a sentence.

また、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第2RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。   Moreover, the learning apparatus 10 specifies the label provided to the received sentence using 2nd RNN, when the sentence used as the provision object of a label is received. For this reason, the learning apparatus 10 can prevent the deterioration of the precision of the label provided to a sentence.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。   Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit can be read as generation means or a generation circuit.

20 通信部
30 記憶部
31 対話データデータベース
32 学習データデータベース
40 制御部
41 取得部
42 第1学習部
43 第2学習部
44 生成部
45 測定部
100 端末装置
200 入力装置
DESCRIPTION OF SYMBOLS 20 Communication part 30 Storage part 31 Dialogue data database 32 Learning data database 40 Control part 41 Acquisition part 42 1st learning part 43 2nd learning part 44 Generation part 45 Measuring part 100 Terminal apparatus 200 Input device

Claims (12)

第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、
前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部と
を有することを特徴とする学習装置。
A first learning unit that causes a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generator that generates a second recurrent neural network using at least one of a learner or a restorer that has been learned by the first learning unit;
A learning apparatus comprising: a second learning unit that causes the second recurrent neural network to learn a relationship between a sentence and a label attached to the sentence.
前記第1学習部は、前記発話を前記学習器に入力した際に、当該発話に対する応答を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
ことを特徴とする請求項1に記載の学習装置。
The first learning unit performs learning of the learning device and the restoration device so that when the utterance is input to the learning device, the restoration device outputs a response to the utterance. Item 4. The learning device according to Item 1.
前記第1学習部は、前記発話に含まれる各単語が当該発話内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記応答に含まれる各単語を各単語が当該応答内で出現する順番とともに復元するよう前記復元器を学習させる
ことを特徴とする請求項2に記載の学習装置。
The first learning unit causes the learner to learn the features of each word together with the order in which the words included in the utterance appear in the utterance, and includes the response from the features encoded by the learner. The learning apparatus according to claim 2, wherein the restorer is made to learn each word to be restored together with an order in which each word appears in the response.
前記第1学習部は、前記応答を前記学習器に入力した際に、当該応答に対応する発話を前記復元器が出力するように、前記学習器および前記復元器の学習を行う
ことを特徴とする請求項1に記載の学習装置。
The first learning unit performs learning of the learning device and the restoring device so that when the response is input to the learning device, the restoring device outputs an utterance corresponding to the response. The learning apparatus according to claim 1.
前記第1学習部は、前記応答に含まれる各単語が当該応答内で出現する順番とともに各単語が有する特徴を前記学習器に学習させ、当該学習器が符号化した特徴から、前記発話に含まれる各単語を各単語が当該発話内で出現する順番とともに復元するよう前記復元器を学習させる
ことを特徴とする請求項4に記載の学習装置。
The first learning unit causes the learner to learn the characteristics of each word together with the order in which each word included in the response appears in the response, and includes the utterance from the features encoded by the learner. The learning apparatus according to claim 4, wherein the restorer is made to learn each word to be restored together with an order in which each word appears in the utterance.
前記第1生成部は、前記第1学習部によって学習が行われた学習器と新たな復元器とを用いて前記第2リカレントニューラルネットワークを生成する
ことを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。
The said 1st production | generation part produces | generates the said 2nd recurrent neural network using the learning device and new restorer which were learned by the said 1st learning part. The one of Claims 1-5 characterized by the above-mentioned. The learning device according to any one of the above.
前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
ラベルの付与対象となる文章を受付けた場合は、前記第2生成部により生成された前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。
A second generator for generating a third recurrent neural network including a learning device learned by the first learning unit and a restorer included in the second recurrent neural network learned by the second learning unit;
A specific unit for specifying a label to be given to the accepted sentence using the third recurrent neural network generated by the second generation unit when the sentence to be given a label is accepted; The learning apparatus according to claim 6.
前記第1学習部によって学習された学習器と、前記第2学習部によって学習された前記第2リカレントニューラルネットワークに含まれる復元器とを含む第3リカレントニューラルネットワークを生成する第2生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2生成部によって生成された第3リカレントニューラルネットワークに学習させる第3学習部と、
ラベルの付与対象となる文章を受付けた場合は、前記第3学習部により学習が行われた前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。
A second generator for generating a third recurrent neural network including a learning device learned by the first learning unit and a restorer included in the second recurrent neural network learned by the second learning unit;
A third learning unit that causes the third recurrent neural network generated by the second generation unit to learn the relationship between the sentence and the label attached to the sentence;
A specific unit that identifies a label to be given to the accepted sentence using the third recurrent neural network learned by the third learning part when the sentence to be given a label is accepted; The learning apparatus according to claim 6, further comprising:
ラベルの付与対象となる文章を受付けた場合は、前記第2学習部により学習が行われた前記第2リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。
A specific unit that identifies a label to be given to the accepted sentence using the second recurrent neural network learned by the second learning part when the sentence to be given a label is accepted; The learning apparatus according to claim 6, further comprising:
学習装置が実行する学習方法であって、
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と
を含むことを特徴とする学習方法。
A learning method executed by a learning device,
A first learning step of causing a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generation step of generating a second recurrent neural network using at least one of a learner or a reconstructor learned in the first learning step;
A learning method comprising: a second learning step of causing the second recurrent neural network to learn a relationship between a sentence and a label attached to the sentence.
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と、
前記第2リカレントニューラルネットワークを用いて、入力された文章に付与するラベルを推定する第3リカレントニューラルネットワークを生成する第2生成工程と、
を含むことを特徴とする学習方法で生成される前記第3リカレントニューラルネットワークを含むプログラムパラメータ。
A first learning step of causing a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generation step of generating a second recurrent neural network using at least one of a learner or a reconstructor learned in the first learning step;
A second learning step of causing the second recurrent neural network to learn a relationship between a sentence and a label attached to the sentence;
A second generation step of generating a third recurrent neural network for estimating a label to be given to the input sentence using the second recurrent neural network;
A program parameter including the third recurrent neural network generated by the learning method.
コンピュータに
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習手順と、
前記第1学習手順によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成手順と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習手順と
を実行させる学習プログラム。
A first learning procedure for causing a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generation procedure for generating a second recurrent neural network using at least one of a learner or a reconstructor trained by the first learning procedure;
A learning program for executing a second learning procedure for causing the second recurrent neural network to learn a relationship between a sentence and a label given to the sentence.
JP2016161488A 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program Active JP6526607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161488A JP6526607B2 (en) 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161488A JP6526607B2 (en) 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program

Publications (2)

Publication Number Publication Date
JP2018028872A true JP2018028872A (en) 2018-02-22
JP6526607B2 JP6526607B2 (en) 2019-06-05

Family

ID=61248452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161488A Active JP6526607B2 (en) 2016-08-19 2016-08-19 Learning apparatus, learning method, and learning program

Country Status (1)

Country Link
JP (1) JP6526607B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025359A1 (en) * 2020-07-27 2022-02-03 주식회사 딥브레인에이아이 Method and apparatus for generating speech video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (en) * 2013-10-10 2015-04-20 日本放送協会 Error correction model learning device and program
JP2015176355A (en) * 2014-03-14 2015-10-05 日本電信電話株式会社 Model learning device, method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (en) * 2013-10-10 2015-04-20 日本放送協会 Error correction model learning device and program
JP2015176355A (en) * 2014-03-14 2015-10-05 日本電信電話株式会社 Model learning device, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025359A1 (en) * 2020-07-27 2022-02-03 주식회사 딥브레인에이아이 Method and apparatus for generating speech video

Also Published As

Publication number Publication date
JP6526607B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
WO2019200923A1 (en) Pinyin-based semantic recognition method and device and human-machine conversation system
US20170286397A1 (en) Predictive Embeddings
JP6462970B1 (en) Classification device, classification method, generation method, classification program, and generation program
US11157707B2 (en) Natural language response improvement in machine assisted agents
US20230259707A1 (en) Systems and methods for natural language processing (nlp) model robustness determination
CN111930914A (en) Question generation method and device, electronic equipment and computer-readable storage medium
CN112805715A (en) Identifying entity attribute relationships
JP7205839B2 (en) Data generation model learning device, latent variable generation model learning device, translation data generation device, data generation model learning method, latent variable generation model learning method, translation data generation method, program
JP7103264B2 (en) Generation device, learning device, generation method and program
JP6975610B2 (en) Learning device and learning method
JP6391617B2 (en) Learning device, sentence automatic generation device, and learning method
JP6400038B2 (en) Extraction apparatus and extraction method
JP6082657B2 (en) Pose assignment model selection device, pose assignment device, method and program thereof
JP6775366B2 (en) Selection device and selection method
JP4054046B2 (en) Opinion determination database creation method and apparatus and program, opinion determination method and apparatus and program, and computer-readable recording medium
CN112307738A (en) Method and device for processing text
CN110287396B (en) Text matching method and device
JP6526607B2 (en) Learning apparatus, learning method, and learning program
JP6680655B2 (en) Learning device and learning method
JP2019021218A (en) Learning device, program parameter, learning method and model
JP2023181819A (en) Language processing device, machine learning method, estimation method, and program
WO2018066083A1 (en) Learning program, information processing device and learning method
Kumar et al. ManuBERT: A pretrained Manufacturing science language representation model
JP2020160974A (en) Information processing device, information processing method and program
JP6461032B2 (en) Extraction apparatus and extraction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180718

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350