JP2018028872A - Learning device, method for learning, program parameter, and learning program - Google Patents
Learning device, method for learning, program parameter, and learning program Download PDFInfo
- Publication number
- JP2018028872A JP2018028872A JP2016161488A JP2016161488A JP2018028872A JP 2018028872 A JP2018028872 A JP 2018028872A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2016161488 A JP2016161488 A JP 2016161488A JP 2018028872 A JP2018028872 A JP 2018028872A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- sentence
- neural network
- rnn
- recurrent neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 48
- 230000004044 response Effects 0.000 claims abstract description 79
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 230000000306 recurrent effect Effects 0.000 claims abstract description 33
- 238000005259 measurement Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 26
- 238000012549 training Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
本発明は、学習装置、学習方法、プログラムパラメータおよび学習プログラムに関する。 The present invention relates to a learning device, a learning method, a program parameter, and a learning program.
従来、RNN(Recurrent neural network)やディープラーニング等と呼ばれる技術を用いて、情報にラベルを付与する技術が知られている。このような技術の一例として、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行い、文章にラベルを付与する技術が知られている。 2. Description of the Related Art Conventionally, a technique for labeling information using a technique called RNN (Recurrent neural network), deep learning, or the like is known. As an example of such a technique, a technique is known in which a learning device learns to output a label indicating the content or type of a sentence according to the content of the input sentence, and gives a label to the sentence. .
しかしながら、従来技術では、学習器が適切なラベルを付与することができない場合がある。 However, in the prior art, the learning device may not be able to give an appropriate label.
例えば、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行う場合には、文章とその文章に付与すべきラベルとの関係性を学習器に学習させることとなる。しかしながら、文章とその文章に付与すべきラベルとを含む正解データが十分に準備できない場合には、文章とラベルとの関係性を適切に学習することができず、学習器が適切なラベルを付与することができなくなる恐れがある。 For example, if the learning device learns to output a label indicating the content or type of a sentence according to the content of the input sentence, it learns the relationship between the sentence and the label to be assigned to the sentence. Will be made to learn. However, if the correct data including the sentence and the label to be attached to the sentence cannot be prepared sufficiently, the relationship between the sentence and the label cannot be properly learned, and the learning device assigns an appropriate label. You may not be able to do it.
本願は、上記に鑑みてなされたものであって、文章に付与するラベルの精度を向上させることを目的とする。 The present application has been made in view of the above, and an object thereof is to improve the accuracy of a label applied to a sentence.
本願に係る学習装置は、第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部ととを有することを特徴とする。 The learning device according to the present application performs learning by a first learning unit that causes a learning device and a restorer included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue, and the first learning unit performs learning. The relationship between the first generation unit that generates the second recurrent neural network using at least one of the learned learner and the restorer, and the sentence and the label given to the sentence is expressed as the second recurrent. And a second learning unit that causes the neural network to learn.
実施形態の一態様によれば、文章に付与するラベルの精度を向上させることができる。 According to one aspect of the embodiment, it is possible to improve the accuracy of a label attached to a sentence.
以下に、本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
Hereinafter, a learning apparatus, a learning method, a program parameter, and a mode for carrying out a learning program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. In addition, the learning apparatus, the learning method, the program parameter, and the learning program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
[Embodiment]
〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
[1-1. Example of learning device)
First, an example of learning processing executed by the learning device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a learning process executed by the learning device according to the embodiment. In FIG. 1, the
より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、利用者が使用する端末装置100といった任意の装置と通信が可能である。また、学習装置10は、任意の利用者間における対話を取得するための入力装置200(例えば、図2を参照)と通信可能である。
More specifically, the
なお、端末装置100や入力装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。また、学習装置10は、サーバ装置やクラウドシステム等の任意の情報処理装置により実現される。
The
〔1−2.学習処理について〕
ここで、学習装置10は、入力された文章に対し、その文章の種別や内容等といった属性を示す属性情報を付与するためのモデルを学習する。このような属性情報は、ラベル、タグ、又はメタデータ等と呼ばれ、文章の検索や選択を行う際に利用される。なお、以下の説明では属性情報をラベルと記載する。
[1-2. About the learning process)
Here, the
例えば、学習装置10は、文章に含まれる複数の単語を、各単語が文章中に出現する順に入力した際に、各単語の特徴と、各単語が出現する順番の特徴とを学習するリカレントニューラルネットワーク(以下「RNN(Recurrent Neural Network)と記載する。)の学習を行う。ここで、RNNは、複数の情報を順に入力した際に、各情報の特徴と入力された順番の特徴とを符号化し、符号化した特徴を出力する学習器(エンコーダ)と、学習器が出力した特徴に基づいて、新たな情報を復元する復元器(デコーダ)とを有するニューラルネットワークである。例えば、復元器は、学習器が出力した特徴から、学習器に入力された複数の情報を、入力した順に復元するといった処理を実行する。
For example, when the
例えば、学習装置10は、RNNの学習に用いられる学習データとして、所定の文章と、その文章に付与すべきラベルとの組を取得する。このような場合、学習装置10は、文章に含まれる単語をRNNに入力した際に、文章に付与すべきラベルを出力するようにRNNの学習を行う。例えば、学習装置10は、バックプロパゲーション法等、ディープラーニングやニューラルネットワーク等の学習に用いられる任意の学習手法を用いて、RNNの学習を実行する。
For example, the
しかしながら、学習データの数が十分に取得できなかった場合には、文章に含まれる各単語の特徴や、単語が出現する順番の特徴等を適切に学習することができず、文章に付与するラベルの精度が低下する恐れがある。 However, if the number of learning data cannot be acquired sufficiently, it is not possible to properly learn the characteristics of each word included in the sentence, the characteristics of the order in which the words appear, etc. There is a risk that the accuracy of the will decrease.
そこで、学習装置10は、以下の学習処理を実行する。まず、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。続いて、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、第2RNNに学習させる。すなわち、学習装置10は、対話に含まれる発話と応答とを用いて、文章とラベルとの関係性のプレトレーニングを行う。
Therefore, the
ここで、対話に含まれる発話と応答とには、隠れた共通性が含まれると予測される。例えば、ある小説を原作とするアニメや映画が存在する場合に、対話に含まれる発話と応答とには、小説に関する対話であるのか、アニメに関する対話であるのか、映画に関する対話であるのか等といった隠れた共通性が存在する。また、対話に含まれる発話と、発話に対する応答とには、共通する文脈(コンテキスト)が存在すると予測される。このような共通性は、文章のコンテキストとラベルのコンテキストとの共通性に類似すると予測される。すると、発話と応答との関係性をあらかじめ学習した場合には、文章とラベルとの共通性や共起性を補強しうると考えられる。 Here, it is predicted that hidden commonality is included in the utterance and response included in the dialogue. For example, when there is an anime or movie based on a novel, whether the utterance and response included in the dialogue is a dialogue about a novel, a dialogue about an animation, a dialogue about a movie, etc. There is a hidden commonality. Further, it is predicted that a common context (context) exists in the utterance included in the dialogue and the response to the utterance. Such commonality is expected to be similar to the commonality between the sentence context and the label context. Then, if the relationship between the utterance and the response is learned in advance, it is considered that the commonality and co-occurrence between the sentence and the label can be reinforced.
そこで、学習装置10は、発話と応答とを用いて、RNNに含まれる学習器と復元器とのプレトレーニングを行う。例えば、学習装置10は、発話を学習器に入力した際に、その発話に対する応答を復元器が出力するように、学習器および復元器のプレトレーニングを行う。より具体的には、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに、その各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が発話を符号化した特徴、すなわち、学習器が出力する情報から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。
Therefore, the
なお、学習装置10は、発話と応答とを、それぞれ学習器または復元器のいずれかに対応付けるのであれば、発話を学習器に対応付けて学習させ、応答を復元器に対応付けて学習させる必要はない。例えば、学習装置10は、応答を学習器に対応付けて学習させ、発話を復元器に対応付けて学習させてもよい。具体的には、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させてもよい。また、学習装置10は、学習器と復元器とでパラメータを共有させることで、学習器兼復元器となるモデルの学習を行なってもよい。例えば、学習装置10は、学習器兼復元器として動作する1つのRNNの学習を行ってもよい。
Note that if the
〔1−3.RNNの生成について〕
ここで、学習装置10は、プレトレーニングを行ったRNN、すなわち、第1RNNをそのまま用いて、文章とラベルとの関係性を学習させてもよい。また、学習装置10は、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、新たなRNNを生成し、生成したRNNに文章とラベルとの関係性を学習させてもよい。
[1-3. About generation of RNN]
Here, the
例えば、学習装置10は、第1RNNに含まれる学習器と、新たに生成した復元器とを用いて、第2RNNを生成する。ここで、新たに生成した復元器とは、第1RNNに含まれる復元器であれば、任意の復元器が適用可能であり、例えば、ニューロン間で情報を伝達する際の伝達係数を初期化(例えば、ランダム化)した復元器であってもよい。このようにして生成された第2RNNには、学習器側に、発話と応答とに含まれる隠れた共通性の特徴が反映されていると考えられる。換言すると、第2RNNは、文章を入力した際に適切なラベルを出力するように、各ニューロン間の伝達係数が収束しやすいと考えられる。このため、学習データの量が十分に存在しない場合であっても、第2RNNは、学習データに含まれる文章とラベルとの関係性、すなわち、文章とラベルとが有する隠れた共通性の特徴を迅速に学習することができると考えられる。
For example, the
そこで、学習装置10は、第2RNNに学習データの文章を入力した際に、入力した文章に付与すべきラベルを第2RNNが出力するように、第2RNNの復号化の学習を行う。例えば、学習装置10は、ランダムに初期化した復元器と、第1RNNの学習器とを接続し、学習器のパラメータを固定して、復元器側のパラメータの更新を行う。この結果、学習装置10は、文章に対して適切なラベルを付与するRNNを生成することができるので、文章に付与するラベルの精度を改善することができる。
Therefore, the
ここで、学習装置10は、第3RNNにおける学習、すなわち、学習データ以外の文章に対してラベルを付与する際に、第2RNNをそのまま利用してさらに全体を学習させてもよく、第2RNNを用いて新たな第3RNNを生成し、新たな第3RNNを測定時に用いるRNN(以下、「測定用RNN」と記載する。)としてもよい。例えば、第2RNNに含まれる復元器には、文章とラベルとの関係性の特徴が学習されていると予測される。より具体的には、第2RNNに含まれる復元器は、複数の単語の特徴と、各単語が出現する順序の特徴とを示す情報から、その複数の単語がその順序で現れる文章に対して付与すべきラベルを示す情報を出力するように学習が行われている。そこで、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを含む第3RNNに対してさらに全体学習をおこなった第3RNNを測定用RNNとしてもよい。また、学習装置10は、第2RNNを通さずに、第1RNNの学習器を利用して、さらに全体学習をさせた第3RNNを測定用RNNとしてもよい。また、学習装置10は、第3RNNの学習時において、学習器のパラメータを固定して復元器側のパラメータのみを更新し、ある程度の学習が進んだ再に、学習器側のパラメータの固定を外して、第3RNN全体の学習(トレーニング)を行ってもよい。
Here, when learning is performed in the third RNN, that is, when a label is assigned to a sentence other than the learning data, the
そして、学習装置10は、第3RNNを用いて、ラベルの付与対象となる文章に対してラベルを付与してもよい。例えば、学習装置10は、第3RNNに含まれる学習器の入力層に、文章に含まれる各単語を各単語が出現する順序で入力し、学習器の出力層から出力された情報、すなわち、入力された文章に含まれる各単語の特徴と各単語が出現する順序の特徴とを示す特徴情報を、復元器の入力層に入力する。そして、学習装置10は、復元器が特徴情報に基づいて出力したラベルを示す情報から、文章に対して付与すべきラベルを決定する。
And the
〔1−4.RNNのバリエーションについて〕
ここで、学習装置10は、対話に含まれる発話と応答とを用いてプレトレーニングを行った学習器または復元器を用いるのであれば、任意の処理を用いて、測定用RNNを生成してよい。例えば、学習装置10は、第1RNNに含まれる学習器と新たな復元器とから第2RNNを生成し、学習データを用いて第2RNNを学習する。そして、学習装置10は、学習を行った第2RNNを、そのまま測定用RNNとしてもよい。
[1-4. About variations of RNN]
Here, the
また、学習装置10は、第1RNNに含まれる学習器と、新たな復元器とを用いて第2RNNを生成し、学習データを用いて第2RNNを学習する。続いて、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを用いて第3RNNを生成し、学習データを用いて、第3RNNの学習を行う。そして、学習装置10は、学習データを用いて学習を行った第3RNNを測定用RNNとして出力してもよい。
In addition, the
なお、学習装置10は、第2RNNの学習を行う際と、第3RNNの学習を行う際とで、同一の学習データを用いてもよく、異なる学習データを用いてもよい。また、学習装置10は、文章とその文章に付与すべきラベルとの組である学習データに加えて、対話に含まれる発話と応答との組を学習データとし、第2RNNや第3RNNの学習を行ってもよい。
Note that the
〔1−5.文章とラベルについて〕
ここで、学習装置10は、任意の文章に対して付与される任意のラベルを付与するRNNの学習を行ってよい。すなわち、学習装置10がラベルを付与する文章とは、小説、新聞記事、ブログ、マイクロブログ、批評、投稿等といった執筆物に関する文章であってもよく、カルテ等といった記録等であってもよい。また、文章は、一文であってもよく複数の文からなる文章であってもよい。例えば、学習装置10は、書籍や作品単位で文章の学習等を行ってもよい。
[1-5. (About text and labels)
Here, the
また、学習装置10が付与するラベルとは、文章の内容や属性等を示す単語や文章等であってもよく、検索などに使用される数値や文字列等であってもよい。
Further, the label provided by the
〔1−6.数式の一例〕
次に、上述した学習処理を示す数式の一例について説明する。例えば、時刻「t」における学習器の「j」番目のノードの状態を「hj<t>」と記載すると、学習器における各ノードの状態は、以下の式(1)で表すことができる。ここで、式(1)中の波付き「hj<t>」は、式(2)で表すことができ、「zj」および「rj」は、以下の式(3)および式(4)で表される。ここで、「xt」は、「t」番目の入力を示す。また、式(2)〜式(4)の「W」および「U」は、学習器の接続係数を示すパラメータである。
[1-6. Example formula)
Next, an example of a mathematical expression indicating the learning process described above will be described. For example, when the state of the “j” -th node of the learning device at time “t” is described as “hj <t>”, the state of each node in the learning device can be expressed by the following equation (1). Here, the wavy “hj <t>” in the equation (1) can be expressed by the equation (2), and “zj” and “rj” can be expressed by the following equations (3) and (4). expressed. Here, “xt” indicates the “t” th input. Further, “W” and “U” in the equations (2) to (4) are parameters indicating the connection coefficient of the learning device.
すると、学習器による学習結果は、式(5)で示すことができる。 Then, the learning result by the learning device can be expressed by Expression (5).
ここで、学習器の出力は、復元器の各ノードへと伝達される。このような復元器のノードへの入力は、式(6)で示すことができる。 Here, the output of the learning device is transmitted to each node of the restoring device. The input to such a restorer node can be expressed by equation (6).
すると、時刻「t」における復元器の「j」番目のノードの状態を「h´j<t>」とすると、「h´j<t>」は、以下の式(7)で示すことができる。ここで、式(7)中の波付き「h´j<t>」は、以下の式(8)で表すことができ、「z´j」および「r´j」は、以下の式(9)および式(10)で表される。また、式(8)〜式(10)の「W´」および「U´」は、復元器の接続係数を示すパラメータである。 Then, if the state of the “j” -th node of the decompressor at time “t” is “h′j <t>”, “h′j <t>” can be expressed by the following equation (7). it can. Here, “h′j <t>” with a wave in the equation (7) can be expressed by the following equation (8), and “z′j” and “r′j” 9) and the formula (10). In addition, “W ′” and “U ′” in Expression (8) to Expression (10) are parameters indicating the connection coefficient of the restorer.
例えば、学習装置10は、学習器が文章に含まれる複数の単語、すなわち単語群の特徴および順番を学習し、復元器が学習器の出力から、学習器に入力された複数の単語が学習器に入力された順で出現する文章に対して付与すべきラベルを示す情報を出力するように、式(1)〜式(10)における「W」、「U」、「W´」および「U´」の値を学習する。
For example, in the
〔1−7.学習処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理の一例について説明する。まず、学習装置10は、利用者の発言Aや発言B等といった対話を入力として受付ける(ステップS1)。例えば、入力装置200は、マイクなどの音声を取得する音声取得装置を用いて、複数の利用者間で行われた対話の音声を取得する。そして、入力装置200は、任意の音声認識技術を用いて、対話をテキストデータに変換し、変換後のテキストデータ、すなわち、対話のテキストデータを学習装置10へと送信する。
[1-7. Example of learning process)
Next, an example of a learning process executed by the
より具体的には、入力装置200は、ある利用者による発言Aのテキストデータを発話のデータ(以下、「発話データ」と記載する場合がある。)とし、発言Aに対する他の利用者の応答である発言Bのテキストデータを応答のデータ(以下、「応答データ」と記載する場合がある。)として生成する。そして、入力装置200は、発話データおよび応答データを、対話のデータとして学習装置10へと送信する。
More specifically, the
このような場合、学習装置10は、入力した対話文に含まれる発話と応答とを、それぞれ第1RNNの学習器または復元器のいずれかに対応付けて、発話と応答とに内在する隠れた情報、すなわち、発話と応答とに内在する隠れた共通性をプレトレーニングする(ステップS2)。例えば、学習装置10は、対話のテキストデータから、発話とその発話に対応する応答とを抽出する。そして、学習装置10は、第1RNNに含まれる学習器EN01に対して発話に含まれる各単語をその発話に含まれる順に入力した場合に、学習器EN01の出力から、学習器EN01に入力した発話に対応する応答に含まれる各単語を、その応答に含まれる順で復元器DE01が出力するように、学習器EN01および復元器DE01の学習を行う。より具体的には、学習装置10は、学習器EN01および復元器DE01の伝達係数を補正する。
In such a case, the
次に、学習装置10は、プレトレーニングを行った学習器EN01と新たな復元器DE02とを組み合わせた第2RNNを生成し、ラベル付き文章(すなわち、学習データ)の文章から、そのラベル付き文章のラベルを生成するように、第2RNNの学習を行う(ステップS3)。例えば、学習装置10は、第2RNNに含まれる学習器EN01に対してラベル付き文章の文章に含まれる各単語をその文章に含まれる順に入力した場合に、学習器EN01の出力から、ラベル付き文章のラベルを示す情報を復元器DE02が出力するように、学習器EN01および復元器DE02の学習を行う。
Next, the
ここで、学習装置10は、ラベルの付与対象となる文章を端末装置100から取得したものとする(ステップS4)。このような場合、学習装置10は、測定時の処理を実行する。より具体的には、学習装置10は、ラベル付き文章を用いてラベルの学習を行った復元器DE02と、プレトレーニングを行った学習器EN01とを組み合わせた第3RNNを測定用RNNとして、端末装置100から取得した文章に付与するラベルを判定する(ステップS5)。例えば、学習装置10は、測定用RNNの学習器EN01に端末装置100から取得した文章に含まれる各単語を、各単語が出現する順序で入力する。そして、学習装置10は、測定用RNNの復元器DE02が出力した情報に基づいて、文章に付与すべきラベルを判定する。その後、学習装置10は、判定結果であるラベルを示す情報を、端末装置100に対して出力する(ステップS6)。
Here, it is assumed that the
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of learning device]
Hereinafter, an example of a functional configuration of the
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や入力装置200との間で情報の送受信を行う。
The
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、対話データデータベース31、および学習データデータベース32を記憶する。なお、記憶部30は、例えば、学習するRNNのノードと伝達係数との関係性を示す情報等をさらに記憶しているものとする。
The
対話データデータベース31には、プレトレーニングに用いる対話のデータが登録されている。例えば、図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。図3に示す例では、対話データデータベース31には、「対話ID」、「発話情報」、「応答情報」等といった項目を有する情報が登録される。なお、対話データデータベース31には、発話や応答を行った利用者の属性等、図3に示す情報以外の情報が登録されていてもよい。 In the dialogue data database 31, dialogue data used for pre-training is registered. For example, FIG. 3 is a diagram illustrating an example of information registered in the dialogue data database according to the embodiment. In the example illustrated in FIG. 3, information having items such as “dialog ID”, “utterance information”, “response information”, and the like is registered in the dialog data database 31. Note that information other than the information shown in FIG. 3, such as the attributes of the user who made an utterance or a response, may be registered in the dialog data database 31.
ここで、「対話ID(Identifier)」は、対話を識別するための情報である。また、「発話情報」とは、発話のテキストデータである。また、「応答情報」とは、対応付けられた発話に対する応答のテキストデータである。なお、図3に示す例では、「対話#1」、「発話#1」、「応答#1」等といった概念的な値について記載したが、実際には、対話を識別する識別子や、テキストデータ等が対話データデータベース31に登録される。 Here, the “dialog ID (Identifier)” is information for identifying a dialog. “Speech information” is text data of an utterance. “Response information” is text data of a response to the associated utterance. In the example shown in FIG. 3, conceptual values such as “dialog # 1”, “utterance # 1”, “response # 1”, and the like have been described. Are registered in the dialogue data database 31.
例えば、図3に示す例では、対話ID「対話#1」、発話情報「発話#1」、および応答情報「応答#1」が対応付けて登録されている。このような情報は、対話ID「対話#1」が示す対話に含まれる発話のテキストデータが「発話#1」であり、この発話に対する応答のテキストデータが「応答#1」である旨を示す。 For example, in the example illustrated in FIG. 3, the conversation ID “dialog # 1”, the utterance information “utterance # 1”, and the response information “response # 1” are registered in association with each other. Such information indicates that the text data of the utterance included in the dialog indicated by the dialog ID “dialog # 1” is “utterance # 1”, and the text data of the response to this utterance is “response # 1”. .
図2に戻り、説明を続ける。学習データデータベース32には、RNNの学習に用いられる学習データ、すなわち、ラベル付き文章が登録されている。例えば、図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図4に示す例では、学習データデータベース32には、「学習データID」、「文章情報」、「ラベル情報」等といった項目を有する情報が登録される。なお、学習データデータベース32には、図3に示す情報以外にも、ラベル付き文章に関連する任意の情報が登録されていてもよい。 Returning to FIG. 2, the description will be continued. In the learning data database 32, learning data used for RNN learning, that is, labeled sentences are registered. For example, FIG. 4 is a diagram illustrating an example of information registered in the learning data database according to the embodiment. In the example illustrated in FIG. 4, information having items such as “learning data ID”, “text information”, and “label information” is registered in the learning data database 32. In addition to the information shown in FIG. 3, arbitrary information related to the labeled sentence may be registered in the learning data database 32.
ここで、「学習データID」は、学習データとしての対話を識別するための情報である。また、「文章情報」とは、ラベル付き文章の文章、すなわちテキストデータである。また、「ラベル情報」とは、対応付けられた文章に対して付与されるべきラベルを示す情報である。なお、図4に示す例では、「データ#1」、「文章#1」、「ラベル#1」等といった概念的な値について記載したが、実際には、ラベル付き文章を識別する識別子や、テキストデータ等が学習データデータベース32に登録される。 Here, the “learning data ID” is information for identifying a dialogue as learning data. “Sentence information” is a sentence of a labeled sentence, that is, text data. “Label information” is information indicating a label to be assigned to the associated text. In the example shown in FIG. 4, conceptual values such as “data # 1”, “sentence # 1”, “label # 1”, and the like are described. However, in practice, an identifier for identifying a labeled sentence, Text data or the like is registered in the learning data database 32.
例えば、図4に示す例では、学習データID「データ#1」、文章情報「文章#1」、およびラベル情報「ラベル#1」が対応付けて登録されている。このような情報は、学習データID「データ#1」が示すラベル付き文章に含まれる文章のテキストデータが「文章#1」であり、この文章に対して付与されるべきラベルが「ラベル#1」である旨を示す。 For example, in the example illustrated in FIG. 4, the learning data ID “data # 1”, the sentence information “sentence # 1”, and the label information “label # 1” are registered in association with each other. In such information, the text data of the sentence included in the labeled sentence indicated by the learning data ID “data # 1” is “sentence # 1”, and the label to be given to this sentence is “label # 1”. ".
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
Returning to FIG. 2, the description will be continued. The
図2に示すように、制御部40は、取得部41、第1学習部42、第2学習部43、生成部44、および測定部45を有する。
As illustrated in FIG. 2, the
取得部41は、所定の対話における発話と、その発話に対する応答とを取得する。例えば、取得部41は、入力装置200から対話のテキストデータを取得すると、取得したテキストデータの解析を行い、発話のテキストデータと、その発話に対する応答のテキストデータとを抽出する。そして、取得部41は、抽出した発話のテキストデータと応答のテキストデータとを対話データとして対話データデータベース31に登録する。なお、取得部41は、形態素解析等、任意の文字列解析技術を用いて、発話と、その発話に対応する応答とを抽出してよい。
The acquisition unit 41 acquires an utterance in a predetermined dialogue and a response to the utterance. For example, when acquiring the text data of the dialog from the
第1学習部42は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。すなわち、第1学習部42は、対話を用いたRNNのプレトレーニングを実行する。 The first learning unit 42 causes the learning device and the restoration device included in the first RNN to learn the relationship between the utterance and the response in a predetermined dialogue. That is, the first learning unit 42 performs pre-training of the RNN using dialogue.
例えば、第1学習部42は、対話データデータベース31から対話に含まれる発話と応答とを取得する。また、第1学習部42は、初期化された第1RNN等、プレトレーニングの対象となる第1RNNを準備する。そして、第1学習部42は、発話を第1RNNの学習器に入力した際に、その発話に対する応答を第1RNNの復元器が出力するように、学習器および復元器の学習を行う。より具体的には、第1学習部42は、発話に含まれる各単語を発話内で出現する順番で学習器に入力し、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう学習器と復元器を学習させる。すなわち、第1学習部42は、発話の各単語が有する特徴と各単語が出現する順番との特徴とを学習器と復元器とに学習させる。 For example, the first learning unit 42 acquires utterances and responses included in the dialogue from the dialogue data database 31. In addition, the first learning unit 42 prepares a first RNN to be pretrained, such as an initialized first RNN. Then, when the utterance is input to the first RNN learner, the first learning unit 42 learns the learner and the restorer so that the first RNN restorer outputs a response to the utterance. More specifically, the first learning unit 42 inputs each word included in the utterance to the learning device in the order in which the words appear in the utterance, and each word included in the response from each feature encoded by the learning device. The learner and the restorer are trained to restore the words in the order in which they appear in the response. That is, the first learning unit 42 causes the learning device and the restoration device to learn the characteristics of each word in the utterance and the characteristics of the order in which each word appears.
なお、第1学習部42は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、第1学習部42には、応答に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させてもよい。 Note that the first learning unit 42 may perform learning of the learning device and the restoration device so that when the response is input to the learning device, the restoration device outputs an utterance corresponding to the response. For example, the first learning unit 42 causes the learner to learn the features of each word together with the order in which each word included in the response appears in the utterance, and each feature included in the utterance from the features encoded by the learner. The restorer may be trained to restore words with the order in which each word appears in the response.
第2学習部43は、学習データデータベース32に登録された学習データであるラベル付き文章を用いて、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて生成された第2RNNや、第3RNNの学習を行う。なお、第2学習部43が実行する処理の例については、後述する。
The
生成部44は、第1学習部42によって学習が行われた学習器または復元器、すなわち、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。例えば、生成部44は、第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。 The generation unit 44 generates the second RNN using at least one of the learning device or the restoration device learned by the first learning unit 42, that is, the learning device or the restoration device included in the first RNN. For example, the generation unit 44 generates the second RNN using a learning device and a new restorer included in the first RNN.
このような第2RNNが生成された場合、第2学習部43は、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を、第2RNNに学習させる。
When such a second RNN is generated, the
また、生成部44は、第2学習部43によって第2RNNの学習が行われた場合、第1学習部42によってプレトレーニングが行われた第1RNNの学習器と、第2学習部43によって学習が行われた第2RNNの復元器とを含む第3RNNを生成する。そして、生成部44は、生成した第3RNNを測定用RNNとして記憶部30等に登録する。
In addition, when the
なお、第2学習部43は、第3RNNに対して、学習データを用いたさらなる学習を行ってもよい。例えば、第2学習部43は、第3RNNに対して、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を学習させる。そして、第2学習部43は、学習を行った第3RNNを測定用RNNとして記憶部30等に登録してもよい。
Note that the
測定部45は、測定用RNNを用いた測定処理を実行する。例えば、測定部45は、端末装置100からラベルの付与対象となる文章を受付けた場合は、生成部44によって生成された第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定する。例えば、測定部45は、受付けられた文章に含まれる各単語を、文章中に出現する順序で測定用RNNの学習器に入力し、測定用RNNの復元器が出力した情報に基づいて、受付けられた文章に付与されるラベルを特定する。そして、測定部45は、特定したラベルを示す情報を、端末装置100へと送信する。
The measurement unit 45 executes measurement processing using the measurement RNN. For example, when the measurement unit 45 receives a sentence to be given a label from the
なお、測定部45は、第2学習部43によってラベル付き文章を用いた学習がさらに行われた第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。また、測定部45は、第2学習部43により学習が行われた第2RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。
Note that the measurement unit 45 may specify a label to be given to the accepted sentence, with the third RNN that has been further learned using the labeled sentence by the
〔3.RNNのバリエーション〕
次に、図5および図6を用いて、学習装置10が測定用RNNとして用いるRNNの生成のバリエーションについて説明する。図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。また、図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。
[3. Variation of RNN]
Next, with reference to FIG. 5 and FIG. 6, variations of generation of the RNN used by the
まず、図5を用いて、第2RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS10)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS11)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS12)。そして、学習装置10は、学習を行った第2RNNの復元器DE02と(ステップS13)、学習を行った第2RNNの学習器EN01と(ステップS14)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS15)。
First, an example of a process for setting the second RNN as the measurement RNN will be described with reference to FIG. For example, the
次に、図6を用いて、ラベル付き文章を用いた学習を行った第3RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS20)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS21)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS22)。
Next, with reference to FIG. 6, an example of processing in which the third RNN that has performed learning using the labeled sentence is used as the measurement RNN will be described. For example, the
また、学習装置10は、学習を行った第2RNNの復元器DE02を取り出し(ステップS23)、プレトレーニングを行った第1RNNに含まれる学習器EN01と組み合わせた第3RNNを生成し(ステップS24)、ラベル付き文章を用いて第3RNNの学習を再度実行する(ステップS25)。そして、学習装置10は、学習を行った第3RNNの復元器DE02と(ステップS26)、学習を行った第3RNNの学習器EN01と(ステップS27)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS28)。
Further, the
〔4.学習装置が実行する処理の流れの一例〕
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、対話文を取得し(ステップS101)、対話文から発話と応答とを抽出する(ステップS102)。そして、学習装置10は、発話から応答を再現するように、第1RNNに含まれる学習器と復元器とのプレトレーニングを行う(ステップS103)。
[4. Example of flow of processing executed by learning device]
Next, an example of the flow of learning processing executed by the
続いて、学習装置10は、プレトレーニング済みの学習器と、新たな復元器とを用いた第2RNNを生成し(ステップS104)、ラベル付き文章の文章からラベルを示す情報を生成するように、第2RNNの学習を行う(ステップS105)。そして、学習装置10は、学習済みの第2RNNの復元器と、プレトレーニング済みの第1RNNに含まれる学習器とを用いた第3RNNを生成し(ステップS106)、生成した第3RNNを測定用RNNとして用いて、測定処理を実行し(ステップS107)、処理を終了する。
Subsequently, the
〔5.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
[5. (Modification)
In the above, an example of the learning process by the
〔5−1.測定用RNNについて〕
上述した例では、学習装置10は、生成した測定用RNNを用いて、ラベルの付与対象となる文章に付与するラベルを特定した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、生成した測定用RNNを用いて、文章からラベルを付与するプログラムを生成し、生成したプログラムを出力してもよい。このようなプログラムは、学習装置10以外の情報処理装置が実行することで、学習装置10により生成された測定用RNNを用いて、文章からラベルを特定させることができる。すなわち、学習装置10が生成した測定用RNNは、文章からラベルを特定するプログラムのプログラムパラメータとして用いられてもよい。
[5-1. About RNN for measurement]
In the above-described example, the
〔5−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。また、学習装置10は、対話データデータベース31および学習データデータベース32を外部のストレージサーバに記憶させてもよい。
[5-2. Device configuration〕
In the example described above, the
〔5−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5-3. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, information including various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した第1学習部42及び第2学習部43は統合されてもよい。
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the first learning unit 42 and the
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined within a range in which processing contents are not contradictory.
〔6.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from other devices via the network N and sends the data to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the
〔7.効果〕
上述したように、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。そして、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成し、文章とその文章に付与されるラベルとの関係性を、第2RNNに学習させる。このように、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うので、文章に付与するラベルの精度を向上させることができる。また、学習データがある程度潤沢にある場合は、従来の学習手法で学習したRNNよりも分類精度(性能)が良いRNNを取得することができる。
[7. effect〕
As described above, the
また、学習装置10は、発話を学習器に入力した際に、発話に対する応答を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。
The
また、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させる。
Further, the
上述した処理の結果、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うことができる。
As a result of the processing described above, the
また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
In addition, the
また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、生成された第3RNNに学習させ、学習が行われた第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
Further, the
また、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第2RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
Moreover, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit can be read as generation means or a generation circuit.
20 通信部
30 記憶部
31 対話データデータベース
32 学習データデータベース
40 制御部
41 取得部
42 第1学習部
43 第2学習部
44 生成部
45 測定部
100 端末装置
200 入力装置
DESCRIPTION OF
Claims (12)
前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部と
を有することを特徴とする学習装置。 A first learning unit that causes a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generator that generates a second recurrent neural network using at least one of a learner or a restorer that has been learned by the first learning unit;
A learning apparatus comprising: a second learning unit that causes the second recurrent neural network to learn a relationship between a sentence and a label attached to the sentence.
ことを特徴とする請求項1に記載の学習装置。 The first learning unit performs learning of the learning device and the restoration device so that when the utterance is input to the learning device, the restoration device outputs a response to the utterance. Item 4. The learning device according to Item 1.
ことを特徴とする請求項2に記載の学習装置。 The first learning unit causes the learner to learn the features of each word together with the order in which the words included in the utterance appear in the utterance, and includes the response from the features encoded by the learner. The learning apparatus according to claim 2, wherein the restorer is made to learn each word to be restored together with an order in which each word appears in the response.
ことを特徴とする請求項1に記載の学習装置。 The first learning unit performs learning of the learning device and the restoring device so that when the response is input to the learning device, the restoring device outputs an utterance corresponding to the response. The learning apparatus according to claim 1.
ことを特徴とする請求項4に記載の学習装置。 The first learning unit causes the learner to learn the characteristics of each word together with the order in which each word included in the response appears in the response, and includes the utterance from the features encoded by the learner. The learning apparatus according to claim 4, wherein the restorer is made to learn each word to be restored together with an order in which each word appears in the utterance.
ことを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。 The said 1st production | generation part produces | generates the said 2nd recurrent neural network using the learning device and new restorer which were learned by the said 1st learning part. The one of Claims 1-5 characterized by the above-mentioned. The learning device according to any one of the above.
ラベルの付与対象となる文章を受付けた場合は、前記第2生成部により生成された前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 A second generator for generating a third recurrent neural network including a learning device learned by the first learning unit and a restorer included in the second recurrent neural network learned by the second learning unit;
A specific unit for specifying a label to be given to the accepted sentence using the third recurrent neural network generated by the second generation unit when the sentence to be given a label is accepted; The learning apparatus according to claim 6.
文章と当該文章に付与されるラベルとの関係性を、前記第2生成部によって生成された第3リカレントニューラルネットワークに学習させる第3学習部と、
ラベルの付与対象となる文章を受付けた場合は、前記第3学習部により学習が行われた前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 A second generator for generating a third recurrent neural network including a learning device learned by the first learning unit and a restorer included in the second recurrent neural network learned by the second learning unit;
A third learning unit that causes the third recurrent neural network generated by the second generation unit to learn the relationship between the sentence and the label attached to the sentence;
A specific unit that identifies a label to be given to the accepted sentence using the third recurrent neural network learned by the third learning part when the sentence to be given a label is accepted; The learning apparatus according to claim 6, further comprising:
を有することを特徴とする請求項6に記載の学習装置。 A specific unit that identifies a label to be given to the accepted sentence using the second recurrent neural network learned by the second learning part when the sentence to be given a label is accepted; The learning apparatus according to claim 6, further comprising:
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と
を含むことを特徴とする学習方法。 A learning method executed by a learning device,
A first learning step of causing a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generation step of generating a second recurrent neural network using at least one of a learner or a reconstructor learned in the first learning step;
A learning method comprising: a second learning step of causing the second recurrent neural network to learn a relationship between a sentence and a label attached to the sentence.
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と、
前記第2リカレントニューラルネットワークを用いて、入力された文章に付与するラベルを推定する第3リカレントニューラルネットワークを生成する第2生成工程と、
を含むことを特徴とする学習方法で生成される前記第3リカレントニューラルネットワークを含むプログラムパラメータ。 A first learning step of causing a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generation step of generating a second recurrent neural network using at least one of a learner or a reconstructor learned in the first learning step;
A second learning step of causing the second recurrent neural network to learn a relationship between a sentence and a label attached to the sentence;
A second generation step of generating a third recurrent neural network for estimating a label to be given to the input sentence using the second recurrent neural network;
A program parameter including the third recurrent neural network generated by the learning method.
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習手順と、
前記第1学習手順によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成手順と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習手順と
を実行させる学習プログラム。 A first learning procedure for causing a learning device and a restoration device included in the first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialogue;
A first generation procedure for generating a second recurrent neural network using at least one of a learner or a reconstructor trained by the first learning procedure;
A learning program for executing a second learning procedure for causing the second recurrent neural network to learn a relationship between a sentence and a label given to the sentence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161488A JP6526607B2 (en) | 2016-08-19 | 2016-08-19 | Learning apparatus, learning method, and learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161488A JP6526607B2 (en) | 2016-08-19 | 2016-08-19 | Learning apparatus, learning method, and learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018028872A true JP2018028872A (en) | 2018-02-22 |
JP6526607B2 JP6526607B2 (en) | 2019-06-05 |
Family
ID=61248452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016161488A Active JP6526607B2 (en) | 2016-08-19 | 2016-08-19 | Learning apparatus, learning method, and learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6526607B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022025359A1 (en) * | 2020-07-27 | 2022-02-03 | 주식회사 딥브레인에이아이 | Method and apparatus for generating speech video |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015075706A (en) * | 2013-10-10 | 2015-04-20 | 日本放送協会 | Error correction model learning device and program |
JP2015176355A (en) * | 2014-03-14 | 2015-10-05 | 日本電信電話株式会社 | Model learning device, method and program |
-
2016
- 2016-08-19 JP JP2016161488A patent/JP6526607B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015075706A (en) * | 2013-10-10 | 2015-04-20 | 日本放送協会 | Error correction model learning device and program |
JP2015176355A (en) * | 2014-03-14 | 2015-10-05 | 日本電信電話株式会社 | Model learning device, method and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022025359A1 (en) * | 2020-07-27 | 2022-02-03 | 주식회사 딥브레인에이아이 | Method and apparatus for generating speech video |
Also Published As
Publication number | Publication date |
---|---|
JP6526607B2 (en) | 2019-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019200923A1 (en) | Pinyin-based semantic recognition method and device and human-machine conversation system | |
US20170286397A1 (en) | Predictive Embeddings | |
JP6462970B1 (en) | Classification device, classification method, generation method, classification program, and generation program | |
US11157707B2 (en) | Natural language response improvement in machine assisted agents | |
US20230259707A1 (en) | Systems and methods for natural language processing (nlp) model robustness determination | |
CN111930914A (en) | Question generation method and device, electronic equipment and computer-readable storage medium | |
CN112805715A (en) | Identifying entity attribute relationships | |
JP7205839B2 (en) | Data generation model learning device, latent variable generation model learning device, translation data generation device, data generation model learning method, latent variable generation model learning method, translation data generation method, program | |
JP7103264B2 (en) | Generation device, learning device, generation method and program | |
JP6975610B2 (en) | Learning device and learning method | |
JP6391617B2 (en) | Learning device, sentence automatic generation device, and learning method | |
JP6400038B2 (en) | Extraction apparatus and extraction method | |
JP6082657B2 (en) | Pose assignment model selection device, pose assignment device, method and program thereof | |
JP6775366B2 (en) | Selection device and selection method | |
JP4054046B2 (en) | Opinion determination database creation method and apparatus and program, opinion determination method and apparatus and program, and computer-readable recording medium | |
CN112307738A (en) | Method and device for processing text | |
CN110287396B (en) | Text matching method and device | |
JP6526607B2 (en) | Learning apparatus, learning method, and learning program | |
JP6680655B2 (en) | Learning device and learning method | |
JP2019021218A (en) | Learning device, program parameter, learning method and model | |
JP2023181819A (en) | Language processing device, machine learning method, estimation method, and program | |
WO2018066083A1 (en) | Learning program, information processing device and learning method | |
Kumar et al. | ManuBERT: A pretrained Manufacturing science language representation model | |
JP2020160974A (en) | Information processing device, information processing method and program | |
JP6461032B2 (en) | Extraction apparatus and extraction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180718 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180718 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6526607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |