JP6526607B2 - Learning apparatus, learning method, and learning program - Google Patents
Learning apparatus, learning method, and learning program Download PDFInfo
- Publication number
- JP6526607B2 JP6526607B2 JP2016161488A JP2016161488A JP6526607B2 JP 6526607 B2 JP6526607 B2 JP 6526607B2 JP 2016161488 A JP2016161488 A JP 2016161488A JP 2016161488 A JP2016161488 A JP 2016161488A JP 6526607 B2 JP6526607 B2 JP 6526607B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- sentence
- unit
- rnn
- learning device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000004044 response Effects 0.000 claims description 78
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 230000000306 recurrent effect Effects 0.000 claims description 23
- 238000005259 measurement Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 24
- 238000012549 training Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000011084 recovery Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Description
本発明は、学習装置、学習方法、および学習プログラムに関する。 The present invention, a learning device, a learning method, about your and learning programs.
従来、RNN(Recurrent neural network)やディープラーニング等と呼ばれる技術を用いて、情報にラベルを付与する技術が知られている。このような技術の一例として、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行い、文章にラベルを付与する技術が知られている。 2. Description of the Related Art Conventionally, techniques for labeling information using techniques called Recurrent Neural Network (RNN) and deep learning are known. As an example of such a technique, there is known a technique of learning a learning device to output a label indicating the content or type of a sentence according to the content of an input sentence and applying a label to the sentence .
しかしながら、従来技術では、学習器が適切なラベルを付与することができない場合がある。 However, in the prior art, there are cases where the learning device can not provide appropriate labels.
例えば、入力された文章の内容に応じて、文章の内容や種別を示すラベルを出力するように学習器の学習を行う場合には、文章とその文章に付与すべきラベルとの関係性を学習器に学習させることとなる。しかしながら、文章とその文章に付与すべきラベルとを含む正解データが十分に準備できない場合には、文章とラベルとの関係性を適切に学習することができず、学習器が適切なラベルを付与することができなくなる恐れがある。 For example, when learning a learning device to output a label indicating the content or type of a sentence according to the content of the input sentence, the relationship between the sentence and the label to be attached to the sentence is learned Will make the vessel learn. However, if correct data including the sentence and the label to be attached to the sentence can not be prepared sufficiently, the relationship between the sentence and the label can not be properly learned, and the learning device assigns the appropriate label. There is a risk that you will not be able to
本願は、上記に鑑みてなされたものであって、文章に付与するラベルの精度を向上させることを目的とする。 This application is made in view of the above, and it aims at improving the accuracy of the label given to a sentence.
本願に係る学習装置は、第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習部と、前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部ととを有することを特徴とする。 A learning apparatus according to the present application includes a first learning unit that causes a learning device and a restoring device included in a first recurrent neural network to learn a relationship between an utterance and a response in a predetermined dialog; A first generation unit for generating a second recurrent neural network using at least one of the above-described learners or reconstructors, and a relationship between a sentence and a label given to the sentence, the second recurrent And a second learning unit for making the neural network learn.
実施形態の一態様によれば、文章に付与するラベルの精度を向上させることができる。 According to one aspect of the embodiment, the accuracy of the label given to the text can be improved.
以下に、本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法、プログラムパラメータおよび学習プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
Hereinafter, a learning apparatus, a learning method, program parameters, and a mode for implementing a learning program according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the learning device, the learning method, the program parameters, and the learning program according to the present application are not limited by the embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.
[Embodiment]
〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
[1-1. Example of learning device]
First, an example of the learning process performed by the learning device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of learning processing performed by the learning device according to the embodiment. In FIG. 1, the
より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、利用者が使用する端末装置100といった任意の装置と通信が可能である。また、学習装置10は、任意の利用者間における対話を取得するための入力装置200(例えば、図2を参照)と通信可能である。
More specifically, the
なお、端末装置100や入力装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。また、学習装置10は、サーバ装置やクラウドシステム等の任意の情報処理装置により実現される。
The
〔1−2.学習処理について〕
ここで、学習装置10は、入力された文章に対し、その文章の種別や内容等といった属性を示す属性情報を付与するためのモデルを学習する。このような属性情報は、ラベル、タグ、又はメタデータ等と呼ばれ、文章の検索や選択を行う際に利用される。なお、以下の説明では属性情報をラベルと記載する。
[1-2. About learning process]
Here, the
例えば、学習装置10は、文章に含まれる複数の単語を、各単語が文章中に出現する順に入力した際に、各単語の特徴と、各単語が出現する順番の特徴とを学習するリカレントニューラルネットワーク(以下「RNN(Recurrent Neural Network)と記載する。)の学習を行う。ここで、RNNは、複数の情報を順に入力した際に、各情報の特徴と入力された順番の特徴とを符号化し、符号化した特徴を出力する学習器(エンコーダ)と、学習器が出力した特徴に基づいて、新たな情報を復元する復元器(デコーダ)とを有するニューラルネットワークである。例えば、復元器は、学習器が出力した特徴から、学習器に入力された複数の情報を、入力した順に復元するといった処理を実行する。
For example, when a plurality of words included in a sentence are input in the order in which the words appear in the sentence, the
例えば、学習装置10は、RNNの学習に用いられる学習データとして、所定の文章と、その文章に付与すべきラベルとの組を取得する。このような場合、学習装置10は、文章に含まれる単語をRNNに入力した際に、文章に付与すべきラベルを出力するようにRNNの学習を行う。例えば、学習装置10は、バックプロパゲーション法等、ディープラーニングやニューラルネットワーク等の学習に用いられる任意の学習手法を用いて、RNNの学習を実行する。
For example, the
しかしながら、学習データの数が十分に取得できなかった場合には、文章に含まれる各単語の特徴や、単語が出現する順番の特徴等を適切に学習することができず、文章に付与するラベルの精度が低下する恐れがある。 However, when the number of learning data can not be acquired sufficiently, the feature of each word included in the sentence, the feature of the order in which the words appear, etc. can not be learned appropriately, and the label attached to the sentence Accuracy may decrease.
そこで、学習装置10は、以下の学習処理を実行する。まず、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。続いて、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、第2RNNに学習させる。すなわち、学習装置10は、対話に含まれる発話と応答とを用いて、文章とラベルとの関係性のプレトレーニングを行う。
Therefore, the
ここで、対話に含まれる発話と応答とには、隠れた共通性が含まれると予測される。例えば、ある小説を原作とするアニメや映画が存在する場合に、対話に含まれる発話と応答とには、小説に関する対話であるのか、アニメに関する対話であるのか、映画に関する対話であるのか等といった隠れた共通性が存在する。また、対話に含まれる発話と、発話に対する応答とには、共通する文脈(コンテキスト)が存在すると予測される。このような共通性は、文章のコンテキストとラベルのコンテキストとの共通性に類似すると予測される。すると、発話と応答との関係性をあらかじめ学習した場合には、文章とラベルとの共通性や共起性を補強しうると考えられる。 Here, it is predicted that the utterance and the response included in the dialogue include hidden commonality. For example, when there is an animation or movie based on a novel, the utterance and the response included in the dialogue may be a dialogue about a novel, a dialogue about an animation, or a dialogue about a movie, etc. There is a hidden commonality. In addition, it is predicted that the utterance included in the dialogue and the response to the utterance have a common context (context). Such commonality is predicted to be similar to commonality between the context of sentences and the context of labels. Then, if the relationship between the speech and the response is learned in advance, it is considered that the commonality and co-occurrence of the text and the label can be reinforced.
そこで、学習装置10は、発話と応答とを用いて、RNNに含まれる学習器と復元器とのプレトレーニングを行う。例えば、学習装置10は、発話を学習器に入力した際に、その発話に対する応答を復元器が出力するように、学習器および復元器のプレトレーニングを行う。より具体的には、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに、その各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が発話を符号化した特徴、すなわち、学習器が出力する情報から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。
Therefore, the
なお、学習装置10は、発話と応答とを、それぞれ学習器または復元器のいずれかに対応付けるのであれば、発話を学習器に対応付けて学習させ、応答を復元器に対応付けて学習させる必要はない。例えば、学習装置10は、応答を学習器に対応付けて学習させ、発話を復元器に対応付けて学習させてもよい。具体的には、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させる。そして、学習装置10は、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させてもよい。また、学習装置10は、学習器と復元器とでパラメータを共有させることで、学習器兼復元器となるモデルの学習を行なってもよい。例えば、学習装置10は、学習器兼復元器として動作する1つのRNNの学習を行ってもよい。
In addition, if the
〔1−3.RNNの生成について〕
ここで、学習装置10は、プレトレーニングを行ったRNN、すなわち、第1RNNをそのまま用いて、文章とラベルとの関係性を学習させてもよい。また、学習装置10は、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、新たなRNNを生成し、生成したRNNに文章とラベルとの関係性を学習させてもよい。
[1-3. About generation of RNN]
Here, the
例えば、学習装置10は、第1RNNに含まれる学習器と、新たに生成した復元器とを用いて、第2RNNを生成する。ここで、新たに生成した復元器とは、第1RNNに含まれる復元器であれば、任意の復元器が適用可能であり、例えば、ニューロン間で情報を伝達する際の伝達係数を初期化(例えば、ランダム化)した復元器であってもよい。このようにして生成された第2RNNには、学習器側に、発話と応答とに含まれる隠れた共通性の特徴が反映されていると考えられる。換言すると、第2RNNは、文章を入力した際に適切なラベルを出力するように、各ニューロン間の伝達係数が収束しやすいと考えられる。このため、学習データの量が十分に存在しない場合であっても、第2RNNは、学習データに含まれる文章とラベルとの関係性、すなわち、文章とラベルとが有する隠れた共通性の特徴を迅速に学習することができると考えられる。
For example, the
そこで、学習装置10は、第2RNNに学習データの文章を入力した際に、入力した文章に付与すべきラベルを第2RNNが出力するように、第2RNNの復号化の学習を行う。例えば、学習装置10は、ランダムに初期化した復元器と、第1RNNの学習器とを接続し、学習器のパラメータを固定して、復元器側のパラメータの更新を行う。この結果、学習装置10は、文章に対して適切なラベルを付与するRNNを生成することができるので、文章に付与するラベルの精度を改善することができる。
Therefore, when a sentence of learning data is input to the second RNN, the
ここで、学習装置10は、第3RNNにおける学習、すなわち、学習データ以外の文章に対してラベルを付与する際に、第2RNNをそのまま利用してさらに全体を学習させてもよく、第2RNNを用いて新たな第3RNNを生成し、新たな第3RNNを測定時に用いるRNN(以下、「測定用RNN」と記載する。)としてもよい。例えば、第2RNNに含まれる復元器には、文章とラベルとの関係性の特徴が学習されていると予測される。より具体的には、第2RNNに含まれる復元器は、複数の単語の特徴と、各単語が出現する順序の特徴とを示す情報から、その複数の単語がその順序で現れる文章に対して付与すべきラベルを示す情報を出力するように学習が行われている。そこで、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを含む第3RNNに対してさらに全体学習をおこなった第3RNNを測定用RNNとしてもよい。また、学習装置10は、第2RNNを通さずに、第1RNNの学習器を利用して、さらに全体学習をさせた第3RNNを測定用RNNとしてもよい。また、学習装置10は、第3RNNの学習時において、学習器のパラメータを固定して復元器側のパラメータのみを更新し、ある程度の学習が進んだ再に、学習器側のパラメータの固定を外して、第3RNN全体の学習(トレーニング)を行ってもよい。
Here, the
そして、学習装置10は、第3RNNを用いて、ラベルの付与対象となる文章に対してラベルを付与してもよい。例えば、学習装置10は、第3RNNに含まれる学習器の入力層に、文章に含まれる各単語を各単語が出現する順序で入力し、学習器の出力層から出力された情報、すなわち、入力された文章に含まれる各単語の特徴と各単語が出現する順序の特徴とを示す特徴情報を、復元器の入力層に入力する。そして、学習装置10は、復元器が特徴情報に基づいて出力したラベルを示す情報から、文章に対して付与すべきラベルを決定する。
Then, the
〔1−4.RNNのバリエーションについて〕
ここで、学習装置10は、対話に含まれる発話と応答とを用いてプレトレーニングを行った学習器または復元器を用いるのであれば、任意の処理を用いて、測定用RNNを生成してよい。例えば、学習装置10は、第1RNNに含まれる学習器と新たな復元器とから第2RNNを生成し、学習データを用いて第2RNNを学習する。そして、学習装置10は、学習を行った第2RNNを、そのまま測定用RNNとしてもよい。
[1-4. About variations of RNN]
Here, the
また、学習装置10は、第1RNNに含まれる学習器と、新たな復元器とを用いて第2RNNを生成し、学習データを用いて第2RNNを学習する。続いて、学習装置10は、第2RNNに含まれる復元器と、第1RNNに含まれる学習器とを用いて第3RNNを生成し、学習データを用いて、第3RNNの学習を行う。そして、学習装置10は、学習データを用いて学習を行った第3RNNを測定用RNNとして出力してもよい。
Also, the
なお、学習装置10は、第2RNNの学習を行う際と、第3RNNの学習を行う際とで、同一の学習データを用いてもよく、異なる学習データを用いてもよい。また、学習装置10は、文章とその文章に付与すべきラベルとの組である学習データに加えて、対話に含まれる発話と応答との組を学習データとし、第2RNNや第3RNNの学習を行ってもよい。
The
〔1−5.文章とラベルについて〕
ここで、学習装置10は、任意の文章に対して付与される任意のラベルを付与するRNNの学習を行ってよい。すなわち、学習装置10がラベルを付与する文章とは、小説、新聞記事、ブログ、マイクロブログ、批評、投稿等といった執筆物に関する文章であってもよく、カルテ等といった記録等であってもよい。また、文章は、一文であってもよく複数の文からなる文章であってもよい。例えば、学習装置10は、書籍や作品単位で文章の学習等を行ってもよい。
[1-5. About sentences and labels]
Here, the
また、学習装置10が付与するラベルとは、文章の内容や属性等を示す単語や文章等であってもよく、検索などに使用される数値や文字列等であってもよい。
Further, the label given by the
〔1−6.数式の一例〕
次に、上述した学習処理を示す数式の一例について説明する。例えば、時刻「t」における学習器の「j」番目のノードの状態を「hj<t>」と記載すると、学習器における各ノードの状態は、以下の式(1)で表すことができる。ここで、式(1)中の波付き「hj<t>」は、式(2)で表すことができ、「zj」および「rj」は、以下の式(3)および式(4)で表される。ここで、「xt」は、「t」番目の入力を示す。また、式(2)〜式(4)の「W」および「U」は、学習器の接続係数を示すパラメータである。
[1-6. Example of formula]
Next, an example of a mathematical expression indicating the above-described learning process will be described. For example, if the state of the “j” -th node of the learning device at time “t” is described as “hj <t>”, the state of each node in the learning device can be expressed by the following equation (1). Here, the waved “hj <t>” in the formula (1) can be expressed by the formula (2), and the “zj” and the “rj” can be expressed by the following formulas (3) and (4) expressed. Here, “xt” indicates the “t” -th input. Moreover, "W" and "U" of Formula (2)-Formula (4) are parameters which show the connection coefficient of a learning device.
すると、学習器による学習結果は、式(5)で示すことができる。 Then, the learning result by the learning device can be expressed by equation (5).
ここで、学習器の出力は、復元器の各ノードへと伝達される。このような復元器のノードへの入力は、式(6)で示すことができる。 Here, the output of the learner is transmitted to each node of the restorer. The input to such a decompressor node can be shown by equation (6).
すると、時刻「t」における復元器の「j」番目のノードの状態を「h´j<t>」とすると、「h´j<t>」は、以下の式(7)で示すことができる。ここで、式(7)中の波付き「h´j<t>」は、以下の式(8)で表すことができ、「z´j」および「r´j」は、以下の式(9)および式(10)で表される。また、式(8)〜式(10)の「W´」および「U´」は、復元器の接続係数を示すパラメータである。 Then, assuming that the state of the “j” -th node of the decompressor at time “t” is “h′j <t>”, “h′j <t>” can be expressed by the following equation (7) it can. Here, the waved “h′j <t>” in the formula (7) can be expressed by the following formula (8), and “z′j” and “r′j” are 9) and equation (10). Moreover, "W '" and "U'" of Formula (8)-Formula (10) are parameters which show the connection coefficient of a decompressor.
例えば、学習装置10は、学習器が文章に含まれる複数の単語、すなわち単語群の特徴および順番を学習し、復元器が学習器の出力から、学習器に入力された複数の単語が学習器に入力された順で出現する文章に対して付与すべきラベルを示す情報を出力するように、式(1)〜式(10)における「W」、「U」、「W´」および「U´」の値を学習する。
For example, in the
〔1−7.学習処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理の一例について説明する。まず、学習装置10は、利用者の発言Aや発言B等といった対話を入力として受付ける(ステップS1)。例えば、入力装置200は、マイクなどの音声を取得する音声取得装置を用いて、複数の利用者間で行われた対話の音声を取得する。そして、入力装置200は、任意の音声認識技術を用いて、対話をテキストデータに変換し、変換後のテキストデータ、すなわち、対話のテキストデータを学習装置10へと送信する。
[1-7. Example of learning process]
Next, an example of the learning process performed by the
より具体的には、入力装置200は、ある利用者による発言Aのテキストデータを発話のデータ(以下、「発話データ」と記載する場合がある。)とし、発言Aに対する他の利用者の応答である発言Bのテキストデータを応答のデータ(以下、「応答データ」と記載する場合がある。)として生成する。そして、入力装置200は、発話データおよび応答データを、対話のデータとして学習装置10へと送信する。
More specifically, the input device 200 sets text data of a speech A by a certain user as speech data (hereinafter sometimes referred to as "speech data"), and the response of the other user to the speech A The text data of statement B which is is generated as data of the response (which may hereinafter be described as "response data"). Then, the input device 200 transmits the speech data and the response data to the
このような場合、学習装置10は、入力した対話文に含まれる発話と応答とを、それぞれ第1RNNの学習器または復元器のいずれかに対応付けて、発話と応答とに内在する隠れた情報、すなわち、発話と応答とに内在する隠れた共通性をプレトレーニングする(ステップS2)。例えば、学習装置10は、対話のテキストデータから、発話とその発話に対応する応答とを抽出する。そして、学習装置10は、第1RNNに含まれる学習器EN01に対して発話に含まれる各単語をその発話に含まれる順に入力した場合に、学習器EN01の出力から、学習器EN01に入力した発話に対応する応答に含まれる各単語を、その応答に含まれる順で復元器DE01が出力するように、学習器EN01および復元器DE01の学習を行う。より具体的には、学習装置10は、学習器EN01および復元器DE01の伝達係数を補正する。
In such a case, the
次に、学習装置10は、プレトレーニングを行った学習器EN01と新たな復元器DE02とを組み合わせた第2RNNを生成し、ラベル付き文章(すなわち、学習データ)の文章から、そのラベル付き文章のラベルを生成するように、第2RNNの学習を行う(ステップS3)。例えば、学習装置10は、第2RNNに含まれる学習器EN01に対してラベル付き文章の文章に含まれる各単語をその文章に含まれる順に入力した場合に、学習器EN01の出力から、ラベル付き文章のラベルを示す情報を復元器DE02が出力するように、学習器EN01および復元器DE02の学習を行う。
Next, the
ここで、学習装置10は、ラベルの付与対象となる文章を端末装置100から取得したものとする(ステップS4)。このような場合、学習装置10は、測定時の処理を実行する。より具体的には、学習装置10は、ラベル付き文章を用いてラベルの学習を行った復元器DE02と、プレトレーニングを行った学習器EN01とを組み合わせた第3RNNを測定用RNNとして、端末装置100から取得した文章に付与するラベルを判定する(ステップS5)。例えば、学習装置10は、測定用RNNの学習器EN01に端末装置100から取得した文章に含まれる各単語を、各単語が出現する順序で入力する。そして、学習装置10は、測定用RNNの復元器DE02が出力した情報に基づいて、文章に付与すべきラベルを判定する。その後、学習装置10は、判定結果であるラベルを示す情報を、端末装置100に対して出力する(ステップS6)。
Here, it is assumed that the
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of learning device]
Hereinafter, an example of a functional configuration of the
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や入力装置200との間で情報の送受信を行う。
The
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、対話データデータベース31、および学習データデータベース32を記憶する。なお、記憶部30は、例えば、学習するRNNのノードと伝達係数との関係性を示す情報等をさらに記憶しているものとする。
The
対話データデータベース31には、プレトレーニングに用いる対話のデータが登録されている。例えば、図3は、実施形態に係る対話データデータベースに登録される情報の一例を示す図である。図3に示す例では、対話データデータベース31には、「対話ID」、「発話情報」、「応答情報」等といった項目を有する情報が登録される。なお、対話データデータベース31には、発話や応答を行った利用者の属性等、図3に示す情報以外の情報が登録されていてもよい。 In the dialogue data database 31, dialogue data used for pre-training is registered. For example, FIG. 3 is a diagram showing an example of information registered in the dialogue data database according to the embodiment. In the example shown in FIG. 3, information having items such as “dialogue ID”, “speech information”, “response information”, etc. is registered in the dialogue data database 31. In the dialogue data database 31, information other than the information shown in FIG. 3 may be registered, such as the attributes of the user who made the utterance or the response.
ここで、「対話ID(Identifier)」は、対話を識別するための情報である。また、「発話情報」とは、発話のテキストデータである。また、「応答情報」とは、対応付けられた発話に対する応答のテキストデータである。なお、図3に示す例では、「対話#1」、「発話#1」、「応答#1」等といった概念的な値について記載したが、実際には、対話を識別する識別子や、テキストデータ等が対話データデータベース31に登録される。
Here, "dialogue ID (Identifier)" is information for identifying a dialogue. Also, "utterance information" is text data of an utterance. Also, “response information” is text data of a response to the associated utterance. In the example shown in FIG. 3, conceptual values such as “
例えば、図3に示す例では、対話ID「対話#1」、発話情報「発話#1」、および応答情報「応答#1」が対応付けて登録されている。このような情報は、対話ID「対話#1」が示す対話に含まれる発話のテキストデータが「発話#1」であり、この発話に対する応答のテキストデータが「応答#1」である旨を示す。
For example, in the example illustrated in FIG. 3, the dialog ID “
図2に戻り、説明を続ける。学習データデータベース32には、RNNの学習に用いられる学習データ、すなわち、ラベル付き文章が登録されている。例えば、図4は、実施形態に係る学習データデータベースに登録される情報の一例を示す図である。図4に示す例では、学習データデータベース32には、「学習データID」、「文章情報」、「ラベル情報」等といった項目を有する情報が登録される。なお、学習データデータベース32には、図3に示す情報以外にも、ラベル付き文章に関連する任意の情報が登録されていてもよい。 Return to FIG. 2 and continue the description. In the learning data database 32, learning data used for learning of the RNN, that is, sentences with labels are registered. For example, FIG. 4 is a diagram showing an example of information registered in a learning data database according to the embodiment. In the example shown in FIG. 4, information having items such as “learning data ID”, “text information”, “label information” and the like is registered in the learning data database 32. In addition to the information shown in FIG. 3, arbitrary information related to the labeled text may be registered in the learning data database 32.
ここで、「学習データID」は、学習データとしての対話を識別するための情報である。また、「文章情報」とは、ラベル付き文章の文章、すなわちテキストデータである。また、「ラベル情報」とは、対応付けられた文章に対して付与されるべきラベルを示す情報である。なお、図4に示す例では、「データ#1」、「文章#1」、「ラベル#1」等といった概念的な値について記載したが、実際には、ラベル付き文章を識別する識別子や、テキストデータ等が学習データデータベース32に登録される。
Here, “learning data ID” is information for identifying a dialogue as learning data. Also, “text information” is text of labeled text, that is, text data. Further, “label information” is information indicating a label to be provided to the associated text. In the example shown in FIG. 4, conceptual values such as “
例えば、図4に示す例では、学習データID「データ#1」、文章情報「文章#1」、およびラベル情報「ラベル#1」が対応付けて登録されている。このような情報は、学習データID「データ#1」が示すラベル付き文章に含まれる文章のテキストデータが「文章#1」であり、この文章に対して付与されるべきラベルが「ラベル#1」である旨を示す。
For example, in the example illustrated in FIG. 4, the learning data ID “
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
Return to FIG. 2 and continue the description. The
図2に示すように、制御部40は、取得部41、第1学習部42、第2学習部43、生成部44、および測定部45を有する。
As shown in FIG. 2, the
取得部41は、所定の対話における発話と、その発話に対する応答とを取得する。例えば、取得部41は、入力装置200から対話のテキストデータを取得すると、取得したテキストデータの解析を行い、発話のテキストデータと、その発話に対する応答のテキストデータとを抽出する。そして、取得部41は、抽出した発話のテキストデータと応答のテキストデータとを対話データとして対話データデータベース31に登録する。なお、取得部41は、形態素解析等、任意の文字列解析技術を用いて、発話と、その発話に対応する応答とを抽出してよい。 The acquisition unit 41 acquires an utterance in a predetermined dialogue and a response to the utterance. For example, when acquiring the text data of dialog from the input device 200, the acquiring unit 41 analyzes the acquired text data, and extracts the text data of the utterance and the text data of the response to the utterance. Then, the acquisition unit 41 registers the extracted text data of the utterance and the text data of the response in the dialog data database 31 as dialog data. The acquiring unit 41 may extract an utterance and a response corresponding to the utterance using any character string analysis technology such as morphological analysis.
第1学習部42は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。すなわち、第1学習部42は、対話を用いたRNNのプレトレーニングを実行する。 The first learning unit 42 causes the learning device and the restoring device of the first RNN to learn the relationship between an utterance and a response in a predetermined dialogue. That is, the first learning unit 42 performs pre-training of the RNN using the dialogue.
例えば、第1学習部42は、対話データデータベース31から対話に含まれる発話と応答とを取得する。また、第1学習部42は、初期化された第1RNN等、プレトレーニングの対象となる第1RNNを準備する。そして、第1学習部42は、発話を第1RNNの学習器に入力した際に、その発話に対する応答を第1RNNの復元器が出力するように、学習器および復元器の学習を行う。より具体的には、第1学習部42は、発話に含まれる各単語を発話内で出現する順番で学習器に入力し、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう学習器と復元器を学習させる。すなわち、第1学習部42は、発話の各単語が有する特徴と各単語が出現する順番との特徴とを学習器と復元器とに学習させる。 For example, the first learning unit 42 acquires the utterance and the response included in the dialogue from the dialogue data database 31. In addition, the first learning unit 42 prepares a first RNN to be subjected to pre-training, such as the initialized first RNN. Then, when the first learning unit 42 inputs an utterance to the first RNN learning unit, the first learning unit 42 performs learning of the learning unit and the restoring unit so that the first RNN restoration unit outputs a response to the utterance. More specifically, the first learning unit 42 inputs each word included in the speech to the learning device in the order of appearance in the speech, and each word included in the response is extracted from the features encoded by the learning device. Train the learner and restorer to restore the words with the order in which they appear in the response. That is, the first learning unit 42 causes the learning device and the restoring device to learn the features of each word of the utterance and the features of the order in which the words appear.
なお、第1学習部42は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行ってもよい。例えば、第1学習部42には、応答に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させてもよい。 The first learning unit 42 may perform learning of the learning device and the restoring device so that when the response is input to the learning device, the restoring device outputs an utterance corresponding to the response. For example, the first learning unit 42 causes the learning device to learn the features possessed by each word along with the order in which the words included in the response appear in the utterance, and the features encoded by the learning device The decompressor may be trained to recover the words with the order in which each word appears in the response.
第2学習部43は、学習データデータベース32に登録された学習データであるラベル付き文章を用いて、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて生成された第2RNNや、第3RNNの学習を行う。なお、第2学習部43が実行する処理の例については、後述する。
The
生成部44は、第1学習部42によって学習が行われた学習器または復元器、すなわち、第1RNNに含まれる学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成する。例えば、生成部44は、第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。 The generating unit 44 generates the second RNN using at least one of the learning device or the restoring device that has been learned by the first learning unit 42, that is, the learning device or the restoring device included in the first RNN. For example, the generation unit 44 generates a second RNN using the learning device included in the first RNN and the new recovery device.
このような第2RNNが生成された場合、第2学習部43は、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を、第2RNNに学習させる。
When such a second RNN is generated, the
また、生成部44は、第2学習部43によって第2RNNの学習が行われた場合、第1学習部42によってプレトレーニングが行われた第1RNNの学習器と、第2学習部43によって学習が行われた第2RNNの復元器とを含む第3RNNを生成する。そして、生成部44は、生成した第3RNNを測定用RNNとして記憶部30等に登録する。
In addition, when the
なお、第2学習部43は、第3RNNに対して、学習データを用いたさらなる学習を行ってもよい。例えば、第2学習部43は、第3RNNに対して、学習データデータベース32に登録されたラベル付き文章の文章と、ラベル付き文章のラベルとの関係性を学習させる。そして、第2学習部43は、学習を行った第3RNNを測定用RNNとして記憶部30等に登録してもよい。
The
測定部45は、測定用RNNを用いた測定処理を実行する。例えば、測定部45は、端末装置100からラベルの付与対象となる文章を受付けた場合は、生成部44によって生成された第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定する。例えば、測定部45は、受付けられた文章に含まれる各単語を、文章中に出現する順序で測定用RNNの学習器に入力し、測定用RNNの復元器が出力した情報に基づいて、受付けられた文章に付与されるラベルを特定する。そして、測定部45は、特定したラベルを示す情報を、端末装置100へと送信する。
The measurement unit 45 executes measurement processing using the measurement RNN. For example, when the measuring unit 45 receives a sentence to which a label is to be attached from the
なお、測定部45は、第2学習部43によってラベル付き文章を用いた学習がさらに行われた第3RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。また、測定部45は、第2学習部43により学習が行われた第2RNNを測定用RNNとして、受付けられた文章に付与されるラベルを特定してもよい。
The measuring unit 45 may specify the label given to the received sentence as the third RNN for which the
〔3.RNNのバリエーション〕
次に、図5および図6を用いて、学習装置10が測定用RNNとして用いるRNNの生成のバリエーションについて説明する。図5は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第1の図である。また、図6は、実施形態に係る学習装置が生成するRNNのバリエーションを示す第2の図である。
[3. Variation of RNN]
Next, variations of generation of RNN used by the
まず、図5を用いて、第2RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS10)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS11)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS12)。そして、学習装置10は、学習を行った第2RNNの復元器DE02と(ステップS13)、学習を行った第2RNNの学習器EN01と(ステップS14)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS15)。
First, an example of processing for setting the second RNN as a measurement RNN will be described using FIG. 5. For example, the
次に、図6を用いて、ラベル付き文章を用いた学習を行った第3RNNを測定用RNNとする処理の一例について説明する。例えば、学習装置10は、学習器EN01と復元器DE01とを含む第1RNNを生成し、発話と応答とを用いたプレトレーニングを行う(ステップS20)。続いて、学習装置10は、第1RNNに含まれる学習器EN01を取り出し(ステップS21)、学習器EN01と新たな復元器DE02とを用いて第2RNNを生成し、ラベル付き文章の文章とラベルとを用いて、第2RNNの学習を行う(ステップS22)。
Next, with reference to FIG. 6, an example of processing for setting the third RNN subjected to learning using a labeled sentence as the measurement RNN will be described. For example, the
また、学習装置10は、学習を行った第2RNNの復元器DE02を取り出し(ステップS23)、プレトレーニングを行った第1RNNに含まれる学習器EN01と組み合わせた第3RNNを生成し(ステップS24)、ラベル付き文章を用いて第3RNNの学習を再度実行する(ステップS25)。そして、学習装置10は、学習を行った第3RNNの復元器DE02と(ステップS26)、学習を行った第3RNNの学習器EN01と(ステップS27)とをそのまま用いて、測定用RNNとし、文章からラベルを特定する測定処理を実行する(ステップS28)。
Also, the
〔4.学習装置が実行する処理の流れの一例〕
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、対話文を取得し(ステップS101)、対話文から発話と応答とを抽出する(ステップS102)。そして、学習装置10は、発話から応答を再現するように、第1RNNに含まれる学習器と復元器とのプレトレーニングを行う(ステップS103)。
[4. Example of Flow of Processing Executed by Learning Device]
Next, an example of the flow of the learning process performed by the
続いて、学習装置10は、プレトレーニング済みの学習器と、新たな復元器とを用いた第2RNNを生成し(ステップS104)、ラベル付き文章の文章からラベルを示す情報を生成するように、第2RNNの学習を行う(ステップS105)。そして、学習装置10は、学習済みの第2RNNの復元器と、プレトレーニング済みの第1RNNに含まれる学習器とを用いた第3RNNを生成し(ステップS106)、生成した第3RNNを測定用RNNとして用いて、測定処理を実行し(ステップS107)、処理を終了する。
Subsequently, the
〔5.変形例〕
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
[5. Modified example]
In the above, an example of the learning process by the
〔5−1.測定用RNNについて〕
上述した例では、学習装置10は、生成した測定用RNNを用いて、ラベルの付与対象となる文章に付与するラベルを特定した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、生成した測定用RNNを用いて、文章からラベルを付与するプログラムを生成し、生成したプログラムを出力してもよい。このようなプログラムは、学習装置10以外の情報処理装置が実行することで、学習装置10により生成された測定用RNNを用いて、文章からラベルを特定させることができる。すなわち、学習装置10が生成した測定用RNNは、文章からラベルを特定するプログラムのプログラムパラメータとして用いられてもよい。
[5-1. About RNN for measurement]
In the example described above, the
〔5−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。また、学習装置10は、対話データデータベース31および学習データデータベース32を外部のストレージサーバに記憶させてもよい。
5-2. Device configuration〕
In the example described above, the
〔5−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5-3. Other]
Further, among the processes described in the above embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being manually performed. All or part of them can be performed automatically by known methods. In addition to the above, the processing procedures, specific names, and information including various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した第1学習部42及び第2学習部43は統合されてもよい。
Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured. For example, the first learning unit 42 and the
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, it is possible to combine suitably each embodiment mentioned above in the range which does not contradict process content.
〔6.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the
〔7.効果〕
上述したように、学習装置10は、第1RNNが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる。そして、学習装置10は、学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2RNNを生成し、文章とその文章に付与されるラベルとの関係性を、第2RNNに学習させる。このように、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うので、文章に付与するラベルの精度を向上させることができる。また、学習データがある程度潤沢にある場合は、従来の学習手法で学習したRNNよりも分類精度(性能)が良いRNNを取得することができる。
[7. effect〕
As described above, the
また、学習装置10は、発話を学習器に入力した際に、発話に対する応答を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、発話に含まれる各単語が発話内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、応答に含まれる各単語を各単語が応答内で出現する順番とともに復元するよう復元器を学習させる。
In addition, when the speech is input to the learning device, the
また、学習装置10は、応答を学習器に入力した際に、応答に対応する発話を復元器が出力するように、学習器および復元器の学習を行う。例えば、学習装置10は、応答に含まれる各単語が応答内で出現する順番とともに各単語が有する特徴を学習器に学習させ、学習器が符号化した特徴から、発話に含まれる各単語を各単語が発話内で出現する順番とともに復元するよう復元器を学習させる。
Further, when the response is input to the learning device, the
上述した処理の結果、学習装置10は、発話とその発話に対する応答とが含む隠された共通性を用いて、RNNのプレトレーニングを行うことができる。
As a result of the above-described processing, the
また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と新たな復元器とを用いて第2RNNを生成する。また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
Also, the
また、学習装置10は、プレトレーニングが行われた第1RNNに含まれる学習器と、学習データを用いた学習が行われた第2RNNに含まれる復元器とを含む第3RNNを生成する。そして、学習装置10は、文章と文章に付与されるラベルとの関係性を、生成された第3RNNに学習させ、学習が行われた第3RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
Also, the
また、学習装置10は、ラベルの付与対象となる文章を受付けた場合は、第2RNNを用いて、受付けられた文章に付与されるラベルを特定する。このため、学習装置10は、文章に付与するラベルの精度の悪化を防ぐことができる。
When the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described above in detail based on the drawings, these are only examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the description of the invention. It is possible to implement the invention in other improved forms.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Also, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the generation unit can be read as a generation unit or a generation circuit.
20 通信部
30 記憶部
31 対話データデータベース
32 学習データデータベース
40 制御部
41 取得部
42 第1学習部
43 第2学習部
44 生成部
45 測定部
100 端末装置
200 入力装置
Claims (11)
前記第1学習部によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成部と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習部と
を有することを特徴とする学習装置。 A first learning unit that causes a learning device and a restoring device of the first recurrent neural network to learn the relationship between an utterance and a response in a predetermined dialogue;
A first generation unit that generates a second recurrent neural network using at least one of a learning device or a restoring device that has been learned by the first learning device;
And a second learning unit that causes the second recurrent neural network to learn the relationship between a sentence and a label given to the sentence.
ことを特徴とする請求項1に記載の学習装置。 The first learning unit is characterized in that when the speech is input to the learning device, the first learning unit performs learning of the learning device and the restoration device such that the restoration device outputs a response to the speech. The learning device according to Item 1.
ことを特徴とする請求項2に記載の学習装置。 The first learning unit causes the learning device to learn the features of each word along with the order in which the words included in the utterance appear in the utterance, and the features encoded by the learning device are included in the response. The learning device according to claim 2, wherein the decompressor is trained to recover each word in the response along with the order in which each word appears in the response.
ことを特徴とする請求項1に記載の学習装置。 The first learning unit performs learning of the learning device and the restoring device such that when the response is input to the learning device, the restoring device outputs an utterance corresponding to the response. The learning device according to claim 1.
ことを特徴とする請求項4に記載の学習装置。 The first learning unit causes the learning device to learn the features of each word along with the order in which the words included in the response appear in the response, and the features encoded by the learning device are included in the utterance. 5. The learning apparatus according to claim 4, wherein the decompressor is trained so as to recover each word that is generated along with the order in which each word appears in the utterance.
ことを特徴とする請求項1〜5のうちいずれか1つに記載の学習装置。 The first generation unit generates the second recurrent neural network using a learning device that has been learned by the first learning unit and a new restoration device. The learning device according to any one.
ラベルの付与対象となる文章を受付けた場合は、前記第2生成部により生成された前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 A second generation unit that generates a third recurrent neural network including a learning unit learned by the first learning unit and a restoration unit included in the second recurrent neural network learned by the second learning unit;
When a sentence to which a label is to be attached is received, the third recurrent neural network generated by the second generation unit is used to specify a label to be attached to the received sentence. The learning device according to claim 6, characterized in that
文章と当該文章に付与されるラベルとの関係性を、前記第2生成部によって生成された第3リカレントニューラルネットワークに学習させる第3学習部と、
ラベルの付与対象となる文章を受付けた場合は、前記第3学習部により学習が行われた前記第3リカレントニューラルネットワークを用いて、受付けられた文章に付与されるラベルを特定する特定部と
を有することを特徴とする請求項6に記載の学習装置。 A second generation unit that generates a third recurrent neural network including a learning unit learned by the first learning unit and a restoration unit included in the second recurrent neural network learned by the second learning unit;
A third learning unit that causes the third recurrent neural network generated by the second generation unit to learn the relationship between the sentence and the label attached to the sentence;
When a sentence to which a label is to be attached is received, the identification unit for identifying a label to be attached to the accepted sentence using the third recurrent neural network learned by the third learning unit The learning apparatus according to claim 6, comprising:
を有することを特徴とする請求項6に記載の学習装置。 When a sentence to which a label is to be attached is received, the identification unit for identifying a label to be attached to the accepted sentence using the second recurrent neural network learned by the second learning unit The learning apparatus according to claim 6, comprising:
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習工程と、
前記第1学習工程によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成工程と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習工程と
を含むことを特徴とする学習方法。 A learning method executed by the learning device,
A first learning step of causing the learning device and the restoring device of the first recurrent neural network to learn the relationship between an utterance and a response in a predetermined dialogue;
A first generation step of generating a second recurrent neural network using at least one of a learner and a restorer trained in the first learn step;
And a second learning step of causing the second recurrent neural network to learn the relationship between a sentence and a label attached to the sentence.
第1リカレントニューラルネットワークが有する学習器および復元器に、所定の対話における発話と応答との関係性を学習させる第1学習手順と、
前記第1学習手順によって学習が行われた学習器または復元器の少なくともいずれか1つを用いて、第2リカレントニューラルネットワークを生成する第1生成手順と、
文章と当該文章に付与されるラベルとの関係性を、前記第2リカレントニューラルネットワークに学習させる第2学習手順と
を実行させる学習プログラム。 A first learning procedure for causing a computer to learn the relationship between an utterance and a response in a predetermined dialogue on a learning device and a restoring device included in the first recurrent neural network;
A first generation procedure for generating a second recurrent neural network using at least one of a learner and a restorer trained by the first learn procedure;
A second learning procedure for causing the second recurrent neural network to learn the relationship between a sentence and a label given to the sentence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161488A JP6526607B2 (en) | 2016-08-19 | 2016-08-19 | Learning apparatus, learning method, and learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016161488A JP6526607B2 (en) | 2016-08-19 | 2016-08-19 | Learning apparatus, learning method, and learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018028872A JP2018028872A (en) | 2018-02-22 |
JP6526607B2 true JP6526607B2 (en) | 2019-06-05 |
Family
ID=61248452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016161488A Active JP6526607B2 (en) | 2016-08-19 | 2016-08-19 | Learning apparatus, learning method, and learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6526607B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220013850A (en) * | 2020-07-27 | 2022-02-04 | 주식회사 딥브레인에이아이 | Method and apparatus for generating speech video |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6222821B2 (en) * | 2013-10-10 | 2017-11-01 | 日本放送協会 | Error correction model learning device and program |
JP6062879B2 (en) * | 2014-03-14 | 2017-01-18 | 日本電信電話株式会社 | Model learning apparatus, method and program |
-
2016
- 2016-08-19 JP JP2016161488A patent/JP6526607B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018028872A (en) | 2018-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ozdemir et al. | Feature Engineering Made Easy: Identify unique features from your dataset in order to build powerful machine learning systems | |
JP6462970B1 (en) | Classification device, classification method, generation method, classification program, and generation program | |
CN109766418B (en) | Method and apparatus for outputting information | |
CN111930914A (en) | Question generation method and device, electronic equipment and computer-readable storage medium | |
CN112805715A (en) | Identifying entity attribute relationships | |
EP3732590A1 (en) | System and method for domain-and language-independent definition extraction using deep neural networks | |
CN115391499A (en) | Method for generating multitask generation model, question-answer pair generation method and related device | |
JP2019079088A (en) | Learning device, program parameter and learning method | |
JP6770709B2 (en) | Model generator and program for machine learning. | |
JP6391617B2 (en) | Learning device, sentence automatic generation device, and learning method | |
JP6400038B2 (en) | Extraction apparatus and extraction method | |
JP6082657B2 (en) | Pose assignment model selection device, pose assignment device, method and program thereof | |
JP6775366B2 (en) | Selection device and selection method | |
JP6526607B2 (en) | Learning apparatus, learning method, and learning program | |
JP2019021218A (en) | Learning device, program parameter, learning method and model | |
CN112307738A (en) | Method and device for processing text | |
JP6964481B2 (en) | Learning equipment, programs and learning methods | |
JP6680655B2 (en) | Learning device and learning method | |
JP2007241881A (en) | Method, device and program for creating opinion property determination database, and method, device and program for determining opinion property, and computer readable recording medium | |
Manaswi et al. | Developing chatbots | |
Promrit et al. | Convolutional neural networks for thai poem classification | |
Lamons et al. | Python Deep Learning Projects: 9 projects demystifying neural network and deep learning models for building intelligent systems | |
WO2018066083A1 (en) | Learning program, information processing device and learning method | |
JP7507733B2 (en) | Information processing device, information processing method, and information processing program | |
Kuo | The Handbook of NLP with Gensim: Leverage topic modeling to uncover hidden patterns, themes, and valuable insights within textual data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180718 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180718 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6526607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |