JP7375943B2 - 変換装置、変換方法、およびプログラム - Google Patents
変換装置、変換方法、およびプログラム Download PDFInfo
- Publication number
- JP7375943B2 JP7375943B2 JP2022543856A JP2022543856A JP7375943B2 JP 7375943 B2 JP7375943 B2 JP 7375943B2 JP 2022543856 A JP2022543856 A JP 2022543856A JP 2022543856 A JP2022543856 A JP 2022543856A JP 7375943 B2 JP7375943 B2 JP 7375943B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- processing unit
- conversion
- data
- series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims description 170
- 238000000034 method Methods 0.000 title claims description 51
- 239000013598 vector Substances 0.000 claims description 243
- 238000012545 processing Methods 0.000 claims description 155
- 230000006870 function Effects 0.000 claims description 44
- 230000009466 transformation Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 22
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 5
- 238000007476 Maximum Likelihood Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
本発明は、第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する技術に関する。
ある言語の単語系列を別の言語の単語系列に変換するような機械翻訳などの系列変換を行うモデルでは、encoder-decoderモデルなどのニューラル系列変換モデルを用いることが一般的である。encoder-decoderモデルのような深層学習を用いるモデルの全般的な課題として、入力データと出力データのパラレルデータが大量に必要となることが挙げられる。そのため、出力データのみが大量にあったとしても、それに対応する入力データが無ければ、その出力データを学習に用いることができなかった。これに対して、音響特徴量を入力として、音声の書き起こしテキストを出力とする音声認識のタスクでは、大量の書き起こしデータがある場合に、事前にその書き起こしデータで作成した外部言語モデルをデコーダ部に統合するshallow fusionという方法が提案されている(非特許文献1参照)。また、学習時にもこのような外部言語モデルを統合するcold fusionという方法も提案されている(非特許文献2参照)。これらの方法を用いることで、大量の出力データの情報を取り入れながら系列変換を行うことができ、性能改善に役立つことが確認されている。
A. Kannan, Y. Wu, P. Nguyen, T. Sainath, Z. Chen and R. Prabhavalkar, "An analysis of Incorporating an external language model into a sequence-to-sequence model", In Proc. ICASSP, pp.5824-5827, 2018.
A. Sriram, H. Jun, S. Satheesh and A. Coates, "Cold fusion: training seq2seq models together with language models", In Proc. INTERSPEECH, pp387-391, 2018.
しかしながら、上述のshallow fusionでは、encoder-decoderモデル自体はラベル付きデータで学習されているため、新しいドメインに適応しようとした際に、性能の改善に限りがあった。そこで、学習データとは異なる、新しいドメインに適応することに適しているcold fusionが提案された。cold fusionでは、encoder-decoderモデル自体に外部言語モデルを組み込むことにより、学習時も外部言語モデルに含まれる情報を活用できる。そのため、新しいドメインにも適用しやすいといった利点がある。しかし、cold fusionでは、デコーダの最終層の前に外部言語モデルを統合するのみの構造となっており、外部言語モデルに含まれる有効な情報を取捨選択することは難しい。つまり、従来の外部言語モデルを用いた系列変換では、外部言語モデルに含まれる、系列変換に必要な情報を取捨選択できない。
本発明は、外部言語モデルに含まれる、系列変換に必要な情報を取捨選択できる変換装置、変換方法、およびプログラムを提供することを目的とする。
上記の課題を解決するために、本発明の一態様によれば、変換装置は、第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する。変換装置は、モデルパラメータθhに基づく変換関数により、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルに変換する第一埋め込みベクトル変換部と、モデルパラメータθuに基づく変換関数により、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルに変換する第二埋め込みベクトル変換部と、第一埋め込みベクトルと第二埋め込みベクトルとを、モデルパラメータθsに基づく変換関数により、第一のデータ系列に対する文脈ベクトルに変換する第一文脈ベクトル変換部と、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、第二埋め込みベクトルとを、モデルパラメータθqに基づく変換関数により、外部言語モデルの出力に対する文脈ベクトルに変換する第二文脈ベクトル変換部と、第一のデータ系列に対する文脈ベクトルと外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換部とを含む。
上記の課題を解決するために、本発明の他の態様によれば、変換装置は、第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する。変換装置は、モデルパラメータθhを用いて、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルにエンコードする第一埋め込みベクトル変換部と、モデルパラメータθuを用いて、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルにデコードする第二埋め込みベクトル変換部と、第一埋め込みベクトルと第二埋め込みベクトルとを、モデルパラメータθsを用いて統合し、第一のデータ系列に対する文脈ベクトルを得る第一文脈ベクトル変換部と、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、第二埋め込みベクトルとを、モデルパラメータθqを用いて統合し、外部言語モデルの出力に対する文脈ベクトルを得る第二文脈ベクトル変換部と、第一のデータ系列に対する文脈ベクトルと外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換部とを含む。
上記の課題を解決するために、本発明の他の態様によれば、変換方法は、変換装置が第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する。変換方法は、モデルパラメータθhに基づく変換関数により、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルに変換する第一埋め込みベクトル変換ステップと、モデルパラメータθuに基づく変換関数により、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルに変換する第二埋め込みベクトル変換ステップと、第一埋め込みベクトルと第二埋め込みベクトルとを、モデルパラメータθsに基づく変換関数により、第一のデータ系列に対する文脈ベクトルに変換する第一文脈ベクトル変換ステップと、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、第二埋め込みベクトルとを、モデルパラメータθqに基づく変換関数により、外部言語モデルの出力に対する文脈ベクトルに変換する第二文脈ベクトル変換ステップと、第一のデータ系列に対する文脈ベクトルと外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換ステップとを含む。
上記の課題を解決するために、本発明の他の態様によれば、変換方法は、変換装置が第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する。変換方法は、モデルパラメータθhを用いて、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルにエンコードする第一埋め込みベクトル変換ステップと、モデルパラメータθuを用いて、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルにデコードする第二埋め込みベクトル変換ステップと、第一埋め込みベクトルと第二埋め込みベクトルとを、モデルパラメータθsを用いて統合し、第一のデータ系列に対する文脈ベクトルを得る第一文脈ベクトル変換ステップと、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、第二埋め込みベクトルとを、モデルパラメータθqを用いて統合し、外部言語モデルの出力に対する文脈ベクトルを得る第二文脈ベクトル変換ステップと、第一のデータ系列に対する文脈ベクトルと外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換ステップとを含む。
本発明によれば、encoder-decoderモデルの学習において出力データのみの情報を活用することができ、また、外部言語モデルに含まれる系列変換に必要な情報をより適切に取捨選択することができるので、新たなドメインに適応する場合においても、性能の改善が期待できるという効果を奏する。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、テキスト中で使用する記号「^」等は、本来直後の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直前に記載する。式中においてはこれらの記号は本来の位置に記述している。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。
<第一実施形態のポイント>
第一実施形態では、外部言語モデルに含まれる系列変換に必要な情報を取捨選択できるモデルを導入する。このモデルでは、cold fusionよりも外部言語モデルの情報を取捨選択するのに適した構造となっている。encoder-decoderモデルに外部言語モデルを統合する場合において、エンコーダとデコーダを統合させる場合と同じように、外部言語モデルとデコーダを統合することにより、系列変換に必要な情報を取捨選択できるモデルを開発した。具体的には、cold fusionがencoder-decoderモデルの最終出力層の直前の層に外部言語モデルの最終層を統合するのみであったのに対し、本モデルでは、エンコーダの情報がデコーダに伝播されるのと同様に、外部言語モデルの情報をデコーダに伝播する。つまり、エンコーダと統合されたデコーダと、外部言語モデルと統合されたデコーダとをさらに統合させながら学習することで外部言語モデルの情報に関して、より適切に系列変換に必要な情報を取捨選択することができると考えらえる。
第一実施形態では、外部言語モデルに含まれる系列変換に必要な情報を取捨選択できるモデルを導入する。このモデルでは、cold fusionよりも外部言語モデルの情報を取捨選択するのに適した構造となっている。encoder-decoderモデルに外部言語モデルを統合する場合において、エンコーダとデコーダを統合させる場合と同じように、外部言語モデルとデコーダを統合することにより、系列変換に必要な情報を取捨選択できるモデルを開発した。具体的には、cold fusionがencoder-decoderモデルの最終出力層の直前の層に外部言語モデルの最終層を統合するのみであったのに対し、本モデルでは、エンコーダの情報がデコーダに伝播されるのと同様に、外部言語モデルの情報をデコーダに伝播する。つまり、エンコーダと統合されたデコーダと、外部言語モデルと統合されたデコーダとをさらに統合させながら学習することで外部言語モデルの情報に関して、より適切に系列変換に必要な情報を取捨選択することができると考えらえる。
<第一実施形態>
<変換システム>
入力:話し言葉テキストの単語系列X,外部言語モデルの出力L,モデルパラメータΘ
出力:書き言葉テキストの単語系列^Y
変換システムは、第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列と、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルとを入力とし、第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換し、n番目までの処理単位のテキストデータからなる第二処理単位系列を出力する。nは変換回数を示すインデックスであり、変換システムはn-1回目までの変換結果、つまり、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を利用してn回目の変換処理を行う。
<変換システム>
入力:話し言葉テキストの単語系列X,外部言語モデルの出力L,モデルパラメータΘ
出力:書き言葉テキストの単語系列^Y
変換システムは、第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列と、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルとを入力とし、第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換し、n番目までの処理単位のテキストデータからなる第二処理単位系列を出力する。nは変換回数を示すインデックスであり、変換システムはn-1回目までの変換結果、つまり、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を利用してn回目の変換処理を行う。
本実施形態では、「第一のデータ系列」を「話し言葉テキスト」とし、「所定の処理単位」を「単語単位」とし、「処理単位のデータ」を「単語」とし、「処理単位系列」を「単語系列」とし、「第一処理単位系列」を「話し言葉テキストの単語系列」とし、「第二処理単位系列」を「書き言葉テキストの単語系列」とする。
なお、「第一のデータ系列」として、音声信号系列や音響特徴量系列、音素系列などのテキストデータの系列に変換し得るデータ系列であれば適用可能である。「第二処理単位系列」は、学習済みの外部言語モデルの出力(テキストデータ)を利用する観点からテキストデータからなる処理単位系列であることを必要とする。また、処理単位としては、単語単位以外の単位を用いてもよく、例えば、文字単位等であってもよい。第一処理単位系列と第二処理単位系列とで同じ処理単位であってもよいし、異なる処理単位であってもよい。変換処理は、「話し言葉」から「書き言葉」への変換に限らず、「書き言葉」から「話し言葉」への変換や、「ある言語」から「他の言語」への変換等に適用可能である。要は、テキストデータの系列や、テキストデータの系列に変換し得るデータ系列を第一のデータ系列とし、テキストデータからなる処理単位系列を第二処理単位系列とすればよい。
よって、本実施形態では、話し言葉テキストの単語系列Xと、大量の書き言葉テキストで学習された外部言語モデル90の出力Lとを用いて、モデルパラメータΘ={θh,θu,θs,θq,θp}に従った確率計算により、書き言葉テキストの単語系列^Yを求める。ここで、ニューラル系列変換の入力となるXは、X=(x1,…,xm)として表される。また、出力となる^Yは、^Y=(^y1,…,^yn)として表される。
また、大量の書き言葉テキストで学習された外部言語モデル90は、ニューラル言語モデルであれば任意のものを利用でき、例えば、リカレントニューラルネットを用いたものを利用することもできる。ここで、この外部言語モデルは、パラメータの値を固定したものとする。外部言語モデルは、1番目からn-1番目までの書き言葉テキストの単語系列^y1,…,^yn-1を入力とし、ベクトル系列L1,…,Ln-1を出力するモデルである。ベクトル系列L1,…,Ln-1は単語埋め込みベクトルに相当する。単語埋め込みベクトルは、各単語が持つ情報を埋め込んだベクトルを表し、テキスト中におけるその単語が持つ意味的な情報を含み、話し言葉テキストを書き言葉テキストに変換するために必要となるベクトルである。ベクトルの次元数を大きくするほど、たくさんの情報を埋め込むことができ、例えば、512次元のベクトルとして人手で次元数を決定する。外部言語モデルの学習には、入力データと出力データとからなる大量のパラレルデータを必要とせず、既存の学習方法により、大量の出力データのみから学習することができる。
ここで、英語の場合、例えばスペース区切りの表現、日本語の場合、例えば形態素解析により自動分割された表現を単語系列とする。または文字単位に区切った表現を単語系列としてもよい。
変換処理は、話し言葉テキストの単語系列を次の変換装置に入力し、学習済みのモデルパラメータΘを用いて変換することによって実現できる。
用いるモデルとしては、ニューラル系列変換モデルであれば何でもよく、例えば、attention-based encoder-decoder modelを用いる方法(参考文献1参照)や、Transformerを用いる方法(参考文献2参照)が考えられる。
(参考文献1)Thang Luong, Hieu Pham, and Christopher D. Manning, "Effective approaches to attention-based neural machine translation", In Proc. EMNLP, pp. 1412-1421, 2015.
(参考文献2)A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, I. Polosukhin, "Attention is all you need", In Proc. NIPS, pp. 5998-6008, 2017.
<変換装置100>
入力:話し言葉テキストの単語系列X,既に話し言葉・書き言葉変換の結果として得られた1番目からn-1番目までの書き言葉テキストの単語系列^y1,…,^yn-1、外部言語モデルの出力(ベクトル系列)L1,…,Ln-1,モデルパラメータΘ
出力:1~n番目の書き言葉テキストの単語系列^y1,…,^yn
図1は第一実施形態に係る変換装置の機能ブロック図を、図2はその処理フローを示す。
(参考文献2)A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, I. Polosukhin, "Attention is all you need", In Proc. NIPS, pp. 5998-6008, 2017.
<変換装置100>
入力:話し言葉テキストの単語系列X,既に話し言葉・書き言葉変換の結果として得られた1番目からn-1番目までの書き言葉テキストの単語系列^y1,…,^yn-1、外部言語モデルの出力(ベクトル系列)L1,…,Ln-1,モデルパラメータΘ
出力:1~n番目の書き言葉テキストの単語系列^y1,…,^yn
図1は第一実施形態に係る変換装置の機能ブロック図を、図2はその処理フローを示す。
変換装置100は、第一埋め込みベクトル変換部110と、第二埋め込みベクトル変換部120と、第一文脈ベクトル変換部130と、第二文脈ベクトル変換部140と、事後確率変換部150と、第二データ系列生成部と160を含む。
変換装置100は、変換処理に先立ち、学習済みのモデルパラメータΘ={θh,θu,θs,θq,θp}を受け取っておく。モデルパラメータΘの学習方法については後述する。
変換装置100は、話し言葉テキストの単語系列Xと、1番目からn-1番目までの書き言葉テキストの単語系列^y1,…,^yn-1と、単語系列^y1,…,^yn-1を学習済みの外部言語モデル90に与えて得られるベクトル系列L1,…,Ln-1とを入力とし、モデルパラメータΘに従った確率計算により、n番目の書き言葉テキストの単語^ynについての事後確率分布P(yn|^y1,…,^yn-1,X,Θ)を得て、最尤基準によりn番目の話し言葉・書き言葉変換結果の単語^ynを決定する。最尤基準による決定は式(1)に従う。
この処理を再帰的に行うことにより、書き言葉テキストの単語系列^Y=(^y1,…,^yn)を獲得する。P(yn|^y1,…,^yn-1,X,Θ)の詳しい定式化とその詳細な計算方法は、後述する。なお、変換装置100は、n回目の変換処理において、n-1回目の変換処理の結果である単語系列^y1,…,^yn-1を入力として受け取り、利用する。
この処理を再帰的に行うことにより、書き言葉テキストの単語系列^Y=(^y1,…,^yn)を獲得する。P(yn|^y1,…,^yn-1,X,Θ)の詳しい定式化とその詳細な計算方法は、後述する。なお、変換装置100は、n回目の変換処理において、n-1回目の変換処理の結果である単語系列^y1,…,^yn-1を入力として受け取り、利用する。
変換装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。変換装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。変換装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。変換装置の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。変換装置が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。ただし、各記憶部は、必ずしも変換装置がその内部に備える必要はなく、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置により構成し、変換装置の外部に備える構成としてもよい。
まず、モデルパラメータΘの学習方法について説明する。
<学習装置200>
入力:学習用の話し言葉テキストの単語系列と書き言葉テキストの単語系列の組の集合D=(X1,Y1),…,(X|D|,Y|D|)、d番目の話し言葉テキストの単語系列Xdに対する1番目からn-1番目までの書き言葉テキストの単語系列^yd,1,…,^yd,n-1、外部言語モデルの出力(ベクトル系列)Ld,1,…,Ld,n-1
出力:モデルパラメータΘ
図3は、学習装置200の機能ブロック図を示す。学習装置200は、変換装置100と、モデルパラメータ学習部210とを含む。学習装置200では、話し言葉テキストの単語系列と書き言葉テキストの単語系列の組の集合D=(X1,Y1),…,(X|D|,Y|D|)からモデルパラメータ^Θを学習する。集合Dにより最適化されたパラメータ^Θは次式(2)に従う。
ただし、Yd=(yd,1,…yd,n)である。
入力:学習用の話し言葉テキストの単語系列と書き言葉テキストの単語系列の組の集合D=(X1,Y1),…,(X|D|,Y|D|)、d番目の話し言葉テキストの単語系列Xdに対する1番目からn-1番目までの書き言葉テキストの単語系列^yd,1,…,^yd,n-1、外部言語モデルの出力(ベクトル系列)Ld,1,…,Ld,n-1
出力:モデルパラメータΘ
図3は、学習装置200の機能ブロック図を示す。学習装置200は、変換装置100と、モデルパラメータ学習部210とを含む。学習装置200では、話し言葉テキストの単語系列と書き言葉テキストの単語系列の組の集合D=(X1,Y1),…,(X|D|,Y|D|)からモデルパラメータ^Θを学習する。集合Dにより最適化されたパラメータ^Θは次式(2)に従う。
ただし、Yd=(yd,1,…yd,n)である。
変換装置100は、d番目の話し言葉テキストの単語系列Xdと、単語系列Xdに対してn-1回目の変換処理を行って得られる1番目からn-1番目までの書き言葉テキストの単語系列^yd,1,…,^yd,n-1と、単語系列^yd,1,…,^yd,n-1を学習済みの外部言語モデル90に与えて得られるベクトル系列Ld,1,…,Ld,n-1とを入力とし、学習中のモデルパラメータ^Θに従った確率計算により、n番目の書き言葉テキストの単語^yd,nについての事後確率分布P(yd,n|^yd,1,…,^yd,n-1,Xd,Θ)を得て、最尤基準によりn番目の話し言葉・書き言葉変換結果の単語^yd,nを決定する。最尤基準による決定は式(1)に従う。
モデルパラメータ学習部210は、変換装置100の出力である単語系列^yd,1,…,^yd,nと、d番目の話し言葉テキストの単語系列Xdに対応する書き言葉テキストの単語系列Yd=(yd,1,…,yd,n)とを入力とし、単語系列^yd,1,…,^yd,nと単語系列Yd=(yd,1,…,yd,n)との差が小さくなるように、モデルパラメータ^Θを更新する。
集合Dを用いて、変換装置100およびモデルパラメータ学習部210における処理を繰り返し、モデルパラメータ^Θを学習する。なお、モデルパラメータ^Θの最適化には、ニューラルネットワークの学習において一般的な最適化手法を用いればよい。ここで学習された^Θを変換装置100におけるΘとして用いる。
以下、変換装置100の各部について説明する。
<第一埋め込みベクトル変換部110>
入力:話し言葉テキストの単語系列X=(x1,…,xm),モデルパラメータθh
出力:話し言葉テキストの単語埋め込みベクトル系列h1,…,hm
第一埋め込みベクトル変換部110は、話し言葉テキストの単語系列X=(x1,…,xm)をモデルパラメータθhに基づく変換関数により、話し言葉テキストの単語埋め込みベクトルに変換する(S110)。別の言い方をすると、第一埋め込みベクトル変換部110は、モデルパラメータθhを用いて、話し言葉テキストの単語系列X=(x1,…,xm)を、話し言葉テキストの単語埋め込みベクトルにエンコードする(S110)。前述の通り、単語埋め込みベクトルは、各単語が持つ情報を埋め込んだベクトルを表し、テキスト中におけるその単語が持つ意味的な情報が含まれており、話し言葉テキストを書き言葉テキストに変換するために必要となる。本実施形態では、話し言葉テキストの単語埋め込みベクトルとして、ベクトル系列h1,…,hmを用いているが、話し言葉テキストの単語系列X=(x1,…,xm)の情報を持つベクトルであれば、単一のベクトルであってもよい。単語埋め込みベクトルの次元数を大きくするほど、たくさんの情報を埋め込むことができ、例えば、512次元のベクトルとして人手で次元数を決定する。このとき、変換関数には、可変長の記号列を可変長のベクトルに変換する関数であれば任意のものを利用することができる。例えば、テキスト中の単語の頻度ベクトルを構成する関数を用いることや、リカレントニューラルネットワークや双方向リカレントニューラルネットワーク等を用いることができる。また、参考文献2のような自己注意機構を用いた方法も利用できる。例えば、頻度ベクトルや、リカレントニューラルネットワークや双方向リカレントニューラルネットワーク、自己注意機構等の出力からなるベクトルを話し言葉テキストの単語埋め込みベクトルとして用いることができる。
入力:話し言葉テキストの単語系列X=(x1,…,xm),モデルパラメータθh
出力:話し言葉テキストの単語埋め込みベクトル系列h1,…,hm
第一埋め込みベクトル変換部110は、話し言葉テキストの単語系列X=(x1,…,xm)をモデルパラメータθhに基づく変換関数により、話し言葉テキストの単語埋め込みベクトルに変換する(S110)。別の言い方をすると、第一埋め込みベクトル変換部110は、モデルパラメータθhを用いて、話し言葉テキストの単語系列X=(x1,…,xm)を、話し言葉テキストの単語埋め込みベクトルにエンコードする(S110)。前述の通り、単語埋め込みベクトルは、各単語が持つ情報を埋め込んだベクトルを表し、テキスト中におけるその単語が持つ意味的な情報が含まれており、話し言葉テキストを書き言葉テキストに変換するために必要となる。本実施形態では、話し言葉テキストの単語埋め込みベクトルとして、ベクトル系列h1,…,hmを用いているが、話し言葉テキストの単語系列X=(x1,…,xm)の情報を持つベクトルであれば、単一のベクトルであってもよい。単語埋め込みベクトルの次元数を大きくするほど、たくさんの情報を埋め込むことができ、例えば、512次元のベクトルとして人手で次元数を決定する。このとき、変換関数には、可変長の記号列を可変長のベクトルに変換する関数であれば任意のものを利用することができる。例えば、テキスト中の単語の頻度ベクトルを構成する関数を用いることや、リカレントニューラルネットワークや双方向リカレントニューラルネットワーク等を用いることができる。また、参考文献2のような自己注意機構を用いた方法も利用できる。例えば、頻度ベクトルや、リカレントニューラルネットワークや双方向リカレントニューラルネットワーク、自己注意機構等の出力からなるベクトルを話し言葉テキストの単語埋め込みベクトルとして用いることができる。
<第二埋め込みベクトル変換部120>
入力:書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1,モデルパラメータθu
出力:書き言葉テキストの単語埋め込みベクトルun-1
第二埋め込みベクトル変換部120は、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1をモデルパラメータθuに基づく変換関数により、書き言葉テキストの単語埋め込みベクトルun-1に変換する(S120)。別の言い方をすると、第二埋め込みベクトル変換部120は、モデルパラメータθuを用いて、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1を、書き言葉テキストの単語埋め込みベクトルun-1にデコードする(S120)。単語埋め込みベクトルの求め方は、例えば、第一埋め込みベクトル変換部110と同様の方法を用いることができる。本実施形態では、書き言葉テキストの単語埋め込みベクトルとして、単一のベクトルun-1を用いているが、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1の情報を持つベクトルであれば、2つ以上のベクトルの系列であってもよい。
入力:書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1,モデルパラメータθu
出力:書き言葉テキストの単語埋め込みベクトルun-1
第二埋め込みベクトル変換部120は、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1をモデルパラメータθuに基づく変換関数により、書き言葉テキストの単語埋め込みベクトルun-1に変換する(S120)。別の言い方をすると、第二埋め込みベクトル変換部120は、モデルパラメータθuを用いて、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1を、書き言葉テキストの単語埋め込みベクトルun-1にデコードする(S120)。単語埋め込みベクトルの求め方は、例えば、第一埋め込みベクトル変換部110と同様の方法を用いることができる。本実施形態では、書き言葉テキストの単語埋め込みベクトルとして、単一のベクトルun-1を用いているが、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1の情報を持つベクトルであれば、2つ以上のベクトルの系列であってもよい。
<第一文脈ベクトル変換部130>
入力:書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1、話し言葉テキストの単語埋め込みベクトル系列h1,…,hm、モデルパラメータθs
出力:話し言葉テキストに対する文脈ベクトルsn-1
第一文脈ベクトル変換部130は、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1と話し言葉テキストの単語埋め込みベクトル系列h1,…,hmとを、モデルパラメータθsに基づく変換関数により、話し言葉テキストに対する文脈ベクトルsn-1に変換する(S130)。別の言い方をすると、第一文脈ベクトル変換部130は、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1と話し言葉テキストの単語埋め込みベクトル系列h1,…,hmとを、モデルパラメータθsを用いて統合し、話し言葉テキストに対する文脈ベクトルsn-1を得る(S130)。
入力:書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1、話し言葉テキストの単語埋め込みベクトル系列h1,…,hm、モデルパラメータθs
出力:話し言葉テキストに対する文脈ベクトルsn-1
第一文脈ベクトル変換部130は、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1と話し言葉テキストの単語埋め込みベクトル系列h1,…,hmとを、モデルパラメータθsに基づく変換関数により、話し言葉テキストに対する文脈ベクトルsn-1に変換する(S130)。別の言い方をすると、第一文脈ベクトル変換部130は、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1と話し言葉テキストの単語埋め込みベクトル系列h1,…,hmとを、モデルパラメータθsを用いて統合し、話し言葉テキストに対する文脈ベクトルsn-1を得る(S130)。
文脈ベクトルは、話し言葉テキストを考慮した、書き言葉テキストのn番目の単語を変換するために必要な意味的な情報が埋め込まれている。このとき、変換関数は、2種類の可変長のベクトルを単一ベクトルに変換する関数であれば、任意のものを利用できる。例えば、書き言葉テキストの単語系列と話し言葉テキストの単語系列のそれぞれにリカレントニューラルネットワークを設け、注意機構を加えることにより単一の文脈ベクトルとして表現する関数を用いることもできる。この場合、リカレントニューラルネットワークの入力を単語埋め込みベクトルとして用いる。また、最も単純なものであれば、書き言葉テキストのn-1番目までの単語系列の頻度ベクトルと、話し言葉テキストの単語系列の頻度ベクトルを平均化したベクトルを構成するような関数を用いることもできる。この場合、頻度ベクトルを単語埋め込みベクトルとして用いる。さらに、参考文献2のように、書き言葉テキストの単語系列と話し言葉テキストの単語系列のそれぞれに自己注意機構を導入し、注意機構を加えることにより単一の文脈ベクトルとして表現する関数も用いることもできる。
<第二文脈ベクトル変換部140>
入力:書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1を入力した外部言語モデルから出力されたベクトル系列L1,…,Ln-1、モデルパラメータθq
出力:外部言語モデルの出力に対する文脈ベクトルqn-1
第二文脈ベクトル変換部140は、外部言語モデルから出力されたベクトルと、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1とを、モデルパラメータθqに基づく変換関数により、外部言語モデルの出力に対する文脈ベクトルqn-1に変換する(S140)。別の言い方をすると、第二文脈ベクトル変換部140は、外部言語モデルから出力されたベクトルと、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1とを、モデルパラメータθqを用いて統合し、外部言語モデルの出力に対する文脈ベクトルqn-1を得る(S140)。埋め込みベクトル系列L1,…,Ln-1は、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1を学習済みの外部言語モデルに与えて得られるベクトル系列である。単語^yn-1は、変換装置100のn-1回目の変換処理で得られる単語である。本実施形態では、外部言語モデルから出力されたベクトルとして、ベクトル系列L1,…,Ln-1を用いているが、外部言語モデルの構成によっては、単一のベクトルであってもよい。
入力:書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1を入力した外部言語モデルから出力されたベクトル系列L1,…,Ln-1、モデルパラメータθq
出力:外部言語モデルの出力に対する文脈ベクトルqn-1
第二文脈ベクトル変換部140は、外部言語モデルから出力されたベクトルと、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1とを、モデルパラメータθqに基づく変換関数により、外部言語モデルの出力に対する文脈ベクトルqn-1に変換する(S140)。別の言い方をすると、第二文脈ベクトル変換部140は、外部言語モデルから出力されたベクトルと、書き言葉テキストのn-1番目までの単語埋め込みベクトルun-1とを、モデルパラメータθqを用いて統合し、外部言語モデルの出力に対する文脈ベクトルqn-1を得る(S140)。埋め込みベクトル系列L1,…,Ln-1は、書き言葉テキストのn-1番目までの単語系列^y1,…,^yn-1を学習済みの外部言語モデルに与えて得られるベクトル系列である。単語^yn-1は、変換装置100のn-1回目の変換処理で得られる単語である。本実施形態では、外部言語モデルから出力されたベクトルとして、ベクトル系列L1,…,Ln-1を用いているが、外部言語モデルの構成によっては、単一のベクトルであってもよい。
この文脈ベクトルは、外部言語モデルの出力を考慮した、書き言葉テキストのn番目の単語を変換するために必要な意味的な情報が埋め込まれている。文脈ベクトルの求め方は、例えば、第一文脈ベクトル変換部130と同様の方法を用いることができる。
<事後確率変換部150>
入力:話し言葉テキストに対する文脈ベクトルsn-1、外部言語モデルの出力に対する文脈ベクトルqn-1、モデルパラメータθp
出力:書き言葉テキストのn番目の単語についての事後確率P(yn|^y1,…,^yn-1,X,Θ)
事後確率変換部150は、話し言葉テキストに対する文脈ベクトルsn-1と外部言語モデルの出力に対する文脈ベクトルqn-1とを、モデルパラメータθpに基づく変換関数により、書き言葉テキストのn番目の単語についての事後確率P(yn|^y1,…,^yn-1,X,Θ)に変換する(S150)。
入力:話し言葉テキストに対する文脈ベクトルsn-1、外部言語モデルの出力に対する文脈ベクトルqn-1、モデルパラメータθp
出力:書き言葉テキストのn番目の単語についての事後確率P(yn|^y1,…,^yn-1,X,Θ)
事後確率変換部150は、話し言葉テキストに対する文脈ベクトルsn-1と外部言語モデルの出力に対する文脈ベクトルqn-1とを、モデルパラメータθpに基づく変換関数により、書き言葉テキストのn番目の単語についての事後確率P(yn|^y1,…,^yn-1,X,Θ)に変換する(S150)。
事後確率P(yn|^y1,…,^yn-1,X,Θ)は、各単語を要素としてベクトルとして表すことができ、ベクトル変換により事後確率分布を表現することが可能である。このとき、変換関数には、2種類のベクトルを事後確率分布に変換する関数であれば任意のものを利用できる。例えば、2つのベクトルの結合ベクトルにソフトマックス関数を用いた変換を行う関数により実現できる。それ以外でも、事後確率分布に相当する出力ベクトルの要素の総和が1.0に変換可能な関数が適用可能である。
なお、第一埋め込みベクトル変換部110がエンコーダに相当し、第二埋め込みベクトル変換部120がデコーダに相当し、第一文脈ベクトル変換部130における処理がエンコーダとデコーダを統合する処理に相当し、第二文脈ベクトル変換部140における処理が外部言語モデルとデコーダを統合する処理に相当する。さらに、事後確率変換部150における処理が、エンコーダと統合されたデコーダと外部言語モデルと統合されたデコーダを統合する処理に相当する。なお、第二文脈ベクトル変換部140において外部言語モデルとデコーダを統合し、以降の処理で統合されたデコーダを利用することで、外部言語モデルの情報をデコーダに伝播し、外部言語モデルの情報に関して、系列変換に必要な情報をより適切に取捨選択することができる。
<第二データ系列生成部160>
入力:書き言葉テキストにおける事後確率P(yn|^y1,…,^yn-1,X,Θ)
出力:書き言葉テキストの単語系列^Y=(^y1,…,^yn)
第二データ系列生成部160は、書き言葉テキストにおける事後確率P(yn|^y1,…,^yn-1,X,Θ)に基づき書き言葉テキストの単語系列^Y=(^y1,…,^yn)を生成する(S160)。例えば、第二データ系列生成部160は、書き言葉テキストにおける1~n番目の単語についての事後確率P(y1|X,Θ),…,P(yn|^y1,…,^yn-1,X,Θ)の積が最大となるように、P(yn|^y1,…,^yn-1,X,Θ)から1つの要素を選択することで、書き言葉テキストの単語系列^Y=(^y1,…,^yn)に変換する。このとき、P(yn|^y1,…,^yn-1,X,Θ)における要素選択には、確率が最大化される手法であれば任意のものを使用できる。例えば、貪欲法などの近似アルゴリズムを用いることで実現できる。
入力:書き言葉テキストにおける事後確率P(yn|^y1,…,^yn-1,X,Θ)
出力:書き言葉テキストの単語系列^Y=(^y1,…,^yn)
第二データ系列生成部160は、書き言葉テキストにおける事後確率P(yn|^y1,…,^yn-1,X,Θ)に基づき書き言葉テキストの単語系列^Y=(^y1,…,^yn)を生成する(S160)。例えば、第二データ系列生成部160は、書き言葉テキストにおける1~n番目の単語についての事後確率P(y1|X,Θ),…,P(yn|^y1,…,^yn-1,X,Θ)の積が最大となるように、P(yn|^y1,…,^yn-1,X,Θ)から1つの要素を選択することで、書き言葉テキストの単語系列^Y=(^y1,…,^yn)に変換する。このとき、P(yn|^y1,…,^yn-1,X,Θ)における要素選択には、確率が最大化される手法であれば任意のものを使用できる。例えば、貪欲法などの近似アルゴリズムを用いることで実現できる。
図2に示すように、これらの処理は、書き言葉テキストのすべての単語が生成されるまで再帰的に繰り返される。ただし、Nは全ての書き言葉テキストに含まれる単語の総数を示す。なお、n=Nではなく、ynがテキストの終わりを示す記号の場合に処理を終了してもよい。また、n=1の場合、S120,S140を省略し、事後確率変換部150は、話し言葉テキストに対する文脈ベクトルsn-1とテキストの始まりを示す記号^y0とを、モデルパラメータθpに基づく変換関数により、書き言葉テキストの1番目の単語についての事後確率P(yn|X,Θ)に変換してもよい。また、第二埋め込みベクトル変換部120および外部言語モデル90に対して、書き言葉テキストのn-1番目までの単語系列(^y1,…,^yn-1)に代えてテキストの始まりを示す記号^y0を入力として与え、それぞれベクトル系列u0,L0を求めてもよい。この場合、さらに、第二文脈ベクトル変換部140に対して、単語埋め込みベクトルun-1、ベクトル系列L1,…,Ln-1に代えて、u0,L0を入力として与え、文脈ベクトルq0を求める。さらに、事後確率変換部150では、文脈ベクトルqn-1に代えて、q0を入力として与え、事後確率P(yn|X,Θ)を求める。
<効果>
以上の構成により、encoder-decoderモデルの学習において出力データのみの情報を活用することができ、また、外部言語モデルに含まれる系列変換に必要な情報をより適切に取捨選択することができるので、新たなドメインに適応する場合においても、性能の改善が期待できる。
以上の構成により、encoder-decoderモデルの学習において出力データのみの情報を活用することができ、また、外部言語モデルに含まれる系列変換に必要な情報をより適切に取捨選択することができるので、新たなドメインに適応する場合においても、性能の改善が期待できる。
<変形例>
変換装置100は、学習済みの外部言語モデル90を含んでもよい。
変換装置100は、学習済みの外部言語モデル90を含んでもよい。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
上述の各種の処理は、図4に示すコンピュータの記憶部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
上述の各種の処理は、図4に示すコンピュータの記憶部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
Claims (5)
- 第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する変換装置であって、
モデルパラメータθhに基づく変換関数により、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルに変換する第一埋め込みベクトル変換部と、
モデルパラメータθuに基づく変換関数により、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルに変換する第二埋め込みベクトル変換部と、
前記第一埋め込みベクトルと前記第二埋め込みベクトルとを、モデルパラメータθsに基づく変換関数により、前記第一のデータ系列に対する文脈ベクトルに変換する第一文脈ベクトル変換部と、
n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、前記第二埋め込みベクトルとを、モデルパラメータθqに基づく変換関数により、前記外部言語モデルの出力に対する文脈ベクトルに変換する第二文脈ベクトル変換部と、
前記第一のデータ系列に対する文脈ベクトルと前記外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換部とを含む、
変換装置。 - 第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する変換装置であって、
モデルパラメータθhを用いて、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルにエンコードする第一埋め込みベクトル変換部と、
モデルパラメータθuを用いて、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルにデコードする第二埋め込みベクトル変換部と、
前記第一埋め込みベクトルと前記第二埋め込みベクトルとを、モデルパラメータθsを用いて統合し、前記第一のデータ系列に対する文脈ベクトルを得る第一文脈ベクトル変換部と、
n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、前記第二埋め込みベクトルとを、モデルパラメータθqを用いて統合し、前記外部言語モデルの出力に対する文脈ベクトルを得る第二文脈ベクトル変換部と、
前記第一のデータ系列に対する文脈ベクトルと前記外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換部とを含む、
変換装置。 - 変換装置が第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する変換方法であって、
モデルパラメータθhに基づく変換関数により、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルに変換する第一埋め込みベクトル変換ステップと、
モデルパラメータθuに基づく変換関数により、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルに変換する第二埋め込みベクトル変換ステップと、
前記第一埋め込みベクトルと前記第二埋め込みベクトルとを、モデルパラメータθsに基づく変換関数により、前記第一のデータ系列に対する文脈ベクトルに変換する第一文脈ベクトル変換ステップと、
n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、前記第二埋め込みベクトルとを、モデルパラメータθqに基づく変換関数により、前記外部言語モデルの出力に対する文脈ベクトルに変換する第二文脈ベクトル変換ステップと、
前記第一のデータ系列に対する文脈ベクトルと前記外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換ステップとを含む、
変換方法。 - 変換装置が第一のデータ系列に対応する所定の処理単位のデータからなる第一処理単位系列を所定の処理単位のテキストデータからなる第二処理単位系列に変換する変換方法であって、
モデルパラメータθhを用いて、第一処理単位系列を、第一のデータ系列における各処理単位のデータが持つ意味的な情報を含むベクトルである第一埋め込みベクトルにエンコードする第一埋め込みベクトル変換ステップと、
モデルパラメータθuを用いて、n-1番目までの処理単位のテキストデータからなる第二処理単位系列を、第二のデータ系列におけるn-1番目までの各処理単位のデータが持つ意味的な情報を含むベクトルである第二埋め込みベクトルにデコードする第二埋め込みベクトル変換ステップと、
前記第一埋め込みベクトルと前記第二埋め込みベクトルとを、モデルパラメータθsを用いて統合し、前記第一のデータ系列に対する文脈ベクトルを得る第一文脈ベクトル変換ステップと、
n-1番目までの処理単位のテキストデータからなる第二処理単位系列を学習済みの外部言語モデルに与えて得られるベクトルと、前記第二埋め込みベクトルとを、モデルパラメータθqを用いて統合し、前記外部言語モデルの出力に対する文脈ベクトルを得る第二文脈ベクトル変換ステップと、
前記第一のデータ系列に対する文脈ベクトルと前記外部言語モデルの出力に対する文脈ベクトルとを、モデルパラメータθpに基づく変換関数により、第二のデータ系列のn番目の処理単位のテキストデータについての事後確率に変換する事後確率変換ステップとを含む、
変換方法。 - 請求項1または請求項2の変換装置として、コンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/031192 WO2022038692A1 (ja) | 2020-08-19 | 2020-08-19 | 変換装置、変換方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022038692A1 JPWO2022038692A1 (ja) | 2022-02-24 |
JP7375943B2 true JP7375943B2 (ja) | 2023-11-08 |
Family
ID=80323491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022543856A Active JP7375943B2 (ja) | 2020-08-19 | 2020-08-19 | 変換装置、変換方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7375943B2 (ja) |
WO (1) | WO2022038692A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115329785B (zh) * | 2022-10-15 | 2023-01-20 | 小语智能信息科技(云南)有限公司 | 融入音素特征的英-泰-老多语言神经机器翻译方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336884A1 (en) | 2017-05-19 | 2018-11-22 | Baidu Usa Llc | Cold fusing sequence-to-sequence models with language models |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200059703A (ko) * | 2018-11-21 | 2020-05-29 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
-
2020
- 2020-08-19 JP JP2022543856A patent/JP7375943B2/ja active Active
- 2020-08-19 WO PCT/JP2020/031192 patent/WO2022038692A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336884A1 (en) | 2017-05-19 | 2018-11-22 | Baidu Usa Llc | Cold fusing sequence-to-sequence models with language models |
Non-Patent Citations (1)
Title |
---|
稲熊寛文 他2名,ストリーミング注意機構型sequence-to-sequenceモデルによる講演音声認識,情報処理学会研究報告 音声言語情報処理(SLP)[online],日本,情報処理学会,2020年02月06日,Vol.2020-SLP-131 No.9,1-7頁 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022038692A1 (ja) | 2022-02-24 |
WO2022038692A1 (ja) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | Neural machine translation: A review of methods, resources, and tools | |
US11113479B2 (en) | Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query | |
KR20180001889A (ko) | 언어 처리 방법 및 장치 | |
CN112712804A (zh) | 语音识别方法、系统、介质、计算机设备、终端及应用 | |
US11886813B2 (en) | Efficient automatic punctuation with robust inference | |
CN111930914B (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
JP2008165786A (ja) | 機械翻訳用のシーケンス分類 | |
JP2008165783A (ja) | シーケンス分類のためのモデルの識別トレーニング | |
JP7072178B2 (ja) | 自然言語処理のための装置、方法及びプログラム | |
CN112446211A (zh) | 文本处理装置、方法、设备和计算机可读存储介质 | |
CN114242071A (zh) | 一种低资源语音识别方法、系统、语音模型训练方法 | |
JP6552999B2 (ja) | テキスト補正装置、テキスト補正方法、およびプログラム | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
Radzikowski et al. | Dual supervised learning for non-native speech recognition | |
JP7375943B2 (ja) | 変換装置、変換方法、およびプログラム | |
Wang et al. | Data augmentation for internet of things dialog system | |
CN113268996A (zh) | 用于扩充语料的方法和用于翻译模型的训练方法及产品 | |
JP2022037862A (ja) | テキスト基盤の事前学習モデルを活用した縦断型音声言語理解知識を蒸留するための方法、システム、およびコンピュータ読み取り可能な記録媒体 | |
JP6772394B1 (ja) | 情報学習装置、情報処理装置、情報学習方法、情報処理方法及びプログラム | |
JP7211103B2 (ja) | 系列ラベリング装置、系列ラベリング方法、およびプログラム | |
US20220310075A1 (en) | Apparatus and method for training dialogue summary model | |
CN113704466B (zh) | 基于迭代网络的文本多标签分类方法、装置及电子设备 | |
Zhao et al. | Hybrid recommendation algorithms based on ConvMF deep learning model | |
Zare et al. | Deepnorm-a deep learning approach to text normalization | |
Bai et al. | A public Chinese dataset for language model adaptation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375943 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |