JP7120064B2 - 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 - Google Patents
言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 Download PDFInfo
- Publication number
- JP7120064B2 JP7120064B2 JP2019021546A JP2019021546A JP7120064B2 JP 7120064 B2 JP7120064 B2 JP 7120064B2 JP 2019021546 A JP2019021546 A JP 2019021546A JP 2019021546 A JP2019021546 A JP 2019021546A JP 7120064 B2 JP7120064 B2 JP 7120064B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- language model
- meta
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims description 34
- 238000000034 method Methods 0.000 title description 18
- 239000013598 vector Substances 0.000 claims description 70
- 230000006870 function Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 description 30
- 230000000306 recurrent effect Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
本発明は、音声認識や機械翻訳等で用いる言語モデルを学習する技術に関する。
音声認識や機械翻訳では、言語的な予測のために言語モデルが必要である。言語モデルは、言語的な尤もらしさを表す言語モデルスコア(確率)を計測可能なものであり、その性能が音声認識や機械翻訳の性能を左右するものである。これまで、様々な種類の言語モデルが提案されてきているが、近年リカレントニューラルネットワークに基づく言語モデルが注目されている。リカレントニューラルネットワークに基づく言語モデルの詳細は例えば非特許文献1等を参照されたい。
リカレントニューラルネットワークに基づく言語モデルは、非常に高い言語予測能力を持ち、音声認識や機械翻訳で積極的に利用されている。リカレントニューラルネットワークに基づく言語モデルのポイントは、リカレントニューラルネットワークを用いることにより、当該発話の範囲内の長距離の文脈を反映させた言語予測を行うことができることである。具体的には、ある発話の始端から10番目までの単語の言語的な尤もらしさを計測する際に、始端から直前の9番目までの単語の情報を文脈情報として考慮することができる。
一般的なリカレントニューラルネットワークに基づく言語モデルでは、当該発話の範囲内の長距離の文脈情報を考慮して言語モデルスコアを計測するが、会話などでは当該発話の範囲内の文脈情報だけではなく、当該発話よりも過去の発話系列も文脈情報として考慮すべきである。そこで、複数人による会話において当該発話よりも過去の発話系列における話者間のインタラクションまでを文脈情報として考慮して、ある発話の言語モデルスコアを計測する技術が近年検討されている。ここでは、その技術を「複数人会話文脈考慮型言語モデル」と呼ぶこととする。
複数人会話文脈考慮型言語モデルでは、複数人会話において、これまで誰が何を話してきたのかといった情報を陽に活用して、当該発話の単語の予測確率を算出する機能を持ち、一般的なリカレントニューラルネットワークと比較して、予測性能が高い言語モデルスコアを算出することが可能となる。これにより、複数人会話文脈考慮型言語モデルを用いれば、音声認識性能が高い音声認識システムを構築することができる。複数人会話文脈考慮型言語モデルの詳細は非特許文献2を参照されたい。
Mikolov Tomas, Karafiat Martin, Burget Lukas, Cernocky Jan, Khudanpur Sanjeev, "Recurrent neural network based language model", INTERSPEECH 2010, pp. 1045-1048, 2010.
Ryo Masumura, Tomohiro Tanaka, Atsushi Ando, Hirokazu Masataki, Yushi Aono, "Role Play Dialogue Aware Language Models based on Conditional Hierarchical Recurrent Encoder-Decoder", In Proc. Annual Conference of the International Speech Communication Association (INTERSPEECH), pp. 1259-1263, 2018.
複数人会話文脈考慮型言語モデルでは、当該発話よりも過去の発話系列を文脈情報として利用する際に、各発話の単語列と話者情報のみを利用していた。しかしながら、当該発話にとって文脈情報となり得る、各発話に含まれるメタ情報の理解を明示的に行えていないことによって、不十分な文脈情報となってしまっている。ここで、メタ情報とは、様々なものが考えられるが、例えば「同意」「疑問」「感謝」等を表す発話意図や、「スポーツ」「経済」「芸能」等を表す話題、等が挙げられる。
具体的には、例えば当該発話の直前の発話が「そうですか」という場合、この発話が「疑問」を表しているのか「同意」を表しているのかを判断できないと、当該発話でどのような言語が出現しやすいかという言語予測が非常に難しくなる。また、例えば当該発話の直前の発話が「昨日のナイターの試合の結果を教えて」という場合、この発話の話題が「スポーツ」であると具体的に予測できる場合とそうでない場合とでは、次発話の言語予測の精度が大きく異なると考えられる。
したがって、本発明が解決しようとする課題は、従来の複数人会話文脈考慮型言語モデルが、当該発話の文脈情報となり得る過去の各発話に含まれるメタ情報の理解を明示的に行っていないことにより、言語予測が難しくなってしまっている点である。すなわち、本発明の目的は、過去の発話系列を文脈情報として利用する言語モデルにおいて、言語予測の精度を向上することである。
本発明の第一の態様の言語モデルスコア計算装置は、直前の発話の単語列から少なくとも1個のメタ情報に関するメタ情報理解器を用いて直前の発話のメタ情報を表す履歴発話メタ情報ベクトルを求める履歴発話メタ情報理解部と、直前の発話の単語列と直前の発話の話者を表す話者ラベルとを言語モデルのモデルパラメータを用いて履歴発話埋め込みベクトルに変換する履歴発話埋め込み部と、履歴発話メタ情報ベクトルと履歴発話埋め込みベクトルとを結合して発話単位結合ベクトルを求める発話単位結合ベクトル構成部と、過去の発話系列について求めた複数の発話単位結合ベクトルを言語モデルのモデルパラメータを用いて発話系列埋め込みベクトルに変換する発話系列埋め込みベクトル計算部と、現在の発話の単語列と現在の発話の話者を表す話者ラベルと発話系列埋め込みベクトルとから言語モデルのモデルパラメータを用いて現在の発話の言語モデルスコアを計算する言語モデルスコア計算部と、を含む。
本発明の第二の態様の言語モデル作成装置は、少なくとも1個のメタ情報に関する発話と各発話のメタ情報との組からなる学習データからメタ情報理解器のモデルパラメータを学習するメタ情報モデルパラメータ学習部と、複数人による複数の発話と各発話の話者を表す話者ラベルとの組からなる会話データからメタ情報理解器のモデルパラメータを用いて言語モデルのモデルパラメータを学習する言語モデルパラメータ学習部と、を含む。
本発明によれば、過去の発話系列を文脈情報として利用する言語モデルにおいて、言語予測の精度が向上する。この言語モデルを音声認識や機械翻訳等に用いることによって、音声認識性能や翻訳性能を高めることができる。
文中で使用する記号「^」は、本来直後の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直前に記載する。数式中においてはこれらの記号は本来の位置、すなわち文字の真上に記述している。例えば、「^θ」は数式中では次式で表される。
本発明では、上述の課題を解決するために、複数人会話文脈考慮型言語モデルにおいて、当該発話の文脈情報となる過去の各発話に含まれる1種類以上のメタ情報を推定し、推定した各発話のメタ情報も単語列と話者情報に付随して文脈情報として用いることによって、言語予測のための予測確率を算出し、それに基づき言語モデルスコアを計算する方法を導入する。そのために、本発明の複数人会話文脈考慮型言語モデルは、推定したいメタ情報の種類数分のメタ情報理解器を内包する。
また、上述の機能を持つ複数人会話文脈考慮型言語モデル、および内包された推定したいメタ情報の種類数分のメタ情報理解器を、メタ情報の種類ごとのメタ情報予測のための学習データ(発話とメタ情報のペアの複数データ)と、複数人会話の学習データ(話者ラベルが付与された単語列の系列)とを用いて最適化する方法を導入する。
以下、本発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
[第一実施形態:言語モデルスコア計算装置]
第一実施形態の言語モデルスコア計算装置1は、図1に例示するように、モデルパラメータ記憶部10、履歴発話メタ情報理解部11、履歴発話埋め込み部12、発話単位結合ベクトル構成部13、発話系列埋め込みベクトル計算部14、および言語モデルスコア計算部15を備える。この言語モデルスコア計算装置1が、図2に例示する各ステップの処理を行うことにより第一実施形態の言語モデルスコア計算方法が実現される。
第一実施形態の言語モデルスコア計算装置1は、図1に例示するように、モデルパラメータ記憶部10、履歴発話メタ情報理解部11、履歴発話埋め込み部12、発話単位結合ベクトル構成部13、発話系列埋め込みベクトル計算部14、および言語モデルスコア計算部15を備える。この言語モデルスコア計算装置1が、図2に例示する各ステップの処理を行うことにより第一実施形態の言語モデルスコア計算方法が実現される。
言語モデルスコア計算装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。言語モデルスコア計算装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。言語モデルスコア計算装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。言語モデルスコア計算装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。言語モデルスコア計算装置1が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
第一実施形態の言語モデルスコア計算装置1は、L個の連続した発話ごとの単語列の系列W1, …, WLと、L個の連続した発話ごとの話者ラベルの系列s1, …, sLとを入力とし、言語モデルのモデルパラメータθ1と、K個のメタ情報理解器のモデルパラメータθ2
1, …, θ2
Kとに従った確率計算により、L個の連続した単語列の系列の言語モデルスコアP(W1), …, P(WL)を得て出力する。なお、l番目の発話の言語モデルスコアP(Wl)は、厳密には以下を表す。
言語モデルスコア計算装置1は、発話単位の処理を繰り返すことで上記の処理を実現する。以下では、l(l=1, …, L)番目の発話単位の処理について詳細を説明する。
モデルパラメータ記憶部10には、言語モデルのモデルパラメータθ1と、K個のメタ情報理解器のモデルパラメータθ2
1, …, θ2
Kとが予め記憶されている。これらのモデルパラメータθ1, θ2
1, …, θ2
Kは、後述する言語モデル作成装置2により予め学習しておく。
ステップS11において、履歴発話メタ情報理解部11は、l-1番目の発話の単語列Wl-1を入力とし、1以上K以下の各整数kについて、k番目のメタ情報理解器のモデルパラメータθ2
kに基づく変換関数により、l-1番目の発話のk番目のメタ情報ベクトルul-1,kを求める。このとき、l-1番目の発話の単語列Wl-1は1つ以上の単語を含む。履歴発話メタ情報理解部11は、得られたK種類のメタ情報ベクトルul-1,1, …, ul-1,Kを発話単位結合ベクトル構成部13へ出力する。
メタ情報ベクトルは、単語列から予測されるメタ情報が埋め込まれたベクトルである。メタ情報としては様々なものが考えられるが、「同意」「疑問」「感謝」などを表す発話意図や、「スポーツ」「経済」「芸能」などを表す話題、等である。メタ情報ベクトルの各次元は、メタ情報に関する各要素に対応させることができる。例えば、1次元目は「発話意図が同意」、2次元目は「発話意図が疑問」などと割り当てておき、例えば、2次元目のみ1、他の次元は0としたベクトルを構成することができる。このとき変換関数はモデルパラメータθ2
kに基づくメタ情報理解器から抽出可能な情報であれば任意のものを用いることができる。具体的には、可変長数の記号列を単一ベクトルに変換する関数であれば任意のものを利用できる。
メタ情報理解器は、単語列からメタ情報予測確率分布を推定するものであれば任意のものを用いることができ、例えばリカレントニューラルネットワークや双方向リカレントニューラルネットワークとソフトマックス関数を用いて構築することができる。変換関数は、例えばメタ情報理解器が予測したラベルに対応する次元を1として、残りの次元を0としてメタ情報ベクトルを構成する変換関数とすることができる。また、メタ情報理解器が予測したメタ情報についての事後確率分布を直接メタ情報ベクトルとすることができる。さらに、メタ情報理解器を用いて推定する際の中間表現を用いてもよく、例えば前述のリカレントニューラルネットワークや双方向リカレントニューラルネットワークとソフトマックス関数を用いたメタ情報理解器の場合であれば、ソフトマックス関数を通す前に得られるベクトル表現を直接メタ情報ベクトルとしてもよい。
ステップS12において、履歴発話埋め込み部12は、l-1番目の発話の単語列Wl-1とl-1番目の発話の単語ラベルsl-1とを入力とし、言語モデルのモデルパラメータθ1に基づく変換関数により、l-1番目の発話の履歴発話埋め込みベクトルhl-1を求める。履歴発話埋め込みベクトルは、単語列と話者ラベルの情報が埋め込まれたベクトルである。このとき変換関数には、可変長数の記号列を単一ベクトルに変換する関数であれば任意のものを利用できるが、例えばリカレントニューラルネットワークや双方向リカレントニューラルネットワークを用いることができる。履歴発話埋め込み部12は、得られた履歴発話埋め込みベクトルhl-1を発話単位結合ベクトル構成部13へ出力する。
ステップS13において、発話単位結合ベクトル構成部13は、履歴発話メタ情報理解部11が出力するl-1番目の発話のK種類のメタ情報ベクトルul-1,1, …, ul-1,Kと、履歴発話埋め込み部12が出力するl-1番目の発話の履歴発話埋め込みベクトルhl-1とを入力とし、l-1番目の発話の発話単位結合ベクトルcl-1を求める。発話単位結合ベクトル構成部13は、得られた発話単位結合ベクトルcl-1を発話系列埋め込みベクトル計算部14へ出力する。
発話単位結合ベクトルcl-1は、次のように構成される。
ここで、・T(上付き添え字のT)はベクトルの転置を表す。
ステップS14において、発話系列埋め込みベクトル計算部14は、過去の発話系列について求めた複数の発話単位結合ベクトルc1, …, cl-1を入力とし、言語モデルのモデルパラメータθ1に基づく変換関数により、l-1番目の発話系列埋め込みベクトルvl-1を求める。このとき変換関数には、可変長数のベクトル列を単一ベクトルに変換する関数であれば任意のものを利用できるが、例えばリカレントニューラルネットワークを用いることができる。発話系列埋め込みベクトル計算部14は、得られた発話系列埋め込みベクトルvl-1を言語モデルスコア計算部15へ出力する。
ステップS15において、言語モデルスコア計算部15は、l番目の発話の単語列Wlとl番目の発話の話者ラベルslとl-1番目の発話系列埋め込みベクトルvl-1とを入力とし、言語モデルのモデルパラメータθ1に基づく変換関数に基づき、l番目の発話の言語モデルスコアP(Wl)を求める。このとき変換関数には、自己回帰を行うリカレントニューラルネットワークや双方向リカレントニューラルネットワークとソフトマックス関数を用いて表すことができる。例えば、l番目の発話のm番目の単語と、l番目の発話の話者ラベルslと、l-1番目の発話系列埋め込みベクトルvl-1とから、m+1番目の単語を予測する変換関数とすることで、l番目の発話Wlの各単語の確率を求めることができ、それに基づき、言語モデルスコアP(Wl)を算出することが可能である。
言語モデルスコア計算装置1は、上述のステップS11からS15までの処理を、入力されたL個の発話W1, …, WLそれぞれに対して行い、得られたL個の発話の言語モデルスコアP(W1), …, P(WL)を出力する。
[第二実施形態:言語モデル作成装置]
第二実施形態の言語モデル作成装置2は、図3に例示するように、メタ情報モデルパラメータ学習部21、言語モデルパラメータ学習部22、およびモデルパラメータ記憶部10を備える。この言語モデル作成装置2が、図4に例示する各ステップの処理を行うことにより第二実施形態の言語モデル作成方法が実現される。
第二実施形態の言語モデル作成装置2は、図3に例示するように、メタ情報モデルパラメータ学習部21、言語モデルパラメータ学習部22、およびモデルパラメータ記憶部10を備える。この言語モデル作成装置2が、図4に例示する各ステップの処理を行うことにより第二実施形態の言語モデル作成方法が実現される。
言語モデル作成装置2は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。言語モデル作成装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。言語モデル作成装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。言語モデル作成装置2の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。言語モデル作成装置2が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
第二実施形態の言語モデル作成装置2は、K個のメタ情報それぞれについての学習データD1, …, DKと複数人会話データDとを入力とし、言語モデルのモデルパラメータθ1とK個のメタ情報理解器のモデルパラメータθ2
1, …, θ2
Kとを学習する。
k番目のメタ情報に関する学習データDkは、発話Wn
kとメタ情報Ln
kとの組からなる複数のデータであり、次式で表すことができる。ただし、nは1以上Nk以下の各整数であり、Nkはk番目のメタ情報に関する学習データの数を表す。
複数人会話データDは、会話に含まれる発話ごとの単語列Wlと話者ラベルslとの組からなる複数のデータであり、次式で表すことができる。ただし、lは1以上L以下の各整数であり、Lは会話に含まれる発話の数を表す。
ステップS21において、メタ情報モデルパラメータ学習部21は、1以上K以下の各整数kについて、k番目のメタ情報に関する学習データDkを入力とし、k番目のメタ情報理解器のモデルパラメータ^θ2
kを学習する。学習データDkに含まれる発話Wn
kとメタ情報Ln
kとの組は、例えば1万組準備する(すなわち、Nk=10000)。メタ情報モデルパラメータ学習部21は、得られたK種類のメタ情報理解器のモデルパラメータ^θ2
1, …, ^θ2
Kを言語モデルパラメータ学習部22へ出力する。
学習データDkにより最適化されたモデルパラメータ^θ2
kは次式に従う。
ここで、P(Ln
k|Wn
k, θ2
k)は、言語モデルスコア計算装置1の履歴発話メタ情報理解部11で定義されたメタ情報理解器と同一のものであり、単語列からメタ情報予測確率分布を推定するものであれば任意のものを用いることができる。例えばリカレントニューラルネットワークや双方向リカレントニューラルネットワークとソフトマックス関数を用いて構築することができる。ここで学習されたモデルパラメータ^θ2
kを言語モデルスコア計算装置1におけるメタ情報理解器のモデルパラメータθ2
kとして用いる。
ステップS22において、言語モデルパラメータ学習部22は、複数人会話データDと、K種類のメタ情報理解器のモデルパラメータ^θ2
1, …, ^θ2
Kとを入力とし、言語モデルのモデルパラメータ^θ1を学習する。複数人会話データDに含まれる発話Wlと話者ラベルslとの組は、例えば10万組準備する(すなわち、L=100000)。
複数人会話データDにより最適化されたパラメータ^θ1は次式に従う。
なお、P(Wl|W1, …, Wl-1, s1, …, sl, θ1, ^θ2
1, …, ^θ2
K)は、言語モデルスコア計算装置1において定義された計算の流れに従い計算できる。ここで、θ1がここで学習されるモデルパラメータであり、^θ2
1, …, ^θ2
Kはメタ情報モデルパラメータ学習部21において最適化されたモデルパラメータである。ここで最適化されたモデルパラメータ^θ1を言語モデルスコア計算装置1における言語モデルのモデルパラメータθ1として用いることで、学習した情報を反映した言語モデルスコア計算装置1を実現できる。
言語モデル作成装置2は、上述のステップS21からS22までの処理で得られた言語モデルのモデルパラメータθ1とK種類のメタ情報理解器のモデルパラメータ^θ2
1, …, ^θ2
Kとをモデルパラメータ記憶部10へ記憶する。もしくは、言語モデルおよびメタ情報理解器を用いる他の装置に記憶させるために、得られた言語モデルのモデルパラメータθ1とK種類のメタ情報理解器のモデルパラメータ^θ2
1, …, ^θ2
Kとをそのまま出力する。この場合、言語モデル作成装置2はモデルパラメータ記憶部10を備えなくてもよい。
[変形例]
上述の実施形態では、言語モデルスコア計算装置1と言語モデル作成装置2とを別々の装置として構成する例を説明したが、言語モデルおよびメタ情報理解器のモデルパラメータを学習する機能と学習済みのモデルパラメータを用いて言語モデルスコアを計算する機能とを兼ね備えた1台の言語モデルスコア計算装置として構成することも可能である。すなわち、変形例の言語モデルスコア計算装置は、メタ情報モデルパラメータ学習部21、言語モデルパラメータ学習部22、モデルパラメータ記憶部10、履歴発話メタ情報理解部11、履歴発話埋め込み部12、発話単位結合ベクトル構成部13、発話系列埋め込みベクトル計算部14、および言語モデルスコア計算部15を備える。
上述の実施形態では、言語モデルスコア計算装置1と言語モデル作成装置2とを別々の装置として構成する例を説明したが、言語モデルおよびメタ情報理解器のモデルパラメータを学習する機能と学習済みのモデルパラメータを用いて言語モデルスコアを計算する機能とを兼ね備えた1台の言語モデルスコア計算装置として構成することも可能である。すなわち、変形例の言語モデルスコア計算装置は、メタ情報モデルパラメータ学習部21、言語モデルパラメータ学習部22、モデルパラメータ記憶部10、履歴発話メタ情報理解部11、履歴発話埋め込み部12、発話単位結合ベクトル構成部13、発話系列埋め込みベクトル計算部14、および言語モデルスコア計算部15を備える。
以上、本発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、本発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 言語モデルスコア計算装置
10 モデルパラメータ記憶部
11 履歴発話メタ情報理解部
12 履歴発話埋め込み部
13 発話単位結合ベクトル構成部
14 発話系列埋め込みベクトル計算部
15 言語モデルスコア計算部
2 言語モデル作成装置
21 メタ情報モデルパラメータ学習部
22 言語モデルパラメータ学習部
10 モデルパラメータ記憶部
11 履歴発話メタ情報理解部
12 履歴発話埋め込み部
13 発話単位結合ベクトル構成部
14 発話系列埋め込みベクトル計算部
15 言語モデルスコア計算部
2 言語モデル作成装置
21 メタ情報モデルパラメータ学習部
22 言語モデルパラメータ学習部
Claims (6)
- 直前の発話の単語列から少なくとも1個のメタ情報に関するメタ情報理解器を用いて上記直前の発話のメタ情報を表す履歴発話メタ情報ベクトルを求める履歴発話メタ情報理解部と、
上記直前の発話の単語列と上記直前の発話の話者を表す話者ラベルとを言語モデルのモデルパラメータを用いて履歴発話埋め込みベクトルに変換する履歴発話埋め込み部と、
上記履歴発話メタ情報ベクトルと上記履歴発話埋め込みベクトルとを結合して発話単位結合ベクトルを求める発話単位結合ベクトル構成部と、
過去の発話系列について求めた複数の発話単位結合ベクトルを上記言語モデルのモデルパラメータを用いて発話系列埋め込みベクトルに変換する発話系列埋め込みベクトル計算部と、
現在の発話の単語列と上記現在の発話の話者を表す話者ラベルと上記発話系列埋め込みベクトルとから上記言語モデルのモデルパラメータを用いて上記現在の発話の言語モデルスコアを計算する言語モデルスコア計算部と、
を含む言語モデルスコア計算装置。 - 少なくとも1個のメタ情報に関する発話と各発話のメタ情報との組からなる学習データからメタ情報理解器のモデルパラメータを学習するメタ情報モデルパラメータ学習部と、
複数人による複数の発話と各発話の話者を表す話者ラベルとの組からなる会話データから上記メタ情報理解器のモデルパラメータを用いて言語モデルのモデルパラメータを学習する言語モデルパラメータ学習部と、
を含む言語モデル作成装置。 - 履歴発話メタ情報理解部が、直前の発話の単語列から少なくとも1個のメタ情報に関するメタ情報理解器を用いて上記直前の発話のメタ情報を表す履歴発話メタ情報ベクトルを求め、
履歴発話埋め込み部が、上記直前の発話の単語列と上記直前の発話の話者を表す話者ラベルとを言語モデルのモデルパラメータを用いて履歴発話埋め込みベクトルに変換し、
発話単位結合ベクトル構成部が、上記履歴発話メタ情報ベクトルと上記履歴発話埋め込みベクトルとを結合して発話単位結合ベクトルを求め、
発話系列埋め込みベクトル計算部が、過去の発話系列について求めた複数の発話単位結合ベクトルを上記言語モデルのモデルパラメータを用いて発話系列埋め込みベクトルに変換し、
言語モデルスコア計算部が、現在の発話の単語列と上記現在の発話の話者を表す話者ラベルと上記発話系列埋め込みベクトルとから上記言語モデルのモデルパラメータを用いて上記現在の発話の言語モデルスコアを計算する、
言語モデルスコア計算方法。 - メタ情報モデルパラメータ学習部が、少なくとも1個のメタ情報に関する発話と各発話のメタ情報との組からなる学習データからメタ情報理解器のモデルパラメータを学習し、
言語モデルパラメータ学習部が、複数人による複数の発話と各発話の話者を表す話者ラベルとの組からなる会話データから上記メタ情報理解器のモデルパラメータを用いて言語モデルのモデルパラメータを学習する、
言語モデル作成方法。 - 請求項1に記載の言語モデルスコア計算装置もしくは請求項2に記載の言語モデル作成装置としてコンピュータを機能させるためのプログラム。
- 請求項1に記載の言語モデルスコア計算装置もしくは請求項2に記載の言語モデル作成装置としてコンピュータを機能させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019021546A JP7120064B2 (ja) | 2019-02-08 | 2019-02-08 | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 |
US17/429,169 US11887620B2 (en) | 2019-02-08 | 2020-01-27 | Language model score calculation apparatus, language model generation apparatus, methods therefor, program, and recording medium |
PCT/JP2020/002650 WO2020162240A1 (ja) | 2019-02-08 | 2020-01-27 | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019021546A JP7120064B2 (ja) | 2019-02-08 | 2019-02-08 | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129061A JP2020129061A (ja) | 2020-08-27 |
JP7120064B2 true JP7120064B2 (ja) | 2022-08-17 |
Family
ID=71947660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019021546A Active JP7120064B2 (ja) | 2019-02-08 | 2019-02-08 | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11887620B2 (ja) |
JP (1) | JP7120064B2 (ja) |
WO (1) | WO2020162240A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023085191A1 (ja) * | 2021-11-10 | 2023-05-19 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117683A (ja) | 2011-12-05 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 音声認識装置、誤り傾向学習方法、及びプログラム |
JP2017117045A (ja) | 2015-12-22 | 2017-06-29 | 日本電信電話株式会社 | 言語確率算出方法、言語確率算出装置および言語確率算出プログラム |
WO2018051841A1 (ja) | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
US9984682B1 (en) | 2016-03-30 | 2018-05-29 | Educational Testing Service | Computer-implemented systems and methods for automatically generating an assessment of oral recitations of assessment items |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7464031B2 (en) * | 2003-11-28 | 2008-12-09 | International Business Machines Corporation | Speech recognition utilizing multitude of speech features |
US9092425B2 (en) * | 2010-12-08 | 2015-07-28 | At&T Intellectual Property I, L.P. | System and method for feature-rich continuous space language models |
JP6031316B2 (ja) * | 2012-10-02 | 2016-11-24 | 日本放送協会 | 音声認識装置、誤り修正モデル学習方法、及びプログラム |
US9304796B1 (en) * | 2013-09-27 | 2016-04-05 | Amazon Technologies, Inc. | Identification of virtual computing instance issues |
US10810357B1 (en) * | 2014-10-15 | 2020-10-20 | Slickjump, Inc. | System and method for selection of meaningful page elements with imprecise coordinate selection for relevant information identification and browsing |
JP6810580B2 (ja) * | 2016-11-22 | 2021-01-06 | 日本放送協会 | 言語モデル学習装置およびそのプログラム |
US10943583B1 (en) * | 2017-07-20 | 2021-03-09 | Amazon Technologies, Inc. | Creation of language models for speech recognition |
-
2019
- 2019-02-08 JP JP2019021546A patent/JP7120064B2/ja active Active
-
2020
- 2020-01-27 US US17/429,169 patent/US11887620B2/en active Active
- 2020-01-27 WO PCT/JP2020/002650 patent/WO2020162240A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117683A (ja) | 2011-12-05 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 音声認識装置、誤り傾向学習方法、及びプログラム |
JP2017117045A (ja) | 2015-12-22 | 2017-06-29 | 日本電信電話株式会社 | 言語確率算出方法、言語確率算出装置および言語確率算出プログラム |
US9984682B1 (en) | 2016-03-30 | 2018-05-29 | Educational Testing Service | Computer-implemented systems and methods for automatically generating an assessment of oral recitations of assessment items |
WO2018051841A1 (ja) | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
増村亮,音声言語処理における深層学習,日本音響学会誌,2017年01月,第73巻, 第1号,pp.39-46 |
渡部晋治他,音声言語理解のための音声認識,電子情報通信学会誌,2018年09月,第101巻, 第9号,pp.885-890 |
Also Published As
Publication number | Publication date |
---|---|
JP2020129061A (ja) | 2020-08-27 |
WO2020162240A1 (ja) | 2020-08-13 |
US11887620B2 (en) | 2024-01-30 |
US20220013136A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6727607B2 (ja) | 音声認識装置及びコンピュータプログラム | |
Zhang et al. | Advanced data exploitation in speech analysis: An overview | |
US11450332B2 (en) | Audio conversion learning device, audio conversion device, method, and program | |
JP5982297B2 (ja) | 音声認識装置、音響モデル学習装置、その方法及びプログラム | |
JP6884946B2 (ja) | 音響モデルの学習装置及びそのためのコンピュータプログラム | |
JP2019159654A (ja) | 時系列情報の学習システム、方法およびニューラルネットワークモデル | |
JP7070653B2 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
US20220092266A1 (en) | Method and device with natural language processing | |
CN110895928A (zh) | 语音识别方法和设备 | |
Radzikowski et al. | Dual supervised learning for non-native speech recognition | |
CN114360502A (zh) | 语音识别模型的处理方法、语音识别方法及装置 | |
CN115186147B (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
JP6230987B2 (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
US11797769B1 (en) | Artificial intelligence system using hybrid technique for task-oriented dialog management | |
JP7120064B2 (ja) | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 | |
CN114022192A (zh) | 一种基于智能营销场景的数据建模方法及系统 | |
JP7211103B2 (ja) | 系列ラベリング装置、系列ラベリング方法、およびプログラム | |
JP5980142B2 (ja) | 学習データ選択装置、識別的音声認識精度推定装置、学習データ選択方法、識別的音声認識精度推定方法、プログラム | |
JP6633556B2 (ja) | 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム | |
JP5486565B2 (ja) | 話者クラスタリング方法、話者クラスタリング装置、プログラム | |
CN112668343A (zh) | 文本重写方法以及电子设备、存储装置 | |
JP2020129051A (ja) | パラ言語情報推定モデル学習装置、パラ言語情報推定装置、およびプログラム | |
CN113486167B (zh) | 文本补全方法、装置、计算机设备和存储介质 | |
Kamath et al. | Attention and Memory Augmented Networks | |
WO2024067981A1 (en) | Dialog system and method with improved human-machine dialog concepts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7120064 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |