JP2024000063A - アクセント位置推定装置、アクセント位置学習装置及びそれらのプログラム - Google Patents
アクセント位置推定装置、アクセント位置学習装置及びそれらのプログラム Download PDFInfo
- Publication number
- JP2024000063A JP2024000063A JP2022098587A JP2022098587A JP2024000063A JP 2024000063 A JP2024000063 A JP 2024000063A JP 2022098587 A JP2022098587 A JP 2022098587A JP 2022098587 A JP2022098587 A JP 2022098587A JP 2024000063 A JP2024000063 A JP 2024000063A
- Authority
- JP
- Japan
- Prior art keywords
- word
- accent position
- accent
- feature vector
- expression vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013598 vector Substances 0.000 claims abstract description 98
- 239000013604 expression vector Substances 0.000 claims abstract description 47
- 238000013136 deep learning model Methods 0.000 claims description 33
- 241001417093 Moridae Species 0.000 claims description 9
- 230000021615 conjugation Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007429 general method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
【課題】アクセント位置の推定精度を向上させるアクセント位置推定装置を提供する。【解決手段】アクセント位置推定装置1は、日本語テキストを単語に分割する単語分割手段10と、各単語の単語分散表現ベクトルを生成する単語分散表現ベクトル生成手段11と、辞書を参照し、各単語の単語素性ベクトルを生成する単語素性ベクトル生成手段12と、予め学習した深層学習モデルを用いて、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルから日本語テキストのアクセント位置を推定するアクセント位置推定手段と13、を備える。【選択図】図1
Description
本発明は、日本語テキストのアクセント位置を推定するアクセント位置推定装置、アクセント位置推定装置及びそれらのプログラムに関する。
日本語テキストの音声合成において、アクセント位置を適切に推定することで、より高品質な音声出力が期待できる。そのためには、同じ単語でも意味に応じてアクセント位置が変化する現象や、文中の単語の連接に伴いアクセント位置が変化する現象(アクセント結合)に対応する必要がある。
非特許文献1には、旧来のルールベースに代わり、機械学習でアクセント位置を推定する手法が開示されている。この従来手法は、単語の品詞や、単独発話時のアクセントを元に、条件付き確率場(CRF)により、アクセント位置を推定している。
非特許文献2には、テキストをWord2Vecによる意味を考慮した特徴量に変換し、深層学習モデルで処理し、文中のアクセント位置を推定する手法が開示されている。この非特許文献2に記載の手法では、王子(Prince)と王子(地名)のように、単語の意味に応じたアクセント位置の変化にも対応することができる。
印南圭祐、渡辺美知子、峯松信明、広瀬啓吉、"CRFを用いたアクセント変形予測モデルの規則処理に基づく改良"、第15回言語処理学会年次大会発表論文集、pp.574-577、2009
角南陽友、齋藤大輔、峯松信明、"日本語アクセント結合推定におけるLSTMと単語埋め込み表現の利用"、研究報告音楽情報科学(MUS)、vold.2021-MUS-131、no.48、pp.1-6、2021
非特許文献1に記載の手法は、深層学習ではない機械学習を用いるので推定精度が低く、単語の意味に応じたアクセント位置の変化に対応が困難であるという問題がある。また、非特許文献2に記載の手法は、単語の意味しか考慮していないので、推定精度が低いという問題がある。
本発明は、前記した問題を解決し、アクセント位置の推定精度を向上させるアクセント位置推定装置、アクセント位置学習装置及びそれらのプログラムを提供することを課題とする。
前記課題を解決するため、本発明に係るアクセント位置推定装置は、日本語テキストのアクセント位置を推定するアクセント位置推定装置であって、単語分散表現ベクトル生成手段と、単語素性ベクトル生成手段と、アクセント位置推定手段と、を備える構成とした。
かかる構成によれば、単語分散表現ベクトル生成手段は、日本語テキストに含まれる各単語の単語分散表現ベクトルを生成する。
単語素性ベクトル生成手段は、予め設定した辞書を参照し、少なくとも各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成する。
アクセント位置推定手段は、予め学習した深層学習モデルを用いて、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルから日本語テキストのアクセント位置を推定する。
単語素性ベクトル生成手段は、予め設定した辞書を参照し、少なくとも各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成する。
アクセント位置推定手段は、予め学習した深層学習モデルを用いて、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルから日本語テキストのアクセント位置を推定する。
このように、アクセント位置推定装置は、単語の意味を表す単語分散表現ベクトルに加え、単独発話時のアクセント位置を表す単語素性ベクトルが反映された深層学習モデルを用いることで、アクセント位置の推定精度を向上させることができる。
また、前記課題を解決するため、本発明に係るアクセント位置学習装置は、日本語テキストと日本語テキストのアクセント位置を表す正解ラベルとの組である教師データを用いて、日本語テキストのアクセント位置を推定するための深層学習モデルを学習するアクセント位置学習装置であって、単語分散表現ベクトル生成手段と、単語素性ベクトル生成手段と、アクセント位置学習手段と、を備える構成とした。
かかる構成によれば、単語分散表現ベクトル生成手段は、教師データに含まれる各単語の単語分散表現ベクトルを生成する。
単語素性ベクトル生成手段は、予め設定した辞書を参照し、少なくとも各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成する。
アクセント位置学習手段は、正解ラベルと、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルとを用いて、深層学習モデルを学習する。
単語素性ベクトル生成手段は、予め設定した辞書を参照し、少なくとも各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成する。
アクセント位置学習手段は、正解ラベルと、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルとを用いて、深層学習モデルを学習する。
このように、アクセント位置学習装置は、単語の意味を表す単語分散表現ベクトルに加え、単独発話時のアクセント位置を表す単語素性ベクトルを学習に使用することで、アクセント位置の推定精度が高い深層学習モデルを生成することができる。
なお、本発明は、コンピュータを前記したアクセント位置推定装置又はアクセント位置学習装置として機能させるためのプログラムで実現することもできる。
本発明によれば、アクセント位置の推定精度を向上させることができる。
以下、本発明の実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。
(実施形態)
図1のアクセント位置推定装置1は、深層学習モデルによりアクセント位置を推定する推定モード、及び、深層学習モデルを学習する学習モードという2つの動作モードを有する。以下、アクセント位置推定装置1の構成を推定モードと学習モードの順で説明する。
図1のアクセント位置推定装置1は、深層学習モデルによりアクセント位置を推定する推定モード、及び、深層学習モデルを学習する学習モードという2つの動作モードを有する。以下、アクセント位置推定装置1の構成を推定モードと学習モードの順で説明する。
[アクセント位置推定装置の構成:推定モード]
アクセント位置推定装置1は、日本語テキストのアクセント位置を推定するものである。図1に示すように、アクセント位置推定装置1は、単語分割手段10と、単語分散表現ベクトル生成手段11と、単語素性ベクトル生成手段12と、アクセント位置推定手段13とを備える。
アクセント位置推定装置1は、日本語テキストのアクセント位置を推定するものである。図1に示すように、アクセント位置推定装置1は、単語分割手段10と、単語分散表現ベクトル生成手段11と、単語素性ベクトル生成手段12と、アクセント位置推定手段13とを備える。
推定モードでは、アクセント位置の推定対象となる日本語テキストがアクセント位置推定装置1に入力される。例えば、日本語テキストは、“犬が歩いている。”のような文単位の日本語のテキストデータである。
単語分割手段10は、日本語テキストを各単語に分割するものである。本実施形態では、単語分割手段10は、アクセント位置推定装置1に入力された日本語テキストに形態素解析を施して、日本語テキストを単語に分割する。例えば、単語分割手段10は、“犬が歩いている。”という日本語テキストを、“犬/が/歩いて/いる/。”という単語に分割する(なお、/は単語の区切りを表す)。そして、単語分割手段10は、日本語テキストの各単語を単語分散表現ベクトル生成手段11及び単語素性ベクトル生成手段12に出力する。
単語分散表現ベクトル生成手段11は、日本語テキストに含まれる各単語の単語分散表現ベクトルを生成するものである。本実施形態では、単語分散表現ベクトル生成手段11は、word2vec、GloVe(Global Vectors for Word Representation)などの一般的な手法を用いて、単語分割手段10が分割した各単語から単語分散表現ベクトルを生成する。そして、単語分散表現ベクトル生成手段11は、生成した単語分散表現ベクトルをアクセント位置推定手段13に出力する。
この単語分散表現ベクトルは、意味が近い単語を近いベクトルに対応させて、単語を有限の高次元(例えば、100~300次元)の数値ベクトルで表現したベクトルである。つまり、単語分散表現ベクトルは、単語の意味を捉えているような性質を有する。図2には、“犬/が/歩いて/いる/。”という単語に対応した単語分散表現ベクトルの一例を示した(例えば、300次元)。
単語素性ベクトル生成手段12は、予め設定した辞書を参照し、少なくとも各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成するものである。本実施形態では、単語素性ベクトル生成手段12は、UniDicなどの一般的な辞書を参照し、単語分割手段10が分割した各単語に対する単語素性を取得し、単語素性ベクトルを生成する。そして、単語素性ベクトル生成手段12は、生成した単語素性ベクトルをアクセント位置推定手段13に出力する。
この単語素性ベクトルは、単独発話アクセント位置などの各単語の素性を表すベクトルである。さらに、単語素性ベクトルは、単語のモーラ数、品詞又は活用形の何れか1以上が含まれてもよい。本実施形態では、単語素性ベクトルは、各単語の素性として、各単語の品詞、活用形、モーラ数及び単独発話アクセント位置が含まれることとする。図3には、単語“仙台”についての単語素性ベクトルの一例を図示した。
ここで、単語素性ベクトルは、One-Hotベクトル形式で記述することとする。このOne-Hotベクトルは、ベクトルの全成分のうち、1つの成分が1で、残りの成分が0となるベクトルである。このように、One-Hotベクトルを用いることで、深層学習モデルの学習が容易になる。図4には、各単語の品詞をOne-Hotベクトル形式で記述した例を図示した。この品詞分類は、UniDicに準拠し、小分類の属性を用いる。また、図5には、各単語の活用形をOne-Hotベクトル形式で記述した例を図示した。
図3に示すように、単語“仙台”の単語素性ベクトルについて考える。単語“仙台”の品詞が地名なので、図4の大分類-名詞、中分類-固有名詞、小分類-地名に該当する。従って、この単語素性ベクトルの品詞は、{0,0,0,0,0,0,0,0,1,0,…}というOne-Hotベクトルで記述する。
また、単語“仙台”の活用形が変換なしなので、図5の小分類“語幹”に該当する。従って、この単語素性ベクトルの活用形は、{1,0,0,0,0,0,0,0}というOne-Hotベクトルで記述する。
また、単語“仙台”が4モーラ単語なので、この単語素性ベクトルのモーラ数は、{0,0,0,1,0,0,0,…,0}というOne-Hotベクトルで記述する。このモーラ数を表すOne-Hotベクトルは、その単語のモーラ数に対応する成分が1、それ以外の成分が0となっている。
また、単語“仙台”のアクセント位置が1モーラ目なので、この単語素性ベクトルのモーラ数は、{0,1,0,0,0,0,0,…,0}というOne-Hotベクトルで記述する。このアクセント位置を表すOne-Hotベクトルは、その単語のアクセント位置に対応する成分が1、それ以外の成分が0となっている。なお、アクセント位置を表すOne-Hotベクトルは、単語にアクセントがない場合、先頭の成分が1となる。
ここで、品詞を表すOne-Hotベクトルが52次元、活用形を表すOne-Hotベクトルが9次元、モーラ数及び単独発話アクセント位置を表すOne-Hotベクトルが30次元である。従って、単語素性ベクトルは、これらを合計した121次元のOne-Hotベクトルとなる。
図1に戻り、アクセント位置推定装置1の構成について説明を続ける。
アクセント位置推定手段13は、予め学習した深層学習モデルを用いて、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルから日本語テキストのアクセント位置を推定するものである。本実施形態では、深層学習モデルを、双方向LSTM(Bidirectional LSTM)で生成したこととする。この他、深層学習モデルは、畳み込みニューラルネット(CNN:Convolutional Neural Network)、Transformerなどの一般的な深層学習で生成してもよい。
アクセント位置推定手段13は、予め学習した深層学習モデルを用いて、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルから日本語テキストのアクセント位置を推定するものである。本実施形態では、深層学習モデルを、双方向LSTM(Bidirectional LSTM)で生成したこととする。この他、深層学習モデルは、畳み込みニューラルネット(CNN:Convolutional Neural Network)、Transformerなどの一般的な深層学習で生成してもよい。
<アクセント位置の推定>
図6を参照し、アクセント位置推定手段13によるアクセント位置の推定を説明する。
前記したように、単語分散表現ベクトル生成手段11は、日本語テキストの単語系列から、300次元×単語数の単語分散表現ベクトルVWを生成したこととする。また、単語素性ベクトル生成手段12は、日本語テキストの単語系列から、121次元×単語数の単語素性ベクトルVmoraを生成したこととする。
図6を参照し、アクセント位置推定手段13によるアクセント位置の推定を説明する。
前記したように、単語分散表現ベクトル生成手段11は、日本語テキストの単語系列から、300次元×単語数の単語分散表現ベクトルVWを生成したこととする。また、単語素性ベクトル生成手段12は、日本語テキストの単語系列から、121次元×単語数の単語素性ベクトルVmoraを生成したこととする。
まず、アクセント位置推定手段13は、単語分散表現ベクトルVWと単語素性ベクトルVmoraを連結し、300+121次元×単語数の特徴ベクトルVW+moraを生成する。次に、アクセント位置推定手段13は、メモリ(不図示)に記憶されている深層学習モデル130に特徴ベクトルVW+moraを入力する。すると、深層学習モデル130から位置ラベル131が得られるので、アクセント位置推定手段13は、この位置ラベル131をアクセント位置の推定結果として出力する。この位置ラベル131は、各単語の何モーラ目にアクセント位置があるかを表すラベルであり、例えば、30次元×単語数のラベルとなる。例えば、位置ラベル131は、白丸及び黒丸が各モーラに対応しており、白丸がアクセントでなく、黒丸がアクセントであることを表している。図6の位置ラベル131は、1単語目で3番目の要素が黒丸なので、アクセント位置が3モーラ目にあることを表している。
[アクセント位置推定装置の構成:学習モード]
図1に戻り、アクセント位置推定装置1の学習モードについて、推定モードと異なる点を説明する。
なお、学習モードで動作するアクセント位置推定装置1及びアクセント位置推定手段13をそれぞれ、アクセント位置学習装置1B及びアクセント位置学習手段13Bと呼ぶ場合がある。
図1に戻り、アクセント位置推定装置1の学習モードについて、推定モードと異なる点を説明する。
なお、学習モードで動作するアクセント位置推定装置1及びアクセント位置推定手段13をそれぞれ、アクセント位置学習装置1B及びアクセント位置学習手段13Bと呼ぶ場合がある。
学習モードでは、深層学習モデル130を学習するための教師データがアクセント位置推定装置1に入力される。この教師データは、文単位の日本語テキストと、日本語テキストのアクセント位置を表す正解ラベルとの組である。この正解ラベルは、日本語テキストを構成する各単語について、その単語の何モーラ目にアクセントがあるかを表すラベルである。
ここで、単語分割手段10、単語分散表現ベクトル生成手段11及び単語素性ベクトル生成手段12は、教師データに含まれる日本語テキストを処理対象とする以外、推定モードと同様のため、詳細な説明を省略する。
アクセント位置推定手段13は、正解ラベルと、単語分散表現ベクトルVWと単語素性ベクトルVmoraとを連結した特徴ベクトルVW+moraとを用いて、深層学習モデル130を学習するものである。ここで、アクセント位置推定手段13は、誤差伝搬法などの一般的な手法で深層学習モデル130を学習できる。具体的には、アクセント位置推定手段13は、特徴ベクトルVW+moraを深層学習モデル130に入力し、深層学習モデル130の推定結果と正解ラベルのアクセント位置との誤差が少なくなるように深層学習モデル130のパラメータを学習する。その後、アクセント位置推定手段13は、学習した深層学習モデル130をメモリ(不図示)に記憶する。
[アクセント位置推定装置の動作:推定モード]
図7を参照し、アクセント位置推定装置1の推定モードの動作を説明する。
図7に示すように、ステップS1において、推定対象の日本語テキストをアクセント位置推定装置1に入力する。
図7を参照し、アクセント位置推定装置1の推定モードの動作を説明する。
図7に示すように、ステップS1において、推定対象の日本語テキストをアクセント位置推定装置1に入力する。
ステップS2において、単語分割手段10は、日本語テキストを各単語に分割する。また、単語分散表現ベクトル生成手段11は、日本語テキストに含まれる各単語の単語分散表現ベクトルを生成する。そして、単語素性ベクトル生成手段12は、辞書を参照して、日本語テキストに含まれる各単語の単語素性ベクトルを生成する。さらに、アクセント位置推定手段13は、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルを生成する。
ステップS3において、アクセント位置推定手段13は、深層学習モデル130を用いて、特徴ベクトルから日本語テキストのアクセント位置を推定する。
ステップS4において、アクセント位置推定手段13は、ステップS3の推定結果を出力する。
ステップS4において、アクセント位置推定手段13は、ステップS3の推定結果を出力する。
ステップS5において、アクセント位置推定装置1は、推定を終了するか否かを判定する。例えば、アクセント位置推定装置1は、日本語テキストに含まれる全単語のアクセント位置を推定した後、推定を終了すると判定する。
推定を終了する場合(ステップS5でYes)、アクセント位置推定装置1は、推定モードを終了する。
推定を終了しない場合(ステップS5でNo)、アクセント位置推定装置1は、ステップS1の処理に戻る。
推定を終了しない場合(ステップS5でNo)、アクセント位置推定装置1は、ステップS1の処理に戻る。
[アクセント位置推定装置の動作:学習モード]
図8を参照し、アクセント位置推定装置1の学習モードの動作を説明する。
図8に示すように、ステップS10において、教師データをアクセント位置推定装置1に入力する。
図8を参照し、アクセント位置推定装置1の学習モードの動作を説明する。
図8に示すように、ステップS10において、教師データをアクセント位置推定装置1に入力する。
ステップS11において、単語分割手段10は、教師データの日本語テキストを各単語に分割する。また、単語分散表現ベクトル生成手段11は、教師データの日本語テキストに含まれる各単語の単語分散表現ベクトルを生成する。そして、単語素性ベクトル生成手段12は、辞書を参照して、教師データの日本語テキストに含まれる各単語の単語素性ベクトルを生成する。さらに、アクセント位置推定手段13は、単語分散表現ベクトルと単語素性ベクトルとを連結した特徴ベクトルを生成する。
ステップS12において、アクセント位置推定手段13は、特徴ベクトルを深層学習モデル130に入力し、深層学習モデル130から推定結果(アクセント位置)を取得する。
ステップS13において、アクセント位置推定手段13は、深層学習モデル130の推定結果と正解ラベルのアクセント位置との誤差が少なくなるように深層学習モデル130のパラメータを学習する。
ステップS14において、アクセント位置推定装置1は、学習を終了するか否かを判定する。例えば、アクセント位置推定装置1は、深層学習モデル130のパラメータが更新されなくなった場合、学習を終了すると判定する。
学習を終了する場合(ステップS14でYes)、アクセント位置推定装置1は、ステップS15の処理に進む。
学習を終了しない場合(ステップS14でNo)、アクセント位置推定装置1は、ステップS10の処理に戻る。
ステップS15において、アクセント位置推定装置1は、深層学習モデル130をメモリに記憶し、学習モードを終了する。
学習を終了しない場合(ステップS14でNo)、アクセント位置推定装置1は、ステップS10の処理に戻る。
ステップS15において、アクセント位置推定装置1は、深層学習モデル130をメモリに記憶し、学習モードを終了する。
[作用・効果]
以上のように、アクセント位置推定装置1は、学習モードにおいて、単語の意味を表す単語分散表現ベクトルに加え、単独発話時のアクセント位置を表す単語素性ベクトルを学習に使用する。これにより、アクセント位置推定装置1は、アクセント位置の推定精度が高い深層学習モデル130を生成できる。
以上のように、アクセント位置推定装置1は、学習モードにおいて、単語の意味を表す単語分散表現ベクトルに加え、単独発話時のアクセント位置を表す単語素性ベクトルを学習に使用する。これにより、アクセント位置推定装置1は、アクセント位置の推定精度が高い深層学習モデル130を生成できる。
さらに、アクセント位置推定装置1は、推定モードにおいて、単語の意味を表す単語分散表現ベクトルに加え、単独発話時のアクセント位置を表す単語素性ベクトルが反映された深層学習モデル130を用いる。これにより、アクセント位置推定装置1は、アクセント位置の推定精度を向上させることができる。
例えば、アクセント位置推定装置1が高精度にアクセント位置を推定できるので、合成音声作成時におけるアクセントの誤りを容易に修正できるので、ニュース番組などのコンテンツ制作を省力化できる。
(変形例)
以上、実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
以上、実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、アクセント位置推定装置とアクセント位置学習装置とが同一の装置であることとして説明したが、これに限定されない。つまり、アクセント位置推定装置とアクセント位置学習装置とが別々の装置であってもよい。
前記した実施形態では、アクセント位置推定装置及びアクセント位置学習装置に日本語テキスト(日本語文)が入力されることとして説明したが、日本語テキストを単語に分割した単語系列を入力してもよい。この場合、アクセント位置推定装置及びアクセント位置学習装置は、単語分割手段を備えずともよい。
前記した実施形態では、アクセント位置推定装置及びアクセント位置学習装置がハードウェアであることとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したアクセント位置推定装置又はアクセント位置学習装置として機能させるためのプログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1 アクセント位置推定装置
1B アクセント位置学習装置
10 単語分割手段
11 単語分散表現ベクトル生成手段
12 単語素性ベクトル生成手段
13 アクセント位置推定手段
13B アクセント位置学習手段
1B アクセント位置学習装置
10 単語分割手段
11 単語分散表現ベクトル生成手段
12 単語素性ベクトル生成手段
13 アクセント位置推定手段
13B アクセント位置学習手段
本発明は、日本語テキストのアクセント位置を推定するアクセント位置推定装置、アクセント位置学習装置及びそれらのプログラムに関する。
Claims (8)
- 日本語テキストのアクセント位置を推定するアクセント位置推定装置であって、
前記日本語テキストに含まれる各単語の単語分散表現ベクトルを生成する単語分散表現ベクトル生成手段と、
予め設定した辞書を参照し、少なくとも前記各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成する単語素性ベクトル生成手段と、
予め学習した深層学習モデルを用いて、前記単語分散表現ベクトルと前記単語素性ベクトルとを連結した特徴ベクトルから前記日本語テキストのアクセント位置を推定するアクセント位置推定手段と、
を備えることを特徴とするアクセント位置推定装置。 - 前記単語素性ベクトルは、さらに、前記各単語のモーラ数、品詞又は活用形の何れか1以上が含まれることを特徴とする請求項1に記載のアクセント位置推定装置。
- 前記日本語テキストを前記各単語に分割する単語分割手段、をさらに備え、
前記単語分散表現ベクトル生成手段は、前記単語分割手段が分割した各単語の単語分散表現ベクトルを生成することを特徴とする請求項1に記載のアクセント位置推定装置。 - 日本語テキストと前記日本語テキストのアクセント位置を表す正解ラベルとの組である教師データを用いて、前記日本語テキストのアクセント位置を推定するための深層学習モデルを学習するアクセント位置学習装置であって、
前記教師データに含まれる各単語の単語分散表現ベクトルを生成する単語分散表現ベクトル生成手段と、
予め設定した辞書を参照し、少なくとも前記各単語の単独発話アクセント位置が含まれる単語素性ベクトルを生成する単語素性ベクトル生成手段と、
前記正解ラベルと、前記単語分散表現ベクトルと前記単語素性ベクトルとを連結した特徴ベクトルとを用いて、前記深層学習モデルを学習するアクセント位置学習手段と、
を備えることを特徴とするアクセント位置学習装置。 - 前記単語素性ベクトルは、さらに、前記各単語のモーラ数、品詞又は活用形の何れか1以上が含まれることを特徴とする請求項4に記載のアクセント位置学習装置。
- 前記日本語テキストを前記各単語に分割する単語分割手段、をさらに備え、
前記単語分散表現ベクトル生成手段は、前記単語分割手段が分割した各単語の単語分散表現ベクトルを生成することを特徴とする請求項4に記載のアクセント位置学習装置。 - コンピュータを、請求項1から請求項3の何れか一項に記載のアクセント位置推定装置として機能させるためのプログラム。
- コンピュータを、請求項4から請求項6の何れか一項に記載のアクセント位置学習装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022098587A JP2024000063A (ja) | 2022-06-20 | 2022-06-20 | アクセント位置推定装置、アクセント位置学習装置及びそれらのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022098587A JP2024000063A (ja) | 2022-06-20 | 2022-06-20 | アクセント位置推定装置、アクセント位置学習装置及びそれらのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024000063A true JP2024000063A (ja) | 2024-01-05 |
Family
ID=89384778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022098587A Pending JP2024000063A (ja) | 2022-06-20 | 2022-06-20 | アクセント位置推定装置、アクセント位置学習装置及びそれらのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024000063A (ja) |
-
2022
- 2022-06-20 JP JP2022098587A patent/JP2024000063A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11775777B2 (en) | Artificial intelligence system using phrase tables to evaluate and improve neural network based machine translation | |
US8229729B2 (en) | Machine translation in continuous space | |
JP5377889B2 (ja) | 言語処理装置およびプログラム | |
JP4215418B2 (ja) | 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム | |
JP2021196598A (ja) | モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
US20210034817A1 (en) | Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system | |
JP2015094848A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN111292740B (zh) | 语音辨识系统及其方法 | |
US8626510B2 (en) | Speech synthesizing device, computer program product, and method | |
CN111145718A (zh) | 一种基于自注意力机制的中文普通话字音转换方法 | |
CN110211562B (zh) | 一种语音合成的方法、电子设备及可读存储介质 | |
CN112818089B (zh) | 文本注音方法、电子设备及存储介质 | |
JP2019159823A (ja) | 学習プログラム、学習方法および学習装置 | |
JP6552999B2 (ja) | テキスト補正装置、テキスト補正方法、およびプログラム | |
JP2006309162A (ja) | ピッチパターン生成方法、ピッチパターン生成装置及びプログラム | |
CN112016271A (zh) | 语言风格转换模型的训练方法、文本处理方法以及装置 | |
CN111243571A (zh) | 文本的处理方法、装置、设备及计算机可读存储介质 | |
JP5180800B2 (ja) | 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム | |
CN112541365B (zh) | 基于术语替换的机器翻译方法及装置 | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
JP2024000063A (ja) | アクセント位置推定装置、アクセント位置学習装置及びそれらのプログラム | |
WO2020166359A1 (ja) | 推定装置、推定方法、及びプログラム | |
JP2005092682A (ja) | 翻字装置、及び翻字プログラム | |
JP6309852B2 (ja) | 強調位置予測装置、強調位置予測方法及びプログラム | |
CN117094329B (zh) | 一种用于解决语音歧义的语音翻译方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220620 |