JP2020013008A - 音声処理装置、音声処理プログラムおよび音声処理方法 - Google Patents

音声処理装置、音声処理プログラムおよび音声処理方法 Download PDF

Info

Publication number
JP2020013008A
JP2020013008A JP2018135609A JP2018135609A JP2020013008A JP 2020013008 A JP2020013008 A JP 2020013008A JP 2018135609 A JP2018135609 A JP 2018135609A JP 2018135609 A JP2018135609 A JP 2018135609A JP 2020013008 A JP2020013008 A JP 2020013008A
Authority
JP
Japan
Prior art keywords
data
speech
voice
learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018135609A
Other languages
English (en)
Other versions
JP6864322B2 (ja
Inventor
大和 大谷
Yamato Otani
大和 大谷
悟行 松永
Noriyuki Matsunaga
悟行 松永
平井 啓之
Hiroyuki Hirai
啓之 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI Co Ltd
Original Assignee
AI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Co Ltd filed Critical AI Co Ltd
Priority to JP2018135609A priority Critical patent/JP6864322B2/ja
Publication of JP2020013008A publication Critical patent/JP2020013008A/ja
Application granted granted Critical
Publication of JP6864322B2 publication Critical patent/JP6864322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

【課題】 多彩な発話表現を容易に実現できる、音声処理装置、音声処理プログラムおよび音声処理方法を提供する。【解決手段】 複数の発話者のそれぞれの平静音声および複数の発話スタイル音声の音声コーパスを予め準備し、平静音声と発話スタイル音声の混合割合である制御パラメータ(第1混合割合)および発話者の混合割合である制御パラメータ(第2混合割合)とに基づいて学習データを生成する(S7)。その学習データから学習して入力‐出力変換モデルを構築する(S9)。【選択図】 図4

Description

この発明は音声処理装置、音声処理プログラムおよび音声処理方法に関し、特にたとえば、感情表現を伴って発話することができる、音声処理装置、音声処理プログラムおよび音声処理方法に関する。
この発明の背景となる音声合成装置の一例が、特許文献1に開示されている。特許文献1の技術は、ある発話者の発声スタイルや話者性を任意の制御則に基づいて変形可能な、ニューラルネットワークに基づく発話スタイル変換システムを提供することができる。
特開2017−32839号広報[G10L 13/06]
特許文献1の技術では、音声合成用のニューラルネットワーク音響モデルの入力部に発話者の特徴を表した数値データを利用することで様々な話者性を再現しようとしているが、発話者の特徴データを変化させた際の内部の挙動を考慮して学習をしていないため、必ずしも所望の話者性を再現できる保証がない、という問題がある。
それゆえに、この発明の主たる目的は、新規な、音声処理装置、音声処理プログラムおよび音声処理方法を提供することである。
この発明の他の目的は、出力音声における発話スタイルの入力音声に対する変化を最適に設定することができる、音声処理装置、音声処理プログラムおよび音声処理方法を提供することである。
この発明の他の目的は、容易に所望の話者性を実現できる、音声処理装置、音声処理プログラムおよび音声処理方法を提供することである。
第1の発明は、平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパス、平静音声と少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを設定する制御パラメータ生成部、制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する学習データ生成部、および入力データの学習データおよび出力データの学習データに基づいて入力‐出力変換モデルを学習する学習部を備える、音声処理装置である。
第1の発明では、音声処理装置(10:実施例において相当する部分を示す参照符号。以下、同様。)は、音声コーパス記憶部(20、101)に、平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパスが記憶される。制御パラメータ生成部(S5、107)は、たとえば制御則記憶部(109)に設定されている制御則の定義域内において、平静音声と少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを生成する。学習データ生成部(S7、105)は、制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する。そして、学習部(S9‐S15、111)が、入力データの学習データおよび出力データの学習データに基づいて入力‐出力変換モデルを学習する。
第1の発明によれば、感情音声(発話スタイル音声)および平静音声の音声データに基づいて学習する際に発話スタイル音声を混合する割合を変更させることによって学習データを作成するので、変換モデルにおいて、出力音声における発話スタイルの入力音声に対する変化を最適に設定することができる。
第2の発明は、第1の発明に従属し、音声コーパスは異なる複数の発話者のそれぞれについて平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含み、制御パラメータは複数の発話者の混合割合である第2混合割合を含み、学習データ生成部は発話スタイルおよび発話者のそれぞれの第1混合割合および第2混合割合を含む制御データに従って学習データを生成する、音声処理装置である。
第2の発明では、音声コーパス記憶部(20、101)に記憶される音声コーパスは、異なる複数の発話者のそれぞれについて平静音声および少なくとも1つの発話スタイル音声の音声データの特徴量を含み、制御パラメータ生成部(S5、107)が生成する制御パラメータは複数の発話者の混合割合である第2混合割合を含む。そのため、学習データ生成部は発話スタイルおよび発話者のそれぞれの混合割合を含む制御データに従って学習データを生成する。
第2の発明によれば、複数の発話者のそれぞれの感情音声(発話スタイル音声)を平静音声の音声データに基づいて学習すれば、所望の話者性の出力音声を容易に出力することができる。
第3の発明は、第1の発明または第2の発明の音声処理装置で学習した入力‐出力変換モデルを用いて変換フィルタを予測する変換フィルタ予測部、および変換フィルタを用いて入力波形を変換する波形変換部を備える、音声処理装置。
第3の発明では、変換フィルタ予測部(S27、209)は、第1の発明または第2の発明の音声処理装置で学習した入力‐出力変換モデルを用いて変換フィルタを予測する。波形変換部(S29、211)は、変換フィルタを用いて入力波形を変換する。
第3の発明によれば、波形変換部からは、所望の発話スタイルおよび/または話者性の音声波形を出力することができる。
第4の発明は、コンピュータによって実行され、平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパスを用いる音声処理プログラムであって、コンピュータのプロセサを、平静音声と少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを設定する制御パラメータ生成部、制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する学習データ生成部、および入力データの学習データおよび出力データの学習データに基づいて入力‐出力変換モデルを学習する学習部として機能させる、音声処理プログラムである。
第5の発明は、コンピュータによって実行され、平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパスを用いる音声処理方法であって、平静音声と少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを設定する制御パラメータ生成ステップ、制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する学習データ生成ステップ、および入力データの学習データおよび出力データの学習データに基づいて入力‐出力変換モデルを学習する学習ステップを含む、音声処理方法である。
第4の発明または第5の発明によっても、第1の発明と同様の効果が期待できる。
この発明によれば、同一発話者の異なる感情音声(発話スタイル音声)を平静音声とは別に録取し、それぞれの音声データに基づいて学習する際に発話スタイル音声を混合する割合を変更させることによって学習データを作成するので、変換モデルにおいて、出力音声における発話スタイルの入力音声に対する変化を最適に設定することができる。
さらに、複数の発話者のそれぞれの感情音声(発話スタイル音声)を平静音声の音声データに基づいて学習すれば、所望の話者性の出力音声を容易に出力することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の音声処理装置の電気的な構成の一例を示すブロック図である。 図2は図1実施例の音声コーパスの一例を示す図解図である。 図3は図1実施例のメモリのメモリマップの一例を示す図解図である。 図4は図1実施例の学習動作の一例を示すフロー図である。 図5は図4実施例に適用する学習パラメータの一例を示す図解図である。 図6は図1実施例における図4のフロー図に相当する機能ブロック図である。 図7は図1実施例における変換特性の一例を従来との比較で示すグラフである。 図8は図1実施例における出力動作の一例を示すフロー図である。 図9は図1実施例における図8のフロー図に相当する機能ブロック図である。
図1を参照して、この実施例の音声処理装置10は基本的には汎用コンピュータであり、CPU(プロセサ)12を備え、CPU12は、バス14を通して通信モジュール16に接続され、したがって、CPU12は、必要なとき、通信モジュール16を介して、ネットワーク(図示せず)に通信可能に接続される。
CPU12はまた、バス14を通してメモリ18およびHDD20にアクセスでき、HDD20やメモリ18に設定されているプログラムやデータ(後述)に従って、音声処理、たとえばディープニューラルネットワーク(DNN)に従った変換モデルを構築し、および/またはそのような変換モデルを利用して入力音声波形を出力音声波形に変換する。つまり、この実施例の音声処理装置10の音声出力機構は、波形接続型音声合成であり、発話スタイルに応じて収録した音声波形を、たとえば音素ごとに、接続しながら出力音声波形を生成する。
その出力音声波形は、CPU12から、適宜のインタフェース(図示せず)を介して、スピーカ22にアナログ音声信号として与えられる。したがって、入力音声を変換モデルで変換した出力音声がスピーカ22から出力される。
さらに、音声処理装置10は、たとえばLCDのようなディスプレイ23を備える。
図1におけるHDD20は、データベースとして使用され、ここでは音声コーパス記憶部として機能する。ただし、HDDは大容量記憶装置の一例として便宜上挙げただけであり、USBのような他の半導体記憶装置や、光学記憶装置が用いられてもよい。
音声コーパス記憶部は、同一発話内容の発話スタイル音声および平静音声で構成される。発話スタイル音声は、「明るい」、「暗い」、「かわいい」などの声の印象や、「驚」、「怒」、「喜」などの人の感情を表した声質を持つ音声ことを指す。この実施例では、発話スタイルのうち「怒」、「悲」および「喜」の3つを採用した。発明者等の実験では、4名の発話者の音声を録取して、図2に示すようなコーパスを作成した。ただし、発話スタイル音声または平静音声のうち、同一発話がない場合には、合成音声から作成する。
生成するパラメータはスペクトル包絡、基本周波数、非同期指標、残差ベクトル、位相特徴量などや、それらの時間変動を表したデルタ成分に関するパラメータが挙げられる。そして、スペクトル包絡に関するパラメータの例としては、FFT(高速フーリエ変換)スペクトル、ケプストラム、メルケプトラム、線スペクトル対、メル線スペクトル対、メル一般化スペクトラム、自己符号化器の符号化成分などがある。
実施例では、メルケプトラム(人間の聴覚特性を考慮したケプストラム(音声のスペクトルをフーリエ変換したもの))を採用する。図2は、平静音声および発話スタイル音声の内の「怒」の発話スタイル音声をそれぞれ、たとえば5ms(1フレーム)毎に区切ってFFT)して作成したコーパスを示す。つまり、入力音声の1フレームに含まれる特徴量を示すデータをコーパスとして生成する。ただし、同一発話者の平静音声と各発話スタイル音声のパラメータは時間軸方向に整合している必要がある。
図2において縦長の短冊が1つの特徴データを図解していて、平静音声の特徴データと各発話スタイル音声の特徴データはそれぞれマッチングが判断され、平静音声の特徴データと同じ発話スタイル音声の特徴データは、省略される。なお、この実施例では、後述のように、発話者IDを示すパラメータを平静音声の特徴データから計算することにしているため、平静音声の音声特徴データを省略することはない。
実施例においては、このような、複数の発話者のそれぞれの平静音声と複数の発話スタイル音声を録取した音声コーパスを予め準備しておき、図4に示すモデル学習処理を実行し、変換(入力‐出力変換)モデルを構築し、それをたとえば図1に示すHDD20のような、モデル記憶部に格納する。
実施例では複数(たとえば4人)の発話者の、それぞれの平静音声と3つの発話スタイル音声の発話を用いて音声コーパスを作成した。しかしながら、発話者の数は1人でもよいし、発話スタイル音声の数は、1つ以上であればよいし、もっと多くてもよい。
図3に示すように、図1のメモリ18には、プログラム記憶部24およびデータ記憶部26が設けられる。
プログラム記憶部24には、図4に示す学習処理のための学習プログラム24aおよび図8に示す出力変換処理のための変換プログラム24bが予め設定される。ただし、実施例の音声処理装置10が、モデル構築のためにだけ使用される場合には、学習プログラム24aだけが設定されていればよく、音声処理装置10が、出力音声変換のためにだけ使用される場合には、変換プログラム24bだけが設定されていればよい。
データ記憶部26には、それぞれ後述するが、学習処理に使われる学習パラメータ、制御パラメータ、制御則および学習データをそれぞれ記憶するための学習パラメータ記憶領域26a、制御パラメータ記憶領域26b、制御則記憶領域26cおよび学習データ記憶領域26dが形成される。
さらに、変換処理に使われる入力音声波形、入力パラメータおよび変換モデルをそれぞれ記憶する入力音声波形記憶領域26e、入力パラメータ記憶領域26fおよびモデル記憶領域26gが形成される。
また、このデータ記憶領域26には、後述の学習の繰り返し回数iをカウントするためのカウンタ(図示せず)などの領域を含む。
図4を参照して、学習処理の最初のステップS1では、図5に示すような学習用パラメータを生成する。つまり、CPU12(図1)が実行するステップS1は、学習用パラメータ生成部として機能する。
ここでの学習パラメータは、入力音声パラメータおよび出力音声パラメータを含む。ここで、入力音声パラメータは、図2に示す音声の特徴量のデータであり、音声コーパスである。発話スタイルは怒、悲、喜を示す。この学習用パラメータ生成部はさらに、入力発話者(実施例では4人)のID(識別記号)を表すパラメータおよび出力音声の発話スタイルのIDを表すパラメータを生成する。出力音声パラメータは、出力音声の発話スタイルのパラメータのことであり、出力音声の発話スタイル音声を示すパラメータである。
入力発話者のIDを表すパラメータは、当該発話者の平静音声の音声コーパスから計算したものを採用する。ただし、計算には、たとえばone hot(ワンホット)ベクトル、i-vectorのコンポーネント、主成分分析の主成分スコア(類似度、計算インデックス)、autoencoderのエンコード部の出力係数などの公知のものを採用することができるが、実施例では、主成分分析の主成分スコアを用いる。
出力音声の発話スタイルのパラメータは、ワンホットベクトルや主成分分析の主成分スコアを想定できるが、実施例ではワンホットベクトルを用いる。
次のステップS3において、メモリ18のデータ記憶領域26に形成しているカウンタi(図示せず)を初期化(i=1)する。これは、ステップS5以降の学習プロセスを繰り返した回数をカウントするためである。
図4の次のステップS5では、制御パラメータを生成する。つまり、CPU1が実行するステップS5は制御パラメータ生成部として、機能する。制御パラメータは、この実施例の特徴の1つである、上記の3つの発話スタイル音声をどのような割合で混合するかを示す混合割合(第1混合割合)のパラメータである。このステップS5では、変換モデルを作成する毎に1つの設定ファイルとして、制御パラメータ生成条件を設定(記憶)しておく。
制御パラメータを生成する条件としては、1度に生成するパラメータの数の他に、各制御パラメータを生成する方法(固定値または乱数)がある。1度に生成するパラメータの数は、一例として、上述の音声コーパス内の発話者数(実施例では、「4」)+発話スタイル数(実施例では、「3」)を用いる。
制御パラメータの生成方法(制御則)は、上述の混合割合を固定値で設定するのか、あるいは乱数を用いて決めるのかを示すものである。固定値の場合、各パラメータを固定値で指定する。乱数で指定する場合、発話者用の乱数は「0」から「1」までの合計が「1」になる実数とし、発話スタイル用の乱数は「0」から「1」までの実数とする。前者は各発話者の割合(第2混合割合)を設定するものであるため、合計を「1」とする必要があるが、後者(第1混合割合)の場合そのような規制は必要ない。ただし、発話者の割合は固定値としておき、発話スタイルだけを乱数で変更するようにしてもよい。制御パラメータを生成するためのこのような制御則は、この音声処理装置10の設計者によって予め設定されているものである。
そして、この制御パラメータ生成部では、このような生成条件に基づいて、混合割合を示す制御パラメータを生成し、制御パラメータ記憶部に記憶(設定)しておく。ただし、生成された制御パラメータは、上記制御パラメータ生成条件設定ファイルと紐付けされて記憶される。
続くステップS7では、CPU12は、ステップS5で生成された制御パラメータと、データ記憶領域26の制御則記憶領域26cから読み出した制御則に基づいて、学習データを生成する。つまり、CPU12が実行するステップS7は学習データ生成部として機能する。このステップS7では、制御則、制御パラメータ値に従って図5に示す学習用パラメータを変形して学習用データを生成する。
学習データ生成部すなわちステップS7では、先に説明したように、制御パラメータおよび制御則に従って学習データを生成するのであるが、ここでは一例として、制御則が線形結合(直線的に制御する)である場合の学習データの生成過程を説明する。ただし、発話内容はすべて同一であると仮定している。
数1は入力音声パラメータであり、たとえば25次元データである。
ここで、vnはn番目の発話者のための制御パラメータ(第2混合割合)であり、xt (n)は当該n番目の発話者の平静音声を示す。
数2は出力音声のパラメータであり,たとえば25次元データである。
ここで、umはm番目の発話スタイルのための制御パラメータ(第1混合割合)であり、yt (m)は当該m番目の発話スタイルを示すパラメータである。
数3は出力音声の発話スタイルのIDを示すパラメータであり、たとえば3次元ベクトルである。
ここで、enはn番目の発話スタイルのIDを示すパラメータである。
数4はn番目の発話者のIDを表すパラメータであり、たとえば3次元ベクトルである。
ここで、Snはn番目の発話者のIDを表すパラメータである。
この数1から数4の処理によって得られたデータの内、数5で表される31次元ベクトルを入力データの学習データとし、数6を出力データの学習データとして用いる。
ここでTは転置を表す。
このようにして、ステップS7で、学習データを生成し、次のステップS9で、CPU12は、変換モデルを学習する。つまり、CPU12が実行するステップS9がモデル学習部として機能する。
ただし、出力データの学習データとしては、数6のdtの代わりにこれを量子化したVQ(dt)を用いてもよい。
ここで構築するモデルはディープニューラルネットワーク(DNN)を想定している。また、ネットワークの種類としては、フィードフォワードネットワーク、畳み込みネットワーク、リカレントネットワークを想定などがあるが、実施例では、フィードフォワードネットワークを採用した。
さらに、このステップS9でのモデル学習方法は、DNNで一般的に使われている確率的勾配法やこれに付随する正規化や学習率のスケジュール手法、敵対的学習を利用することができるものであり、その手法自体が特徴ではないので、ここではそれ以上の説明は省略する。
次のステップS11で繰返し回数iをインクリメントし、続くステップS13で、CPU12は誤差(出力と同じフレーム予測との)が収束したかどうか判断する。そして、ステップS13で“YES”を判断したとき、この学習処理は終了する。
ただし、ステップS13で“NO”を判断したときには、ステップS15では、繰返し回数iが規定値に達したかどうか判断する。このステップS15で“NO”なら、プロセスは先のステップS5に戻って、上で説明したステップS5‐S13の処理を繰り返す。ステップS15で“YES”なら、そのまま学習処理を終了する。
この学習処理で学習した変換モデルは、図1のHDD20に、図2のような音声コーパスと紐付けされて、記憶される。ただし、後述の出力音声の変換処理に使うときには、データ記憶領域26のモデル記憶領域26g(図3)に記憶される。
図6は、図4に示す各部を機能ブロック図として表現したものであり、音声コーパス記憶部101およびモデル記憶部113は、図1の実施例でいうとHDD20に相当する。制御則記憶部109は、図3の制御則記憶領域26cに相当する。
図4のステップS1が学習用パラメータ生成部103に相当し、ステップS5が制御パラメータ生成部107に相当し、ステップS7が学習データ生成部105に相当する。そして、ステップS9がモデル学習部111に相当する。
図6のこれらの機能部103、105、107および111の動作は、対応する各ステップS1、S7、S5およびS9で説明した通りであり、ここでは重複する説明は省略する。
上述の実施例においては、音声コーパスとして、複数(4人)の発話者のそれぞれ複数(4つ)の発話スタイルの音声データに基づく特徴量データを予め準備しておき、出力音声における複数の発話スタイルの混合割合である制御パラメータuおよびvを設定を用いて数1‐数6に従って学習データを生成するようにしたので、制御パラメータuおよびvを適宜設定することにより、図7の線Eで示すように、入力感情の重みに対する出力特徴量の感情の度合い(発話スタイル)を、たとえば直線的に変化するように設計することができる。したがって、出力音声の所望の発話スタイルを容易に設計することができる。これに対して、従来では、線Cで示すように、入力感情の重みに対する出力特徴量の感情の度合い(発話スタイル)が急激に変化してしまうので、出力音声の所望の発話スタイルを設計することは容易ではなかった。
ただし、上述の実施例では複数の発話者の複数の発話スタイルの音声データを含む音声コーパスを準備し、発話者の混合割合vnおよび発話スタイルの混合割合umを含む制御パラメータを用いて入力データの学習データ(数5)および出力データの学習データ(数6)を生成(ステップS7)し、その学習データを用いてステップS9で変換モデルを学習するようにした。しかしながら、発話スタイルの混合割合だけを含む制御パラメータを用いて学習データを生成するようにしてもよい。その場合には、発話スタイルの混合割合umだけを用いて数5の入力データの学習データおよび数6の出力データの学習データを生成することになるが、その場合でも出力音声における発話スタイルを設計することができる。
上述のようにして出力音声の変換モデルを学習することができ、この出力変換モデルをそのまま利用して、あるいは他の音声処理装置で構築した出力変換モデルを導入することによって、図8で示すように、入力音声データをその変換モデルに従って変換した出力音声を得ることができる。
変換プログラム24b(図3)に従った、図8の最初のステップS21では、CPU12は、入力音声波形を取り込むとともに、ユーザが所望する出力音声の発話スタイルのパラメータuおよびvを取り込む。ステップS21を実行するCPU12は、波形、パラメータ入力部として機能する。取り込んだ入力波形は図3に示すメモリ18のデータ記憶領域26の入力音声波形記憶領域26eに記憶される。入力音声波形は、ユーザ自身の音声をそのまま波形信号として入力してもよいし、音声合成によって作成した音声の波形信号を入力するようにしてもよい。さらに、入力方法としては、リアルタイムにマイク(図示せず)などから入力する場合と、たとえばUSBのようなメモリからいっぺんに取り込む方法がある。
また、発話スタイルのパラメータuおよびvの入力のためには、CPU12が図示しないUI(ユーザインタフェース)をディスプレイ23(図1)に表示して、ユーザからの入力を受け付けるようにしてもよいし、たとえば上述したUSBに入力音声波形とともに所望の発話スタイルのパラメータuおよびvも設定しておき、そのUSBから取り込むようにすることもできる。
続くステップS23では、先の図4のステップS5と同じような手法で、音声コーパスから音声パラメータ(図5)を生成するとともに、ステップS1と同じような手法で、発話者IDのパラメータSを生成する。ステップS23を実行するCPU12は、音声パラメータ生成部として機能する。
次のステップS25では、図4のステップS7と同じような手法で、音声パラメータ、発話スタイルパラメータおよび発話者IDパラメータを結合した、数5のような入力パラメータを生成する。ステップS25を実行するCPU12は、入力パラメータ生成部として機能する。生成した入力パラメータは、図3に示すメモリ18のデータ記憶領域26の入力パラメータ記憶領域26fに記憶される。
そして、ステップS27で、先に獲得した変換モデルを使って、変換フィルタを予測する。ステップS27を実行するCPU12は、変換フィルタ予測部として機能する。
ステップS29では、その変換フィルタを用いて、波形を変換して、スピーカ22(図1)に出力する。ステップS29を実行するCPU12は、波形変換、出力部として機能する。ただし、波形変換の方法としては、入力波形に対して畳み込みする方法、または入力波形を上述のような音声パラメータに分解した後にその変換フィルタを適用し、ボコーダを通じて波形を再編成する方法を適用する。
この実施例によれば、ステップS21でユーザが所望する発話スタイルのパラメータvおよびuを設定できるようにしているので、ユーザが所望する発話スタイルの出力音声を出力することができる。
図9は、図8に示す各ステップを機能ブロック図として表現したものであり、モデル記憶部26gは、図3のデータ記憶領域26に含まれる。図8のステップS21が波形、パラメータ入力部201に相当し、ステップS23が音声パラメータ生成部203に相当し、ステップS25が入力パラメータ生成部205に相当する。そして、テップS27が変換フィルタ予測部209に相当し、ステップS29が波形変換部211に相当する。
ただし、図9のこれらの機能部201、203、205、209および111の動作は、対応する各ステップS21、S23、S25、S27およびS29で既に説明した通りであり、ここでは重複する説明は省略する。
10 …音声処理装置
12 …CPU
18 …メモリ
20 …HDD
22 …スピーカ
24 …プログラム記憶領域
26 …データ記憶領域

Claims (5)

  1. 平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパス、
    前記平静音声と前記少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを設定する制御パラメータ生成部、
    前記制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する学習データ生成部、および
    前記入力データの学習データおよび前記出力データの学習データに基づいて入力‐出力変換モデルを学習する学習部を備える、音声処理装置。
  2. 前記音声コーパスは異なる複数の発話者のそれぞれについて前記平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含み、
    前記制御パラメータは前記複数の発話者の混合割合である第2混合割合を含み、
    前記学習データ生成部は前記発話スタイルおよび前記発話者のそれぞれの第1混合割合および第2混合割合を含む前記制御データに従って前記学習データを生成する、請求項1記載の音声処理装置。
  3. 請求項1または請求項2の音声処理装置で学習した入力‐出力変換モデルを用いて変換フィルタを予測する変換フィルタ予測部、および
    前記変換フィルタを用いて入力波形を変換する波形変換部を備える、音声処理装置。
  4. コンピュータによって実行され、平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパスを用いる音声処理プログラムであって、前記コンピュータのプロセサを、
    前記平静音声と前記少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを設定する制御パラメータ生成部、
    前記制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する学習データ生成部、および
    前記入力データの学習データおよび前記出力データの学習データに基づいて入力‐出力変換モデルを学習する学習部として機能させる、音声処理プログラム。
  5. コンピュータによって実行され、平静音声および少なくとも1つの発話スタイル音声の音声データに基づく特徴量データを含む音声コーパスを用いる音声処理方法であって、
    前記平静音声と前記少なくとも1つの発話スタイル音声の混合割合である第1混合割合を含む制御パラメータを設定する制御パラメータ生成ステップ、
    前記制御パラメータを用いて入力データの学習データおよび出力データの学習データを生成する学習データ生成ステップ、および
    前記入力データの学習データおよび前記出力データの学習データに基づいて入力‐出力変換モデルを学習する学習ステップを含む、音声処理方法。
JP2018135609A 2018-07-19 2018-07-19 音声処理装置、音声処理プログラムおよび音声処理方法 Active JP6864322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018135609A JP6864322B2 (ja) 2018-07-19 2018-07-19 音声処理装置、音声処理プログラムおよび音声処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018135609A JP6864322B2 (ja) 2018-07-19 2018-07-19 音声処理装置、音声処理プログラムおよび音声処理方法

Publications (2)

Publication Number Publication Date
JP2020013008A true JP2020013008A (ja) 2020-01-23
JP6864322B2 JP6864322B2 (ja) 2021-04-28

Family

ID=69169582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135609A Active JP6864322B2 (ja) 2018-07-19 2018-07-19 音声処理装置、音声処理プログラムおよび音声処理方法

Country Status (1)

Country Link
JP (1) JP6864322B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017582A1 (ja) * 2021-08-11 2023-02-16 日本電信電話株式会社 音声生成方法、音声生成装置および音声生成プログラム
WO2023238339A1 (ja) * 2022-06-09 2023-12-14 日本電信電話株式会社 音声生成方法、音声生成装置及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017538137A (ja) * 2014-12-15 2017-12-21 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 音声転写用のシステム及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017538137A (ja) * 2014-12-15 2017-12-21 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 音声転写用のシステム及び方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
栗原清 他: ""話者の特徴と感情表現を制御可能なDNN音声合成方式の検討"", 電子情報通信学会2017年総合大会講演論文集 情報・システム1, JPN6020045204, 7 March 2017 (2017-03-07), pages 150, ISSN: 0004393139 *
間瀬絢美 他: ""音高シフトによる疑似学習データを用いたHMM歌声合成の高精度化"", 日本音響学会2010年春季研究発表会講演論文集CD-ROM, JPN6020045205, 1 March 2010 (2010-03-01), pages 345 - 346, ISSN: 0004393140 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017582A1 (ja) * 2021-08-11 2023-02-16 日本電信電話株式会社 音声生成方法、音声生成装置および音声生成プログラム
WO2023238339A1 (ja) * 2022-06-09 2023-12-14 日本電信電話株式会社 音声生成方法、音声生成装置及びプログラム

Also Published As

Publication number Publication date
JP6864322B2 (ja) 2021-04-28

Similar Documents

Publication Publication Date Title
JP4296231B2 (ja) 声質編集装置および声質編集方法
WO2020073944A1 (zh) 语音合成方法及设备
CN111276120B (zh) 语音合成方法、装置和计算机可读存储介质
JP4125362B2 (ja) 音声合成装置
Robinson et al. Sequence-to-sequence modelling of f0 for speech emotion conversion
WO2007063827A1 (ja) 声質変換システム
JPWO2018159612A1 (ja) 声質変換装置、声質変換方法およびプログラム
CN112102811B (zh) 一种合成语音的优化方法、装置及电子设备
JP2020034883A (ja) 音声合成装置及びプログラム
EP4266306A1 (en) A speech processing system and a method of processing a speech signal
KR102272554B1 (ko) 텍스트- 다중 음성 변환 방법 및 시스템
WO2020145353A1 (ja) コンピュータプログラム、サーバ装置、端末装置及び音声信号処理方法
JP7192882B2 (ja) 発話リズム変換装置、モデル学習装置、それらの方法、およびプログラム
JP2016151736A (ja) 音声加工装置、及びプログラム
JP6864322B2 (ja) 音声処理装置、音声処理プログラムおよび音声処理方法
Sheikhan Generation of suprasegmental information for speech using a recurrent neural network and binary gravitational search algorithm for feature selection
JPH08248994A (ja) 声質変換音声合成装置
CN116994553A (zh) 语音合成模型的训练方法、语音合成方法、装置及设备
JP7339151B2 (ja) 音声合成装置、音声合成プログラム及び音声合成方法
WO2021033629A1 (ja) 音響モデル学習装置、音声合成装置、方法およびプログラム
CN114464163A (zh) 语音合成模型的训练方法、装置、设备、存储介质和产品
CN114495896A (zh) 一种语音播放方法及计算机设备
JP2011197124A (ja) データ作成システム及びプログラム
TW200935399A (en) Chinese-speech phonologic transformation system and method thereof
Matsumoto et al. Speech-like emotional sound generation using wavenet

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6864322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250