JPWO2020089961A1 - 音声処理装置、およびプログラム - Google Patents

音声処理装置、およびプログラム Download PDF

Info

Publication number
JPWO2020089961A1
JPWO2020089961A1 JP2019527925A JP2019527925A JPWO2020089961A1 JP WO2020089961 A1 JPWO2020089961 A1 JP WO2020089961A1 JP 2019527925 A JP2019527925 A JP 2019527925A JP 2019527925 A JP2019527925 A JP 2019527925A JP WO2020089961 A1 JPWO2020089961 A1 JP WO2020089961A1
Authority
JP
Japan
Prior art keywords
voice
generation
settings
network
generation network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019527925A
Other languages
English (en)
Other versions
JP6582157B1 (ja
Inventor
健一 海沼
健一 海沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP6582157B1 publication Critical patent/JP6582157B1/ja
Publication of JPWO2020089961A1 publication Critical patent/JPWO2020089961A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

発音者毎の固有の設定を加味しつつ感情のこもった音声を合成することを可能にする。発話者の顔を撮像して得られる動画データからフレーム毎に顔特徴点を抽出する一方、当該発話者の発話音声からフレーム毎に抽出した音声特徴データに基づいて対応するフレームの顔特徴点を生成するための第1の生成ネットワークを生成し識別ネットワークにより適否を評価する。次いで、発話音声の発話内容を表すテキストと発話音声に込められた感情を示す情報とを少なくとも含む複数種の流動設定、発話者の声質を規定する複数種の固定設定および適切と評価された第1の生成ネットワークにより生成され顔特徴点とから上記発話音声を生成するための第2の生成ネットワークを生成し上記識別ネットワークによりその適否を評価する音声処理装置を提供する。

Description

本発明は、音声の分析、およびその分析結果に基づく音声合成を行う音声処理装置、およびプログラムに関する。
所謂ボーカイロイドなど音声を電気的に合成する技術が一般に普及している。一般に音声の声質を左右する要素としては、性別,声の高さ,発声速度,アクセント強調量や音量などが挙げられ、これらの要素を指定して所望の声質の音声を合成する技術も提案されている(例えば、特許文献1参照)。
特開平05−053595号公報
音声の声質を左右する要素には、性別,声の高さ,発声速度,アクセント強調量や音量の他にも発話者の年齢、身長、体重などがあるが特許文献1に開示の技術では発話者の年齢、身長、体重等は考慮されていない。なお、以下では、発話者の性別、年齢、身長、体重等の発話者毎に一意に定まる設定のことを「固定設定」と呼ぶ。また、人間らしい音声を合成する際には、喜怒哀楽などの感情をこめることが重要となるが、特許文献1に開示の技術では感情の反映は考慮されていない。
本発明は上述した事情に鑑みてなされたものであり、発音者の固定設定を加味しつつ感情のこもった音声を合成することを可能にする技術を提供することを目的とする。
上記課題を解決するために本発明は、発話期間における発話者の顔を撮像して得られる動画データを所定時間長のフレームに区切り、予め定められた顔特徴点の位置を示す顔特徴点データをフレーム毎に抽出する抽出手段と、前記発話期間における前記発話者の発話音声を表す音声データを前記フレームに区切り、各フレームの顔特徴点を、対応するフレームの音声特徴データから生成するための第1の生成ネットワークを生成する第1の生成手段と、各フレームから抽出した顔特徴点データを用いて前記第1の生成ネットワークの適否を第1の識別ネットワークにより評価する第1の評価手段と、前記発話音声の発話内容を表すテキストと前記発話音声に込められた感情を示す情報とを少なくとも含む複数種の流動設定をユーザに指定させるとともに前記発話者の声質を規定する複数種の固定設定をユーザに指定させ、前記第1の評価手段により適切と評価された前記第1の生成ネットワークにより生成される顔特徴点、前記ユーザにより指定された複数種の固定設定および複数種の流動設定から前記発話音声を生成するための第2の生成ネットワークを生成する第2の生成手段と、前記音声データを用いて前記第2の生成ネットワークの適否を第2の識別ネットワークにより評価する第2の評価手段と、を有することを特徴とする音声処理装置を提供する。
本発明の音声処理装置によれば、発音者の固定設定を加味しつつ感情のこもった音声を合成するための第2の生成ネットワークを生成することが可能になり、当該第2の生成ネットワークを用いて音声を合成することで、発音者の固定設定を加味しつつ感情のこもった音声を合成することが可能になる。
より好ましい態様の音声処理装置は、合成対象の音声についての固定設定および流動設定の指定をユーザに促す指定受付手段と、前記第2の評価手段により適切と評価された前記第2の生成ネットワークを用いて、前記指定受付手段に対して指定された固定設定および流動設定に対応する音声を合成する音声合成手段と、を有することを特徴とする。
本態様の音声処理装置によれば、ユーザにより指定された固定設定に応じた声質を有し、かつユーザにより指定された流動設定(発話内容および感情)の音声を合成することが可能になる。
さらに好ましい態様の音声処理装置では、前記指定受付手段は、感情毎に異なる色を対応付けたカラーマップを表示装置に表示し、色の指定により、合成対象の音声に込める感情をユーザに指定させることを特徴とする。
本態様の音声処理装置によれば、合成対象の音声に込める感情を色の指定により指定することが可能になる。
さらに好ましい態様の音声処理装置では、前記指定受付手段は、感情を示す情報の指定を、テキストの文字列長が長いほど多く受け付ける。
本態様の音声処理装置によれば、合成対象の音声の発話期間において複数の感情を指定することで、感情の起伏を有する音声を合成することが可能になる。
さらに好ましい態様の音声処理装置では、前記第2の生成手段は、前記複数種の固定設定および前記複数種の流動設定の設定毎に前記第2の生成ネットワークを生成するシングルネットワーク生成手段と、前記複数種の固定設定および前記複数種の流動設定のうちの少なくとも1つの設定を除いた複数個の設定の組み合わせ毎に、前記複数個の設定の各々が他の設定に影響を与えないように前記第2の生成ネットワークを生成するマルチネットワーク生成手段と、前記複数種の固定設定および前記複数種の流動設定の各々が他の設定影響を与えないように前記第2のネットワークを生成するオールネットワーク生成手段と
を含むことを特徴とする。
シングルネットワーク生成手段により設定毎に生成される生成ネットワークは、他の設定に影響を与える虞があるが、本態様の音声処理装置によれば、マルチネットワーク生成手段およびオールネットワーク生成手段によって、他の設定に影響を与えないよう各設定御に対応するボコーダの可動領域を調整することが可能になる。
また、上記課題を解決するために本発明は、コンピュータに、発話期間における発話者の顔を撮像して得られる動画データを所定時間長のフレームに区切り、予め定められた顔特徴点の位置を示す顔特徴点データをフレーム毎に抽出する抽出ステップと、前記発話期間における前記発話者の発話音声を表す音声データを前記フレームに区切り、各フレームの顔特徴点を対応するフレームの音声特徴データから生成するための第1の生成ネットワークを生成する第1の生成ステップと、各フレームから抽出した顔特徴点データを用いて前記第1の生成ネットワークの適否を第1の識別ネットワークにより評価する第1の評価ステップと、前記発話音声の発話内容を表すテキストと前記発話音声に込められた感情を示す情報とを少なくとも含む複数種の流動設定をユーザに指定させるとともに前記発話者の声質を規定する複数種の固定設定をユーザに指定させ、前記第1の評価ステップにて適切と評価された前記第1の生成ネットワークにより生成される顔特徴点、前記ユーザにより指定された複数種の固定設定および複数種の流動設定から前記発話音声を生成するための第2の生成ネットワークを生成する第2の生成ステップと、前記音声データを用いて前記第2の生成ネットワークの適否を第2の識別ネットワークにより評価する第2の評価ステップと、を実行させることを特徴とするプログラムを提供する。
本発明のプログラムによっても、発音者の固定設定を加味しつつ感情のこもった音声を合成するための音声モデルを生成することが可能になる。
より好ましい態様のプログラムは、合成対象の音声についての固定設定および流動設定の指定をユーザに促す指定受付ステップと、前記第2の評価ステップにて適切と評価された前記第2の生成ネットワークを用いて、前記指定受付ステップにて受け付けた固定設定および流動設定に対応する音声を合成する音声合成ステップと、を実行させることを特徴とする。
本態様のプログラムによっても、ユーザにより指定された固定設定に応じた声質を有し、かつユーザにより指定された流動設定(発話内容および感情)の音声を合成することが可能になる。
本発明の一実施形態による音声処理装置1のハードウェア構成例を示すブロック図である。 音声処理装置1の制御部10が音声処理プログラム322にしたがって実行する生成ネットワーク生成処理の流れを示すフローチャートである。 生成ネットワーク生成処理のノイズ除去ステップSA130において制御部10が実行する処理を説明するための図である。 生成ネットワーク生成処理の第2の生成ステップSA140において制御部10が生成するスパーベクトルの一例を示す図である。 生成ネットワーク生成処理の第2の生成ステップSA140において制御部10が実行するシングルネットワーク生成ステップSA1410の処理内容の一例を示す図である。 生成ネットワーク生成処理の第2の生成ステップSA140において制御部10が実行するマルチネットワーク生成ステップSA1420の処理内容の一例を示す図である。 生成ネットワーク生成処理の第2の生成ステップSA140において制御部10が実行するオールネットワーク生成ステップSA1430の処理内容の一例を示す図である。 音声処理装置1の制御部10が音声処理プログラム322にしたがって実行する音声合成処理の流れを示すフローチャートである。 音声合成処理の指定受付ステップSB100にて制御部10が表示部210に表示させるUI画面の一例を示す図である。 本実施形態における感情と色彩の対応付けの一例を示す図である。 本実施形態における感情と色彩の対応付けの一例を示す図である。 音声合成処理の音声合成ステップSB110の処理内容の一例を示す図である。
以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、本発明の一実施形態による音声処理装置1のハードウェア構成例を示すブロック図である。音声処理装置1は、例えばスマートフォンである。音声処理装置1は、図1に示すように、制御部10、ユーザインタフェース部20,記憶部30、およびこれら構成要素間のデータ授受を仲介するバス40を有する。音声処理装置1は、図1に示す構成要素の他に、無線通信網の基地局と無線通信する無線通信部を有するが、無線通信部については本発明との関連が薄いため、図1では図示が省略されている。以下、本明細書においても、無線通信部についての詳細な説明は省略する。また、図1では、「ユーザインタフェース」は「UI」と略記されており、以下、本明細書においても同様の表記とする。
制御部10は、例えばCPU(Central Processing Unit)などのコンピュータである。制御部10は、記憶部30(より正確には不揮発性記憶部320)に格納されているプログラムを実行し、音声処理装置1の制御中枢として機能する。
UI部20は、音声処理装置1をユーザに利用させるためのユーザインタフェースを提供する装置の集合体である。図1に示すように、UI部20は、表示部210、操作部220、音声入出力部230、および撮像部240を含む。
表示部210は、例えば液晶ディスプレイとその駆動回路である。表示部210は、制御部10による制御の下、音声処理装置1の利用をユーザに促す各種画面の画像を表示する。撮像部240は例えばイメージセンサである。撮像部240は、撮像視野内の動画像を撮像し、その撮像結果を表す動画データを制御部10へ出力する。操作部220は、表示部210の表示領域を覆うように設けられた透明なシート状のタッチセンサである。操作部220は、表示部210とともに所謂タッチパネルを形成する。音声処理装置1のユーザは、操作部220に対するタッチ操作或いはフリック操作により各種入力を行うことができる。操作部220に対してユーザがタッチ操作或いはフリック操作等を行うと、操作部220は、ユーザの操作内容を表すデータを制御部10へ出力する。これにより、ユーザの行った操作が制御部10に伝達される。
音声入出力部230は、マイクロフォン、スピーカ、A/D変換器およびD/A変換器を含む(図1では何れも図示略)。マイクロフォンは周囲の音を収音し当該音の波形を表すアナログオーディオ信号をA/D変換器へ出力する。A/D変換器はマイクロフォンから出力されたアナログオーディオ信号にA/D変換を施しその変換結果である音データ(変換対象のアナログオーディオ信号の表す波形を所定のサンプリング周期でサンプリングして得られるサンプル列)を制御部10へ出力する。D/A変換器は制御部10から与えられる音データにD/A変換を施し、その変換結果であるアナログオーディオ信号をスピーカへ出力する。スピーカはD/A変換器から出力されたアナログオーディオ信号に応じた音を放射する。
記憶部30は、揮発性記憶部310と不揮発性記憶部320とを含む。揮発性記憶部310は、例えばRAM(Random Access Memory)である。揮発性記憶部310は、プログラムを実行する際のワークエリアとして制御部10によって利用される。不揮発性記憶部320は、例えばフラッシュROM(Read Only Memory)である。不揮発性記憶部320には、各種プログラムと各種データとが記憶されている。不揮発性記憶部320に記憶されているプログラムの具体例としては、制御部10にOS(Operating System)を実現させるカーネルプログラム、webブラウザや電子メールクライアントの各種アプリケーションプログラム、本実施形態の特徴を顕著に示す音声処理を制御部10に実行させる音声処理プログラム322が挙げられる。
不揮発性記憶部320に記憶されているプログラムのうち、音声処理プログラム322以外のプログラムについては一般的なスマートフォンにインストールされているものと特段に変わるところは無い。例えば、制御部10は、音声処理装置1の電源(図1では図示略)の投入を契機としてカーネルプログラムを不揮発性記憶部320から揮発性記憶部310へ読み出し、その実行を開始する。カーネルプログラムにしたがって作動し、OSを実現している状態の制御部10は、操作部220に対する操作により入力された指示に応じて、音声処理プログラム322や他のアプリケーションプログラムを実行することやUI部20等の制御部10以外の構成要素の作動制御を行うことができる。このように、音声処理プログラム322以外のプログラムについては一般的なスマートフォンにインストールされているものと特段に変わるところは無いため詳細な説明は省略し、以下では音声処理プログラム322を中心に説明する。
音声処理プログラム322にしたがって作動している制御部10は、ニューラルネットワークの一種である敵対的生成ネットワークを利用して音声を合成する音声処理を実行する。この音声処理は、生成ネットワーク生成処理と音声合成処理とに大別される。生成ネットワークとは、音声合成に使用されるニューラルネットワークのことである。生成ネットワーク生成処理は生成ネットワークを機械学習により生成する処理である。音声合成処理は、生成ネットワークをボコーダ(音声合成モデル)として用い、音声処理装置1のユーザにより指定された固定設定および流動設定に対応する音声を合成する処理である。固定設定とは、合成対象の音声の声質を規定する設定(すなわち、発話者毎に固定の設定)のことである。固定設定の具体例としては、発話者の性別、年齢、身長、体重、話速、アクセントが挙げられる。流動設定とは、発話内容に応じて流動的に変化する設定のことである。流動設定の具体例としては発話内容を表すテキスト(文字列)、および合成対象の音声に付与する感情が挙げられる。
前述したように、OSを実現している制御部10は、操作部220を介して音声処理プログラム322の実行指示を与えられたことを契機として、音声処理プログラム322を不揮発性記憶部320から揮発性記憶部310に読み出してその実行を開始する。音声処理プログラム322にしたがって作動している制御部10は、操作部220に対する操作により生成ネットワーク生成処理の実行を指示されたことを契機として、表示部210へのメッセージ表示或いは音声入出力部230からの音声メッセージの出力により、撮像部240に顔を向けて発話することをユーザに促すとともに、撮像部240を作動させる。上記の要領で発話を促されたユーザが撮像部240に顔を向けて発話すると、その発話音声は音声入出力部230のマイクロフォンによって収音され、その発話期間におけるユーザの顔の時間変化(表情の変化)を表す動画が撮像部240によって撮像される。
発話音声の収音および発話期間における動画の撮像が完了すると、制御部10は生成ネットワーク生成処理を開始する。図2は、生成ネットワーク生成処理の流れを示すフローチャートである。図2に示すように、本実施形態の生成ネットワーク生成処理には、抽出ステップSA100、第1の生成ステップSA110、第1の評価ステップSA120、ノイズ除去ステップSA130、第2の生成ステップSA140、および第2の評価ステップSA150の6つのステップが含まれている。これら6つのステップの各々において制御部10が実行する処理の内容は次の通りである。
抽出ステップSA100では、制御部10は、撮像部240から出力される動画データ(すなわち、発話期間における発話者の顔を撮像して得られる動画データ)を所定時間長(例えば、1/60秒)のフレームに区切り、フレーム毎に顔特徴点抽出アルゴリズムにしたがった処理を施し、予め定められた顔特徴点の位置を示す顔特徴点データをフレーム毎に抽出する。顔特徴点の具体例としては、眉、目、鼻、および唇等の顔の構成要素の輪郭線上の点が挙げられる。顔特徴点抽出アルゴリズムについては、既存の顔認識技術におけるものを適宜用いるようにすればよい。
第1の生成ステップSA110では、制御部10は、まず、音声入出力部230から出力される音声データを上記所定時間長のフレームに区切り、音声特徴抽出アルゴリズムにしたがった処理をフレーム毎に施して音声特徴を示す音声特徴データをフレーム毎に抽出する。例えば音声入出力部230のA/D変換器におけるサンプリング周波数が44.1kHzである場合、1秒分の音声データは44100個のサンプルからなるサンプル列である。この場合、1フレーム分の音声データは、44100/60=735個のサンプルからなるサンプル列となる。音声特徴データの具体例としては、基本周波数、スペクトラム包絡、フォルマント等が挙げられる。音声特徴抽出アルゴリズムについても、既存の音声分析技術におけるものを適宜用いるようにすればよい。次いで、制御部10は、各フレームの顔特徴点を、対応するフレームの音声特徴データから生成するためのニューラルネットワーク(以下、第1の生成ネットワーク)を、機械学習により生成する。音声データおよび動画データの代わりに音声特徴データおよび顔特徴点データを用いて機械学習を行うのは、処理対象のデータ量を低減させ、機械学習の処理負荷を軽減するためである。この機械学習のアルゴリズムについても既存のものを適宜用いるようにすればよい。
第1の生成ステップSA110に後続する第1の評価ステップSA120では、制御部10は、第1の生成ネットワークの適否を評価するためのニューラルネットワーク(以下、第1の識別ネットワーク)を機械学習により生成し、各フレームから抽出した顔特徴点データを用いて第1の生成ネットワークの適否を評価する。一般に、敵対的生成ネットワークでは、生成ネットワークの機械学習は識別ネットワーク側をうまく欺けるようになること(本実施形態では、フレームから抽出した顔特徴点と第1の生成ネットワークにより生成された顔特徴点との区別がつかなくなくようにすること)を目的として行われる。一方、識別ネットワークの機械学習は、動画データのフレームから抽出した顔特徴点と生成ネットワークにより生成された顔特徴点とをうまく識別できるようになることを目的として行われる。この関係は以下の数1で表される。数1において、G(z)は第1の生成ネットワークにより生成される顔特徴点であり、D(x)は第1の識別ネットワークによりxが偽物ではない(すなわち、動画データのフレームから抽出した顔特徴点)と正しく識別される確率である。識別ネットワークの識別能力が向上するほど右辺第1項の値は大きくなり、D(G(z))の値は小さくなるため右辺第2項の値は大きくなる。一方、生成ネットワークが識別ネットワークをうまく欺けるようになると、D(G(z))の値は大きくなり、右辺第2項の値は小さくなる。
第1の評価ステップSA120に後続するノイズ除去ステップSA130では、制御部10は、第1の評価ステップSA120にて適切と評価された第1の生成ネットワークにより生成される顔特徴点からノイズを除去する。より詳細に説明すると、制御部10は、第1の評価ステップSA120にて適切と評価された第1の生成ネットワークにより生成される全ての顔特徴点を元にガウス分布GD(図3参照)を算出し、図3に示すように、標準偏差の絶対値が2σ以上のデータをノイズとして除去する。なお、σは、図3に示すように、第1の評価ステップSA120にて適切と評価された第1の生成ネットワークにより生成される全ての顔特徴点のうちの68%が−1×σ〜+1×σの範囲に属し、−2×σ〜+2×σの範囲に95%が属する値である。
ノイズ除去ステップSA130に後続する第2の生成ステップSA140では、制御部10は、発話音声の発話内容を表すテキストと当該発話音声に込められた感情を示す情報とを少なくとも含む複数種の流動設定をユーザに指定させるとともに当該発話者の声質を規定する複数種の固定設定をユーザに指定させる。次いで、制御部10は、これら固定設定および流動設定と、第1の評価ステップSA120にて適切と評価された第1の生成ネットワークにより生成される顔特徴点から生成される特徴面とを要素とするスパーベクトル(図4参照)を生成する。このスパーベクトルは、上記特徴面を介して第1の生成ネットワークに対応付けられている。
次いで、制御部10は、生成ネットワーク生成処理の開始時にマイクロフォンにより収音された発話音声を、その発話音声についての設定としてユーザにより指定された複数種の固定設定および複数種の流動設定から生成するためのニューラルネットワーク(以下、第2の生成ネットワーク)を、当該スパーベクトルを用いた機械学習により生成する。音声データおよび動画データの代わりにスパーベクトルを用いて機械学習を行うのは、処理対象のデータ量を低減させ、機械学習の処理負荷を軽減するためである。第2の生成ステップSA140にて使用する機械学習アルゴリズムについても既存のものを適宜用いるようにすればよい。
より詳細に説明すると、第2の生成ステップSA140には、シングルネットワーク生成ステップSA1410、マルチネットワーク生成ステップSA1420、およびオールネットワーク生成ステップSA1430の3つのステップが含まれている。なお、図2では、「シングルネットワーク」は「SN」と、「マルチネットワーク」は「MN」と、「オールネットワーク」は「AN」と夫々略記されている。以下、本明細書においても同様の表記とする。SN生成ステップSA410では、図5に示すように、制御部10は、スパーベクトルに含まれる設定毎に第2の生成ネットワークを生成する。図5には、流動設定に属するテキストおよび感情と固定設定のうちの体重の各設定に対応する第2の生成ネットワーク(テキストGN、感情GNおよび体重GN)を生成する処理が例示されている。
MN生成ステップSA1420では、制御部10は、図6に示すように、スパーベクトルに含まれる複数種の設定のうちの少なくとも1つの設定を除いた複数個の設定の組み合わせ毎に、これら複数個の設定の各々が他の設定に影響を与えないように第2の生成ネットワークを生成する。例えば、図6には、テキストおよび感情の2つの設定の組み合わせに対応する第2の生成ネットワーク(テキスト・感情GN)を生成する処理と、性別、年齢および感情の3つの設定の組み合わせに対応する第2の生成ネットワーク(性別・年齢・感情GN)を生成する処理が例示されている。
AN生成ステップSA1430では、図7に示すように、制御部10は、スパーベクトルに含まれる全ての設定を対象として、各設定が他の設定に影響を与えないように第2のネットワーク(オールベクトルGN)を生成する。
第2の生成捨ステップSA140に後続する第2の評価ステップSA150では、制御部10は、第2の生成ステップSA140にて生成した第2の生成ネットワークの適否を、音声入出力部230から出力された音声データを用いて評価するためのニューラルネットワーク(以下、第2の識別ネットワーク)を機械学習により生成し、当該第2の識別ネットワークを用いて第2の生成ネットワークの適否を評価する。そして、制御部10は、適切と評価した第2の生成ネットワークのデータを不揮発性記憶部320の所定の記憶領域に書き込む。なお、第2の評価ステップSA150にて使用する機械学習アルゴリズムについても既存のものを適宜用いるようにすればよい。
以上が、生成ネットワーク生成処理の処理内容である。
次いで、音声合成処理について説明する。
音声処理プログラム322にしたがって作動している制御部10は、操作部220に対する操作により音声合成処理の実行を指示されたことを契機として、音声合成処理を開始する。この音声合成処理は、ユーザにより指定された固定設定に対応する声質および同ユーザにより指定された流動設定に対応する発話内容および感情の音声を、上記記憶領域に記憶された第2の生成ネットワークを用いて合成する処理である。図8は、音声合成処理の流れを示すフローチャートである。図8に示すように、本実施形態の音声合成処理には、指定受付ステップSB100と音声合成ステップSB110の2つのステップが含まれている。これら2つのステップの各々において制御部10が実行する処理の内容は次の通りである。
指定受付ステップSB100では、制御部10は、合成対象の音声についての固定設定および流動設定の指定をユーザに促す。より詳細に説明すると、制御部10は、図9に示すUI画面を表示部210に表示させる。図9に示すように、このUI画面には、固定設定指定領域A01と流動設定指定領域A02とプレビュー領域A03とが設けられている。プレビュー領域A03には、音声合成ステップSB110の実行完了後、当該音声合成ステップSB110にて合成された音声の波形が表示される。
図9に示すように、固定設定指定領域A01には、性別、年齢、話速、アクセント、身長、および体重の各固定設定をユーザに指定させるための仮想操作子V01〜V06が設けられている。ユーザは、操作部220に対するタッチ操作等により仮想操作子V01〜V06の各々を操作することで、性別、年齢、話速、アクセント、身長、および体重の各固定設定を指定することができる。なお、性別については男性および女性といった2値的な指定には限らず、男性と女性の間で連続的に指定できるようにしてもよい。
本実施形態では、性別、年齢、話速、アクセント、身長、および体重の各固定設定にはデフォルト値が定められており、音声合成処理の開始時点では、制御部10は上記デフォルト値に応じたアバタ画像VAを固定設定指定領域A01の中央に表示する。そして、制御部10は、仮想操作子V01〜V06の操作に応じてアバタ画像VAを変化させる。なお、アバタ画像VAの表示を省略しても勿論よい。
流動設定指定領域A02には、合成対象の音声の発話内容を表すテキスト(文字列)をユーザに指定(入力)させるためのテキスト入力領域I01と、合成対象の音声に込める感情を色彩でユーザに指定させるための感情指定リストL01およびL02(或いはカラーマップCMとグレイスケールGS)が設けられている。テキスト入力領域I01に対するテキストの入力については、例えば仮想キーボドを用いるなど、一般的なスマートフォンにおけるテキストの入力と特段に変わるところはないので詳細な説明を省略し、以下では、合成対象の音声に込める感情の指定方法を中心に説明する。
本実施形態では、図10および図11に示すrage〜alarmedまでの64通り感情を色彩でユーザに指定させることが可能である。図10および図11示すように、上記64通りの感情は、感情の種類に応じてA〜Pの16種類、感情の強さに応じてlevel=1〜4の4種類に予め分類されている。そして、上記6通りの感情の各々には、固有の色彩が予め対応付けられている。音声処理装置1の不揮発性記憶部320には、64通りの感情の各々を一意に示す感情識別子(例えば、“rage”等の文字列)に対応付けて、その感情識別子の示す感情に対応付けられた色彩のC(シアン)、M(マゼンタ)、Y(イエロー)およびK(黒)の各値(図10および図11参照)を示すデータを格納したテーブルが予め格納されている。本実施形態では、感情に対応付ける色彩をCMYK表色系で表現するがRGB表色系を用いてもよく、図10および図11では、RGB表色系におけるR(赤)、G(緑)およびB(青)の各値も併記されている。ただし、CMYK表色系は、RGB表色系に比較して座標軸が1つ多く、多様な感情に色彩を対応付けるのに好適であるため、CMYK表色系を用いる方が好ましい。
本実施形態では、ユーザは、感情指定リストL01およびL02に対する操作と、カラーマップCMおよびグレイスケールGSに対する操作の何れかで合成対象の音声に込める感情を指定することができる。感情指定リストL01およびL02の各々は、上記64種類の感情識別子をリスト表示するリストボックスである。ユーザは、当該リストボックスに対する選択操作を行うことで、合成対象の音声に込める感情を指定することができる。図9における+ボタンB01は、感情指定リストの追加をユーザに指示させるための仮想操作子であり、−ボタンB02は表示されている感情指定リストの消去をユーザに指示させるための仮想操作子である。図9では、感情指定リストを2つ有するUI画面が例示されているが、UI画面の表示直後の状態では、感情指定リストは1つだけ表示されている。また、本実施形態では、1つのテキストに対して指定可能な感情の数(UI画面に表示可能な感情指定リストの数)は当該テキストの長さ(文字列長)に応じて定まり、テキストが長いほどその数は大きくなる。本実施形態では、1つのテキストに対して複数の感情を指定することで、テキストの先頭を原点とする時間軸に沿った感情の連続的な時間変化(感情の起伏)を指定することができる。
カラーマップCMは、感情に対尾づけられた色彩の色成分のうちC,M,およびYの値をユーザに指定させるための入力領域であり、グレイスケールGSは同色彩の色成分のうちのKの値をユーザに指定させるための入力領域である。ユーザは、カラーマップCMおよびグレイスケールGSの各々に対するタップ操作を行うことで、合成対象の音声に込める感情を指定することができる。カラーマップCMおよびグレイスケールGSの各々に対する操作によっても、テキストの先頭を原点とする時間軸に沿った感情の連続的な時間変化(感情の起伏)を指定することができる。
指定受付ステップSB100に後続する音声合成ステップSB110では、制御部10は、第2の評価ステップSA150にて適切と評価された第2の生成ネットワークを用いて、指定受付ステップSB100にて受け付けた固定設定および流動設定に対応する音声を合成する。より詳細に説明すると、制御部10は、上記第2の生成ネットワークを、指定受付ステップSB100にて受け付けた各設定に対応するボコーダとして用い、指定受付ステップSB100にて受け付けた各設定の値をパラメータとして該当するボコーダに与え、図12に示すようにこれらボコーダを順次作動させて、音声を合成し音声入出力部230のスピーカから放音する。図12には、性別ボコーダ、年齢ボコーダ、身長・体重ボコーダ、テキストボコーダ、感情ボコーダおよびアクセントボコーダをこの順に作動させて、最終結果の音声を合成する場合について例示されている。
以上説明したように、本実施形態の音声処理装置1によれば、発音者の固定設定を加味しつつ感情のこもった音声を合成するための第2の生成ネットワークを生成することが可能になり、当該第2の生成ネットワークを用いて音声を合成することで、発音者の固定設定を加味しつつ感情のこもった音声を合成することが可能になる。
以上、本発明の一実施形態について説明したが、上記実施形態に以下の変形を加えて勿論よい。
(1)上記実施形態では、性別、年齢・・・アクセントの各ボコーダを順次作動させて音声を生成したが、各ボコーダを作動させる順序を入れ替えてもよい。但し、性別、年齢、体重、およびアクセントといった固定設定に関するボコーダを作動させた後に、流動設定に関するボコーダを作動させることが好ましい。
(2)上記実施形態では、スマートフォンにおける音声出力アプリケーションへの本発明の適用例を説明したが、コンピュータゲームやアニメーションにおけるキャラクタの音声の生成に本発明を適用してもよく、また、電話応答など音声対話システムにおける対話音声の生成に本発明を適用してもよい。
(3)上記実施形態では、音声処理装置1の不揮発性記憶部320に、本発明の特徴を顕著に示す生成ネットワーク生成処理および音声合成処理を制御部10に実行させるプログラム(音声処理プログラム322)が予め記憶されていた。しかし、上記プログラムを単体で製造・販売してもよい。上記プログラムを単体で製造・販売する態様の具体例としては、フラッシュROMなどのコンピュータ読み取り可能な記録媒体に上記プログラムを書き込んで配布する態様やインターネットなどの電気通信回線経由のダウンロードにより上記プログラムを配布する態様が挙げられる。これらの態様により配布されるプログラムをスマートフォンやパーソナルコンピュータ、タブレット端末等のコンピュータ(CPU)を有する情報端末にインストールし、その情報端末のコンピュータを当該インストールされたプログラムにしたがって作動させることで、一般的な情報端末を本発明の音声処理装置として機能させることが可能になるからである。
(4)上記実施形態の音声処理装置1は、ユーザインタフェース部20を構成要素として含んでいたが、ユーザインタフェース部20はUSBケーブルなどの通信線、或いはインターネットなどの電気通信回線を介して制御部10とデータ授受が可能な外部要素であってもよく、記憶部30についても同様に通信線、或いはインターネットなどの電気通信回線を介して制御部10とデータ授受が可能な外部要素であってもよい。要は、本発明の音声処理装置は、生成ネットワーク生成処理および音声合成処理を実行する制御部10を有していればよい。
(5)上記実施形態の生成ネットワーク生成処理は、ノイズ除去ステップSA130を含んでいたが、ノイズの影響よりも処理負荷の軽さが優先される場合には、ノイズ除去ステップSA130を省略してもよい。要は、本発明の生成ネットワークには、抽出ステップSA100、第1の生成ステップSA110、第1の評価ステップSA120,第2の生成ステップSA140および第2の評価ステップSA150が含まれていればよい。
(6)上記実施形態の音声処理装置1は、生成ネットワーク生成処理と音声合成処理とを実行したが、前者の処理のみを実行する音声処理装置を提供してもよい。また、生成ネットワーク生成処理に含まれる各ステップおよび音声合成処理に含まれる各ステップを実行する手段を電子回路等のハードウェアで構成し、それら各手段を組み合わせて音声処理装置1を構成してもよい。例えば、抽出ステップSA100の処理を実行する抽出手段、第1の生成ステップSA110の処理を実行する第1の生成手段、第1の評価ステップSA120の処理を実行する第1の評価手段、第2の生成ステップSA140の処理を実行する第2の生成手段、および第2の評価ステップSA150の処理を実行する第2の評価手段の各々を電子回路で構成し、これら各手段を組み合わせて本発明の音声処理装置を構成してもよい。また、指定受付ステップSB100の処理を実行する指定受付手段、および音声合成ステップSB110の処理を実行する音声合成手段の各手段を電子回路で構成に、これら各手段をさらに組み合わせて音声処理装置を構成してもよい。
1…音声処理装置、10…制御部、20…UI部,210…表示部、220…操作部、230…音声入出力部、240…撮像部、30…記憶部、310…揮発性記憶部、320…不揮発性記憶部、322…音声処理プログラム、40…バス。
さらに好ましい態様の音声処理装置では、前記第2の生成手段は、前記複数種の固定設定および前記複数種の流動設定の設定毎に前記第2の生成ネットワークを生成するシングルネットワーク生成手段と、前記複数種の固定設定および前記複数種の流動設定のうちの少なくとも1つの設定を除いた複数個の設定の組み合わせ毎に、前記複数個の設定の各々が他の設定に影響を与えないように前記第2の生成ネットワークを生成するマルチネットワーク生成手段と、前記複数種の固定設定および前記複数種の流動設定の各々が他の設定影響を与えないように前記第2の生成ネットワークを生成するオールネットワーク生成手段とを含むことを特徴とする。

Claims (7)

  1. 発話期間における発話者の顔を撮像して得られる動画データを所定時間長のフレームに区切り、予め定められた顔特徴点の位置を示す顔特徴点データをフレーム毎に抽出する抽出手段と、
    前記発話期間における前記発話者の発話音声を表す音声データを前記フレームに区切り、各フレームの顔特徴点を、対応するフレームの音声特徴データから生成するための第1の生成ネットワークを生成する第1の生成手段と、
    各フレームから抽出した顔特徴点データを用いて前記第1の生成ネットワークの適否を第1の識別ネットワークにより評価する第1の評価手段と、
    前記発話音声の発話内容を表すテキストと前記発話音声に込められた感情を示す情報とを少なくとも含む複数種の流動設定をユーザに指定させるとともに前記発話者の声質を規定する複数種の固定設定をユーザに指定させ、前記第1の評価手段により適切と評価された前記第1の生成ネットワークにより生成される顔特徴点、前記ユーザにより指定された複数種の固定設定および複数種の流動設定から前記発話音声を生成するための第2の生成ネットワークを生成する第2の生成手段と、
    前記音声データを用いて前記第2の生成ネットワークの適否を第2の識別ネットワークにより評価する第2の評価手段と、
    を有することを特徴とする音声処理装置。
  2. 合成対象の音声についての固定設定および流動設定の指定をユーザに促す指定受付手段と、
    前記第2の評価手段により適切と評価された前記第2の生成ネットワークを用いて、前記指定受付手段に対して指定された固定設定および流動設定に対応する音声を合成する音声合成手段と、
    を有することを特徴とする請求項1に記載の音声処理装置。
  3. 前記指定受付手段は、感情毎に異なる色を対応付けたカラーマップを表示装置に表示し、色の指定により、合成対象の音声に込める感情をユーザに指定させることを特徴とする請求項2に記載の音声処理装置。
  4. 前記指定受付手段は、感情を示す情報の指定を、テキストの文字列長が長いほど多く受け付けることを特徴とする請求項2または請求項3に記載の音声処理装置。
  5. 前記第2の生成手段は、
    前記複数種の固定設定および前記複数種の流動設定の設定毎に前記第2の生成ネットワークを生成するシングルネットワーク生成手段と、
    前記複数種の固定設定および前記複数種の流動設定のうちの少なくとも1つの設定を除いた複数個の設定の組み合わせ毎に、前記複数個の設定の各々が他の設定に影響を与えないように前記第2の生成ネットワークを生成するマルチネットワーク生成手段と、
    前記複数種の固定設定および前記複数種の流動設定の各々が他の設定影響を与えないように前記第2のネットワークを生成するオールネットワーク生成手段と、を含む
    ことを特徴とする請求項1〜4の何れか1項に記載の音声処理装置。
  6. コンピュータに、
    発話期間における発話者の顔を撮像して得られる動画データを所定時間長のフレームに区切り、予め定められた顔特徴点の位置を示す顔特徴点データをフレーム毎に抽出する抽出ステップと、
    前記発話期間における前記発話者の発話音声を表す音声データを前記フレームに区切り、各フレームの顔特徴点を対応するフレームの音声特徴データから生成するための第1の生成ネットワークを生成する第1の生成ステップと、
    各フレームから抽出した顔特徴点データを用いて前記第1の生成ネットワークの適否を第1の識別ネットワークにより評価する第1の評価ステップと、
    前記発話音声の発話内容を表すテキストと前記発話音声に込められた感情を示す情報とを少なくとも含む複数種の流動設定をユーザに指定させるとともに前記発話者の声質を規定する複数種の固定設定をユーザに指定させ、前記第1の評価ステップにて適切と評価された前記第1の生成ネットワークにより生成される顔特徴点、前記ユーザにより指定された複数種の固定設定および複数種の流動設定から前記発話音声を生成するための第2の生成ネットワークを生成する第2の生成ステップと、
    前記音声データを用いて前記第2の生成ネットワークの適否を第2の識別ネットワークにより評価する第2の評価ステップと、
    を実行させることを特徴とするプログラム。
  7. 前記コンピュータに、
    合成対象の音声についての固定設定および流動設定の指定をユーザに促す指定受付ステップと、
    前記第2の評価ステップにて適切と評価された前記第2の生成ネットワークを用いて、前記指定受付ステップにて受け付けた固定設定および流動設定に対応する音声を合成する音声合成ステップと、
    を実行させることを特徴とする請求項5に記載のプログラム。
JP2019527925A 2018-10-29 2018-10-29 音声処理装置、およびプログラム Active JP6582157B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/040062 WO2020089961A1 (ja) 2018-10-29 2018-10-29 音声処理装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP6582157B1 JP6582157B1 (ja) 2019-09-25
JPWO2020089961A1 true JPWO2020089961A1 (ja) 2021-02-15

Family

ID=68053529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019527925A Active JP6582157B1 (ja) 2018-10-29 2018-10-29 音声処理装置、およびプログラム

Country Status (4)

Country Link
US (1) US10964308B2 (ja)
EP (1) EP3693957A4 (ja)
JP (1) JP6582157B1 (ja)
WO (1) WO2020089961A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210009596A (ko) * 2019-07-17 2021-01-27 엘지전자 주식회사 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0553595A (ja) 1991-08-29 1993-03-05 Canon Inc 音声合成装置
JPH0772900A (ja) * 1993-09-02 1995-03-17 Nippon Hoso Kyokai <Nhk> 音声合成の感情付与方法
JP3159242B2 (ja) * 1997-03-13 2001-04-23 日本電気株式会社 感情生成装置およびその方法
JP2002244688A (ja) 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
JP2003248837A (ja) * 2001-11-12 2003-09-05 Mega Chips Corp 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体
WO2008149547A1 (ja) * 2007-06-06 2008-12-11 Panasonic Corporation 声質編集装置および声質編集方法
US20100332229A1 (en) * 2009-06-30 2010-12-30 Sony Corporation Apparatus control based on visual lip share recognition
JP2012003326A (ja) * 2010-06-14 2012-01-05 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US9094576B1 (en) * 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9607609B2 (en) * 2014-09-25 2017-03-28 Intel Corporation Method and apparatus to synthesize voice based on facial structures
JP6483578B2 (ja) 2015-09-14 2019-03-13 株式会社東芝 音声合成装置、音声合成方法およびプログラム
US20190087734A1 (en) * 2016-03-28 2019-03-21 Sony Corporation Information processing apparatus and information processing method
US10586079B2 (en) * 2016-12-23 2020-03-10 Soundhound, Inc. Parametric adaptation of voice synthesis
WO2018168427A1 (ja) 2017-03-13 2018-09-20 ソニー株式会社 学習装置、学習方法、音声合成装置、音声合成方法
US10740391B2 (en) * 2017-04-03 2020-08-11 Wipro Limited System and method for generation of human like video response for user queries
US10614826B2 (en) * 2017-05-24 2020-04-07 Modulate, Inc. System and method for voice-to-voice conversion

Also Published As

Publication number Publication date
WO2020089961A1 (ja) 2020-05-07
US10964308B2 (en) 2021-03-30
EP3693957A1 (en) 2020-08-12
US20210027760A1 (en) 2021-01-28
JP6582157B1 (ja) 2019-09-25
EP3693957A4 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
JP6336676B2 (ja) 顔構造に基づいて声を合成する方法および装置
CN110136692B (zh) 语音合成方法、装置、设备及存储介质
CN110941954A (zh) 文本播报方法、装置、电子设备及存储介质
CN112669417B (zh) 虚拟形象的生成方法、装置、存储介质及电子设备
CN111508511A (zh) 实时变声方法及装置
CN111583944A (zh) 变声方法及装置
CN110992989B (zh) 语音采集方法、装置及计算机可读存储介质
CN110148399A (zh) 一种智能设备的控制方法、装置、设备及介质
CN109819167B (zh) 一种图像处理方法、装置和移动终端
CN112652041B (zh) 虚拟形象的生成方法、装置、存储介质及电子设备
CN109801618A (zh) 一种音频信息的生成方法和装置
CN110992927A (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
WO2024088321A1 (zh) 虚拟形象面部驱动方法、装置、电子设备及介质
CN108319937A (zh) 人脸检测方法及装置
CN113538628A (zh) 表情包生成方法、装置、电子设备及计算机可读存储介质
CN115148185A (zh) 语音合成方法及装置、电子设备及存储介质
CN110139021B (zh) 辅助拍摄方法及终端设备
JP2021086415A (ja) 仮想人物対話システム、映像生成方法、映像生成プログラム
JP6582157B1 (ja) 音声処理装置、およびプログラム
JP2004021121A (ja) 音声対話制御装置
US20230317054A1 (en) Face image processing system, face image generation information providing apparatus, face image generation information providing method, and face image generation information providing program
CN114708849A (zh) 语音处理方法、装置、计算机设备及计算机可读存储介质
CN111091807B (zh) 语音合成方法、装置、计算机设备及存储介质
JP6730651B1 (ja) 音声変換装置、音声変換システム及びプログラム
KR102631621B1 (ko) 목소리 정보를 처리하는 방법 및 디바이스

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190520

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R150 Certificate of patent or registration of utility model

Ref document number: 6582157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250