JP6989951B2 - Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method - Google Patents

Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method Download PDF

Info

Publication number
JP6989951B2
JP6989951B2 JP2018001538A JP2018001538A JP6989951B2 JP 6989951 B2 JP6989951 B2 JP 6989951B2 JP 2018001538 A JP2018001538 A JP 2018001538A JP 2018001538 A JP2018001538 A JP 2018001538A JP 6989951 B2 JP6989951 B2 JP 6989951B2
Authority
JP
Japan
Prior art keywords
voice
data
unit
text
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001538A
Other languages
Japanese (ja)
Other versions
JP2019120841A (en
Inventor
チャンドラ アンドロス
サクティ サクリアニ
哲 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2018001538A priority Critical patent/JP6989951B2/en
Publication of JP2019120841A publication Critical patent/JP2019120841A/en
Application granted granted Critical
Publication of JP6989951B2 publication Critical patent/JP6989951B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

特許法第30条第2項適用 平成29年7月16日に、https://arxiv.org/pdf/1707.04879.pdfに掲載Application of Article 30, Paragraph 2 of the Patent Act On July 16, 2017, https: // arxiv. org / pdf / 1707.04879. Posted in pdf

特許法第30条第2項適用 平成29年12月18日に、2017 IEEE Automatic Speech Recognition and Understanding Workshopにて発表Application of Article 30, Paragraph 2 of the Patent Act Announced at 2017 IEEE Speech Recognition and Understanding Workshop on December 18, 2017.

本発明は、自動音声認識(ASR: Automatic Speech Recognition)および自動音声合成(TTS: Text-To-Speech synthesis)に関し、特にディープニューラルネットワーク(DNN: Deep Neural Network)で構築された音声認識部および音声合成部を相互に学習させる技術に関する。 The present invention relates to automatic speech recognition (ASR) and automatic speech synthesis (TTS: Text-To-Speech synthesis), and in particular, a speech recognition unit and speech constructed by a deep neural network (DNN). It is related to the technology to make the synthesis part learn from each other.

近年、ASRおよびTTSによる音声言語情報処理技術が発達し、機械と人間が音声を通じてコミュニケーションできるようになりつつある。ASRについて言えば、これまで、動的時間伸縮法(DTW: dynamic time warping)によるテンプレートベースのスキームや、隠れマルコフ混合ガウスモデル(HMM-GMM: hidden Markov model - Gaussian mixture model)といった厳格な統計モデルによるデータ駆動手法といった音響音声学に基づくアプローチが試みられてきた。TTSについて言えば、波形符号化および分析合成方式によるルールベースのシステムから、波形素片接続手法や隠れセミマルコフ混合ガウスモデル(HSMM-GMM: hidden semi-Markov model - GMM)を用いたより自由度のある手法へとシフトしつつある。 In recent years, voice language information processing technology using ASR and TTS has been developed, and machines and humans are becoming able to communicate through voice. Speaking of ASR, strict statistical models such as template-based schemes by dynamic time warping (DTW) and hidden Markov model (HMM-GMM: hidden Markov model --Gaussian mixture model) have been used so far. Attempts have been made on acoustic and phonetic approaches such as data-driven methods. Speaking of TTS, there is more freedom from a rule-based system based on waveform coding and analytical synthesis to a waveform element connection method and a hidden semi-Markov model (HSMM-GMM: hidden semi-Markov model --GMM). It is shifting to the method.

そして、近年のコンピュータハードウェアの著しい性能向上によりDNNがさまざまな分野で実用可能となり、ASRおよびTTSにもDNNを用いたディープラーニングが取り入れられつつある(例えば、下記非特許文献1、2を参照)。 Due to the remarkable performance improvement of computer hardware in recent years, DNN has become practical in various fields, and deep learning using DNN is being adopted for ASR and TTS (see, for example, Non-Patent Documents 1 and 2 below). ).

W. Chan, N. Jaitly, Q. Le, and O. Vinyals, “Listen, attend and spell: A neural network for large vocabulary conversational speech recognition,” in Acoustics, Speech and Signal Processing (ICASSP), 2016 IEEE International Conference on. IEEE, 2016, pp. 4960-4964.W. Chan, N. Jaitly, Q. Le, and O. Vinyals, “Listen, attend and spell: A neural network for large vocabulary conversational speech recognition,” in Acoustics, Speech and Signal Processing (ICASSP), 2016 IEEE International Conference on. IEEE, 2016, pp. 4960-4964. Y. Wang, R. Skerry-Ryan, D. Stanton, Y. Wu, R. J. Weiss, N. Jaitly, Z. Yang, Y. Xiao, Z. Chen, S. Bengio et al., “Tacotron: A fully end-to-end text-to-speech synthesis model,” arXiv preprint arXiv:1703.10135, 2017.Y. Wang, R. Skerry-Ryan, D. Stanton, Y. Wu, RJ Weiss, N. Jaitly, Z. Yang, Y. Xiao, Z. Chen, S. Bengio et al., “Tacotron: A fully end -to-end text-to-speech synthesis model, ”arXiv preprint arXiv: 1703.10135, 2017.

人は自分の声を聞きながら言葉を発している。すなわち、人間の脳は耳から聞こえる自分の声の音量や音調や明瞭さなどに基づいて次にどのような発声をするのか決定して発声器官に指示を出している。このように人の音声認識および音声発話では聴覚器菅、脳および発声器官からなる閉ループであるスピーチチェインが非常に重要な役割を果たしている。例えば、聴覚を失った子供はスピーチチェインが機能しなくなることによってうまく喋れなくなることが知られている。このように人の音声認識と音声発話は互いに密接に関連し合うにもかかわらず、ASRおよびTTSの研究・開発はそれぞれ独自に進展してきた。 People speak while listening to their own voice. That is, the human brain determines what kind of utterance to make next based on the volume, tone, and clarity of one's voice heard from the ear, and gives an instruction to the vocal organs. Thus, in human speech recognition and speech speech, the speech chain, which is a closed loop consisting of the auditory duct, the brain, and the speech organs, plays a very important role. For example, deaf children are known to be unable to speak well due to the speech chain failing. In spite of the fact that human speech recognition and speech utterance are closely related to each other, research and development of ASR and TTS have progressed independently.

ASTとTTSの分離はDNNを用いたディープラーニングが取り入れられてからも変わっていない。そして、ASRとTTSとが分離されていることにより次のような問題が生じる。
1.ASRおよびTTSをそれぞれ十分なレベルにまで学習させるために音声とテキストのペアからなる教師ありデータを大量に用意する必要がある。教師ありデータは人手で作成しなければならないため大変な労力とコストがかかってしまう。
2.実際の推論段階ではオンラインで入力される信号にノイズが混入するため、それが原因で学習済みのASRおよびTTSの出力誤差が大きくなったりあるいは出力が得られなくなったりすることがある。そこでオンライン入力された信号に基づいてASRおよびTTSの再学習が必要になるが、そもそもオンライン入力される信号は教師なしデータであり、教師なしデータを用いてASRおよびTTSを学習させる仕組みが確立されていない。
The separation of AST and TTS has not changed since the introduction of deep learning using DNN. The separation of ASR and TTS causes the following problems.
1. 1. It is necessary to prepare a large amount of supervised data consisting of voice and text pairs in order to train ASR and TTS to a sufficient level. Supervised data must be created manually, which requires a great deal of labor and cost.
2. 2. In the actual inference stage, noise is mixed in the signal input online, which may increase the output error of the learned ASR and TTS or prevent the output from being obtained. Therefore, it is necessary to relearn ASR and TTS based on the signal input online, but the signal input online is unsupervised data in the first place, and a mechanism for learning ASR and TTS using unsupervised data has been established. Not.

上記問題に鑑み、本発明は、人間のスピーチチェインのメカニズムを機械で再現するスピーチチェイン装置を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a speech chain device that mechanically reproduces the mechanism of human speech chain.

本発明の一局面に従うと、音声特徴系列データを入力とし文字系列データを出力とするディープニューラルネットワークで構築された音声認識部と、文字系列データを入力とし音声特徴系列データを出力とするディープニューラルネットワークで構築された音声合成部と、入力された音声を処理して、前記音声認識部に入力される前記音声特徴系列データを生成する音声特徴抽出部と、前記音声認識部から出力される前記文字系列データに基づいて、前記音声特徴抽出部に入力された音声に対応するテキストを生成するテキスト生成部と、入力されたテキストを処理して、前記音声合成部に入力される前記文字系列データを生成するテキスト特徴抽出部と、前記音声合成部から出力される前記音声特徴系列データに基づいて、前記テキスト特徴抽出部に入力されたテキストに対応する音声を生成する音声生成部と、前記音声合成部から出力された前記音声特徴系列データを学習データとして前記音声認識部に入力し、前記テキスト特徴抽出部によって生成された前記文字系列データを教師データとして用いて前記音声認識部を学習させる第1の学習制御部と、前記音声認識部から出力された前記文字系列データを学習データとして前記音声合成部に入力し、前記音声特徴抽出部によって生成された前記音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第2の学習制御部と、を備えたスピーチチェイン装置が提供される。 According to one aspect of the present invention, a voice recognition unit constructed by a deep neural network that inputs voice feature sequence data and outputs character sequence data, and a deep neural system that inputs character sequence data and outputs voice feature sequence data. The voice synthesis unit constructed by the network, the voice feature extraction unit that processes the input voice and generates the voice feature series data input to the voice recognition unit, and the voice recognition unit that outputs the voice feature series data. Based on the character sequence data, the text generation unit that generates the text corresponding to the voice input to the voice feature extraction unit, and the character sequence data that processes the input text and is input to the voice synthesis unit. A voice generation unit that generates a voice corresponding to the text input to the text feature extraction unit based on the voice feature series data output from the voice synthesis unit, and a voice generation unit. The voice feature sequence data output from the synthesis unit is input to the voice recognition unit as learning data, and the character sequence data generated by the text feature extraction unit is used as teacher data to train the voice recognition unit. The learning control unit 1 and the character sequence data output from the voice recognition unit are input to the voice synthesis unit as learning data, and the voice feature sequence data generated by the voice feature extraction unit is used as teacher data. A speech chain device including a second learning control unit for learning the voice synthesis unit is provided.

具体的には、前記音声認識部に入力される前記音声特徴系列データがメルスペクトル特徴量であってもよく、前記音声合成部から出力される前記音声特徴系列データがリニアスペクトル特徴量およびメルスペクトル特徴量であってもよく、前記音声特徴抽出部が、前記音声特徴系列データとして、前記音声特徴抽出部に入力された音声のリニアスペクトル特徴量およびメルスペクトル特徴量を生成するものであってもよく、前記第2の学習制御部が、前記音声特徴抽出部によって生成された前記リニアスペクトル特徴量および前記メルスペクトル特徴量を教師データとして用いて前記音声合成部を学習させるものであってもよい。 Specifically, the voice feature series data input to the voice recognition unit may be a mel spectrum feature amount, and the voice feature series data output from the voice synthesis unit may be a linear spectrum feature amount and a mel spectrum feature amount. It may be a feature amount, and the voice feature extraction unit may generate a linear spectrum feature amount and a mel spectrum feature amount of the voice input to the voice feature extraction unit as the voice feature series data. Often, the second learning control unit may train the speech synthesis unit by using the linear spectrum feature amount and the mel spectrum feature amount generated by the speech feature extraction unit as teacher data. ..

また、具体的には、前記音声合成部が、発話の終端の確率を表す出力レイヤを有するものであってもよく、前記第2の学習制御部が、さらに発話の終端の確率を教師データとして用いて前記音声合成部を学習させるものであってもよい。 Further, specifically, the voice synthesis unit may have an output layer representing the probability of the end of the utterance, and the second learning control unit further uses the probability of the end of the utterance as teacher data. It may be used to learn the voice synthesis unit.

また、具体的には、前記音声合成部が、話者の識別情報が入力される入力レイヤを有するものであってもよい。 Further, specifically, the voice synthesis unit may have an input layer into which speaker identification information is input.

本発明の別の一局面に従うと、上記スピーチチェイン装置の各構成要素をコンピュータに実現させるためのコンピュータプログラムが提供される。 According to another aspect of the present invention, a computer program for realizing each component of the speech chain device in a computer is provided.

本発明のさらに別の一局面に従うと、音声特徴系列データを入力とし文字系列データを出力とするディープニューラルネットワークで構築された音声認識部および文字系列データを入力とし音声特徴系列データを出力とするディープニューラルネットワークで構築された音声合成部を相互に学習させるDNN音声認識・合成相互学習方法であって、教師ありデータとして音声とテキストのペアが与えられた場合、当該音声の音声特徴系列データを学習データとして前記音声認識部に入力し、当該テキストの文字系列データを教師データとして用いて前記音声認識部を学習させるとともに、当該テキストの文字系列データを学習データとして前記音声合成部に入力し、当該音声の音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第1のステップと、教師なしデータとして音声のみが与えられた場合、前記音声認識部に当該音声の音声特徴系列データを入力して前記音声認識部から出力された文字系列データを学習データとして前記音声合成部に入力し、当該音声の音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第2のステップと、教師なしデータとしてテキストのみが与えられた場合、前記音声合成部に当該テキストの文字系列データを入力して前記音声合成部から出力された音声特徴系列データを学習データとして前記音声認識部に入力し、当該テキストの文字系列データを教師データとして用いて前記音声認識部を学習させる第3のステップと、を備えたDNN音声認識・合成相互学習方法が提供される。 According to yet another aspect of the present invention, the voice recognition unit constructed by the deep neural network that inputs the voice feature series data and outputs the character series data and the character series data is input and the voice feature series data is output. It is a DNN voice recognition / synthesis mutual learning method that mutually learns the voice synthesis unit constructed by the deep neural network. When a pair of voice and text is given as supervised data, the voice feature series data of the voice is used. The voice recognition unit is input as learning data, the character sequence data of the text is used as teacher data to learn the voice recognition unit, and the character sequence data of the text is input to the voice synthesis unit as learning data. The first step of learning the voice synthesis unit using the voice feature series data of the voice as teacher data, and when only the voice is given as the non-teacher data, the voice feature series data of the voice is given to the voice recognition unit. Is input and the character sequence data output from the voice recognition unit is input to the voice synthesis unit as learning data, and the voice feature sequence data of the voice is used as teacher data to train the voice synthesis unit. When only the text is given as the step and the unsupervised data, the character sequence data of the text is input to the voice synthesis unit, and the voice feature sequence data output from the voice synthesis unit is used as learning data in the voice recognition unit. Provided is a DNN voice recognition / synthetic mutual learning method comprising a third step of learning the voice recognition unit by inputting to and using the character sequence data of the text as teacher data.

上記DNN音声認識・合成相互学習方法は、音声とテキストのペア、テキストのみおよび音声のみの3種類のデータが混在するデータセットから各種類のデータを一定量ずつ取り出す第4のステップと、前記データセットから取り出した各種類のデータを用いて前記第1のステップないし前記第3のステップを順に繰り返して前記音声認識部および前記音声合成部のバッチ学習を行う第5のステップと、をさらに備えてもよい。 The above-mentioned DNN speech recognition / synthesis mutual learning method includes a fourth step of extracting a fixed amount of each type of data from a data set in which three types of data, such as a voice-text pair, text-only and voice-only data, are mixed, and the data. A fifth step of performing batch learning of the voice recognition unit and the voice synthesis unit by repeating the first step to the third step in order using each type of data taken out from the set is further provided. May be good.

本発明によると人間のスピーチチェインのメカニズムを機械で再現することができる。これにより、音声認識用に入力された音声および音声合成用に入力されたテキストを教師なしデータとして用いて音声合成および音声認識のオンライン学習を行うことができるようになり、教師ありデータとしての音声とテキストのペアを大量に用意する労力とコストを削減することができる。さらに、本発明に係るスピーチチェイン装置は、音声認識装置および音声合成装置として使えば使うほど学習が進んで音声認識および音声合成の精度が向上する。 According to the present invention, the mechanism of human speech chain can be reproduced by a machine. This makes it possible to perform online learning of speech synthesis and speech recognition using the speech input for speech recognition and the text input for speech synthesis as unsupervised data, and the speech as supervised data. It can reduce the labor and cost of preparing a large number of pairs of text and text. Further, the more the speech chain device according to the present invention is used as the voice recognition device and the voice synthesis device, the more the learning progresses and the accuracy of the voice recognition and the voice synthesis is improved.

本発明に係るスピーチチェイン装置のベースとなるマシンスピーチチェインのアーキテクチャを示す図The figure which shows the architecture of the machine speech chain which is the base of the speech chain apparatus which concerns on this invention. マシンスピーチチェインにおいてASRの出力をTTSの学習データとして用いてASRを学習させる様子を示す模式図Schematic diagram showing how ASR is trained using the output of ASR as training data of TTS in a machine speech chain. マシンスピーチチェインにおいてTTSの出力をASRの学習データとして用いてTTSを学習させる様子を示す模式図Schematic diagram showing how TTS is trained using the output of TTS as learning data of ASR in a machine speech chain. 一例に係るDNN音声認識モデルの模式図Schematic diagram of the DNN speech recognition model according to an example 一例に係るDNN音声合成モデルの模式図Schematic diagram of DNN speech synthesis model according to an example 本発明の一実施形態に係るスピーチチェイン装置のブロック図Block diagram of a speech chain device according to an embodiment of the present invention 音声特徴系列データ生成処理のフローチャートFlowchart of voice feature series data generation processing 文字系列データ生成処理のフローチャートFlowchart of character series data generation process DNN音声認識・合成相互学習の全体フローチャートOverall flowchart of DNN speech recognition / synthetic mutual learning ASRおよびTTSのバッチ学習処理のフローチャートFlowchart of batch learning process of ASR and TTS

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.

なお、発明者らは、当業者が本発明を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It should be noted that the inventors are intended to limit the subject matter described in the claims by those skilled in the art by providing the accompanying drawings and the following description in order to fully understand the present invention. is not it.

また、本明細書において単に「音声」と言う場合、それは音声波形信号を指すことに留意されたい。 It should also be noted that when the term "voice" is used herein, it refers to a voice waveform signal.

1.マシンスピーチチェイン(Machine Speech Chain)
図1は、本発明に係るスピーチチェイン装置のベースとなるマシンスピーチチェインのアーキテクチャを示す図である。マシンスピーチチェイン1は、上述した人間のスピーチチェインのメカニズムを機械で再現するものであり、音声xを受けてそれをテキストyに変換する音声認識部(以下、単に「ASR」と称することがある。)10と、テキストyを受けてそれを音声xに変換する音声合成部(以下、単に「TTS」と称することがある。)20とを備えている。マシンスピーチチェイン1においてASR10およびTTS20は、ASR10の出力(テキストy)がTTS20に入力されるとともにTTS20の出力(音声x)がASR10に入力されるように互いに接続されて閉ループを形成している。
1. 1. Machine Speech Chain
FIG. 1 is a diagram showing an architecture of a machine speech chain that is a base of the speech chain device according to the present invention. The machine speech chain 1 reproduces the above-mentioned human speech chain mechanism by a machine, and is a voice recognition unit (hereinafter, simply referred to as "ASR") that receives voice x and converts it into text y ^ . There is.) 10 and a speech synthesizer (hereinafter, may be simply referred to as "TTS") 20 that receives the text y and converts it into speech x ^ . In machine speech chain 1, ASR10 and TTS20 are connected to each other so that the output of ASR10 (text y ^ ) is input to TTS20 and the output of TTS20 (voice x ^ ) is input to ASR10 to form a closed loop. There is.

ASR10およびTTS20はいずれも系列(sequence)データが入出力されるsequence-to-sequence型モデルとして構成されている。具体的には、ASR10は、音声特徴系列データを入力とし文字系列データを出力とするモデルとして、TTS20は、文字系列データを入力とし音声特徴系列データを出力とするモデルとしてそれぞれ構成されている。このようにASR10およびTTS20をいずれもsequence-to-sequence型モデルとして構成したことにより、ASR10およびTTS20間で一方の出力を他方に入力することが可能になっている。 Both ASR10 and TTS20 are configured as a sequence-to-sequence type model in which sequence data is input / output. Specifically, the ASR 10 is configured as a model in which the voice feature sequence data is input and the character sequence data is output, and the TTS 20 is configured as a model in which the character sequence data is input and the voice feature sequence data is output. By configuring both the ASR10 and the TTS20 as a sequence-to-sequence type model in this way, it is possible to input one output between the ASR10 and the TTS20 to the other.

また、マシンスピーチチェイン1においてASR10およびTTS20の閉ループを形成したことで、一方のモデルの出力を他方のモデルの学習データとして用いて各モデルを学習させることができるようになる。例えば、音声合成処理の過程でTTS20から出力される音声xをASR10の学習データとして用いてASR10を学習させることができ、逆に音声認識処理の過程でASR10から出力されるテキストyをTTS20の学習データとして用いてTTS20を学習させることができる。 Further, by forming the closed loop of ASR10 and TTS20 in the machine speech chain 1, it becomes possible to train each model by using the output of one model as the training data of the other model. For example, the voice x ^ output from the TTS 20 in the process of speech synthesis processing can be used as the training data of the ASR 10 to train the ASR 10, and conversely, the text y ^ output from the ASR 10 in the process of voice recognition processing can be used as the TTS 20. The TTS 20 can be trained by using it as the training data of.

図2は、マシンスピーチチェイン1においてASR10の出力をTTS20の学習データとして用いてTTS20を学習させる様子を示す模式図である。図2に示したように、マシンスピーチチェイン1において音声認識処理が行われる場合、ASR10は、音声xを受けてそれをテキストyに変換する。TTS20は、ASR10によって変換されたテキストyを受けてそれを音声xに再変換する。このとき、ASR10によって変換されたテキストyを学習データ、ASR10に入力された元の音声xを教師データとして用いて、TTS20の出力(音声x)と教師データ(音声x)との誤差が小さくなるように(損失関数LostTTS(x,x)の値が小さくなるように)TTS20のパラメータ調整、すなわちディープラーニングが行われる。 FIG. 2 is a schematic diagram showing a state in which the output of the ASR 10 is used as the training data of the TTS 20 in the machine speech chain 1 to train the TTS 20. As shown in FIG. 2, when the voice recognition process is performed in the machine speech chain 1, the ASR 10 receives the voice x and converts it into the text y ^ . The TTS 20 receives the text y ^ converted by the ASR 10 and reconverts it into the voice x ^ . At this time, the text y ^ converted by the ASR 10 is used as the learning data, and the original voice x input to the ASR 10 is used as the teacher data, and the error between the output (voice x ^ ) of the TTS 20 and the teacher data (voice x) is increased. Parameter adjustment of TTS20, that is, deep learning is performed so that the value of the loss function Lost TTS (x, x ^ ) becomes small.

図3は、マシンスピーチチェイン1においてTTS20の出力をASR10の学習データとして用いてASR10を学習させる様子を示す模式図である。図3に示したように、マシンスピーチチェイン1において音声合成処理が行われる場合、TTS20は、テキストyを受けてそれを音声xに変換する。ASR10は、TTS20によって変換された音声xを受けてそれをテキストyに再変換する。このとき、TTS20によって変換された音声xを学習データ、TTS20に入力された元のテキストyを教師データとして用いて、ASR10の出力(テキストy、より詳細にはyを構成する各文字の発生確率p)と教師データ(テキストy)との誤差が小さくなるように(損失関数LostASR(y,p)の値が小さくなるように)ASR10のパラメータ調整、すなわちディープラーニングが行われる。 FIG. 3 is a schematic diagram showing a state in which the output of the TTS 20 is used as the training data of the ASR 10 to train the ASR 10 in the machine speech chain 1. As shown in FIG. 3, when the voice synthesis process is performed in the machine speech chain 1, the TTS 20 receives the text y and converts it into the voice x ^ . The ASR10 receives the voice x ^ converted by the TTS 20 and reconverts it into the text y ^ . At this time, using the voice x ^ converted by the TTS 20 as learning data and the original text y input to the TTS 20 as teacher data, the output of the ASR 10 (text y ^ , more specifically, each character constituting y ^ ). Parameter adjustment of ASR10, that is, deep learning is performed so that the error between the occurrence probability py) and the teacher data (text y ) becomes small (the value of the loss function LostASR ( y , py) becomes small). ..

従来のように音声認識モデルと音声合成モデルとが相互接続されていなければ、教師ありデータとして音声とテキストのペアを用意してそれぞれのモデルをオフラインで学習(音声認識モデルの学習には音声が学習データ、テキストが教師データとして用いられ、音声合成モデルの学習にはテキストが学習データ、音声が教師データとして用いられる。)させる必要がある。一方、マシンスピーチチェイン1は、教師ありデータを用いてASR10およびTTS20をそれぞれ教師強制(teacher-forcing)モードでオフライン学習させることができるのはもちろん、音声認識用にオンライン入力された音声を用いてTTS20を学習させ、また、音声合成用にオンライン入力されたテキストを用いてASR10を学習させることができる。すなわち、マシンスピーチチェイン1は、音声認識または音声合成をしながらASR10およびTTS20をオンライン学習させることができる。 If the speech recognition model and the speech synthesis model are not interconnected as in the past, prepare a pair of speech and text as supervised data and learn each model offline (speech is used for learning the speech recognition model). The training data and the text are used as the teacher data, and the text is used as the training data and the voice is used as the teacher data for the training of the speech synthesis model.) On the other hand, the machine speech chain 1 can train ASR10 and TTS20 offline in teacher-forcing mode using supervised data, as well as using voice input online for speech recognition. The TTS 20 can be trained, and the ASR 10 can be trained using the text input online for speech synthesis. That is, the machine speech chain 1 can train ASR10 and TTS20 online while performing speech recognition or speech synthesis.

2.DNN音声認識・合成モデル
次に、マシンスピーチチェイン1を構成するASR10およびTTS20の詳細について説明する。本発明の実施形態ではASR10およびTTS20はいずれもディープニューラルネットワーク(DNN)で構築される。
2. 2. DNN speech recognition / synthesis model Next, the details of ASR10 and TTS20 constituting the machine speech chain 1 will be described. In the embodiment of the present invention, both ASR10 and TTS20 are constructed by a deep neural network (DNN).

まず、DNN音声認識モデルについて説明する。図4は、一例に係るDNN音声認識モデルの模式図である。ASR10は、音声xを長さSの音声特徴系列データ(すなわちx=[x,…,x])、テキストyを長さTの文字系列データ(すなわちy=[y,…,y])としたときの条件付き確率p(y|x)を求めるsequence-to-sequence型モデルとして構成される。具体的には、ASR10は、再帰型ニューラルネットワーク(RNN: Recurrent Neural Network)を応用したオートエンコーダとして構築することができる。音声特徴系列データの各要素xはD次元の実数値ベクトルである。文字系列データの各要素yは音素(phoneme)または書記素(grapheme)である。 First, the DNN speech recognition model will be described. FIG. 4 is a schematic diagram of the DNN speech recognition model according to an example. In the ASR10, the voice x is the voice feature sequence data of length S (that is, x = [x 1 , ..., X S ]), and the text y is the character sequence data of length T (that is, y = [y 1 , ..., y). It is configured as a sequence-to-sequence type model for obtaining the conditional probability p (y | x) when T ]) is set. Specifically, the ASR10 can be constructed as an autoencoder to which a recurrent neural network (RNN) is applied. Each element x s of the voice feature series data is a D-dimensional real value vector. Each element yt of the character sequence data is a phoneme or a grapheme.

より詳細には、ASR10は、エンコーダ11と、デコーダ12と、アテンション13とを備えている。エンコーダ11は、3層の双方向LSTM(Bi-LSTM: Bidirectional Long Short-Term Memory)レイヤ111、112、113を備えている。エンコーダ11において、初段の双方向LSTMレイヤ111に対数メルスペクトル特徴量で表される音声特徴系列データx,…,xが入力されて最終段の双方向LSTMレイヤ113から中間層ベクトルh (s=1,…,S)が出力される。 More specifically, the ASR 10 includes an encoder 11, a decoder 12, and an attention 13. The encoder 11 includes three layers of bidirectional LSTM (Bi-LSTM: Bidirectional Long Short-Term Memory) layers 111, 112, and 113. In the encoder 11, audio feature sequence data x 1 , ..., X S represented by logarithmic mel spectrum features are input to the bidirectional LSTM layer 111 of the first stage, and the intermediate layer vector he from the bidirectional LSTM layer 113 of the final stage. s (s = 1, ..., S) is output.

デコーダ12は、文字埋め込み(Char Emb.: Character Embed)レイヤ121と、LSTMレイヤ122とを備えている。デコーダ12において、文字埋め込みレイヤ121に文字系列データy,…,yT-1が入力されてLSTMレイヤ122から文字系列データy,…,yが出力される。デコーダ12の入力である文字系列データyは音素または書記素そのものではなく音素または書記素のidまたはインデックス番号である。時刻tにおけるデコーダ12の出力yは、LSTMレイヤ122から出力される中間層ベクトルh とアテンション13によって計算されるコンテキストベクトルcとを連結したベクトルを所定の線型作用素で重み付けし、さらにそれを所定の活性化関数に入力することにより算出される。図示していないが、LSTMレイヤ122から出力される文字系列データy,…,yはsoftmax関数によって各文字の発生確率py1,…,pyTとして正規化される。 The decoder 12 includes a character embedding (Char Emb .: Character Embed) layer 121 and an LSTM layer 122. In the decoder 12, the character sequence data y 0 , ..., Y T-1 is input to the character embedding layer 121, and the character sequence data y 1 , ..., Y T are output from the LSTM layer 122. The character sequence data yt that is the input of the decoder 12 is not the phoneme or grapheme itself, but the id or index number of the phoneme or grapheme. The output y t of the decoder 12 at time t weights a vector connecting the intermediate layer vector hd t output from the LSTM layer 122 and the context vector ct calculated by the attention 13 with a predetermined linear operator, and further. It is calculated by inputting it into a predetermined activation function. Although not shown, the character sequence data y 1 , ..., Y T output from the LSTM layer 122 are normalized as the occurrence probabilities py 1, ..., P y T of each character by the softmax function.

アテンション13は、コンテキストベクトルcを計算するモジュールである。より詳細には、アテンション13は、デコーダ12のLSTMレイヤ122から出力される時刻tにおける中間層ベクトルh とエンコーダ11の双方向LSTMレイヤ113が保持している中間層ベクトルh ,…,h から値aを計算し、さらに値aと中間層ベクトルh ,…,h からコンテキストベクトルcを計算する。なお、値aおよびコンテキストベクトルcの計算式は周知であるのでここでの説明は省略する。 The attention 13 is a module for calculating the context vector ct . More specifically, the attention 13 has an intermediate layer vector hd t at time t output from the LSTM layer 122 of the decoder 12 and an intermediate layer vector h e 1 held by the bidirectional LSTM layer 113 of the encoder 11. , He e S to calculate the value at, and further calculate the context vector c t from the value at and the intermediate layer vector he 1 , ..., He e S. Since the calculation formulas for the value at and the context vector ct are well known, the description thereof is omitted here.

ASR10のパラメータは、次の損失関数の値が最小になるように確率的勾配降下法や誤差逆伝播法などを用いて調整される。

Figure 0006989951000001
ここで、Cは出力クラスの数であり、yは正解(ground truth)のテキストである。 The parameters of the ASR10 are adjusted by using a stochastic gradient descent method, an error backpropagation method, or the like so that the value of the next loss function is minimized.
Figure 0006989951000001
Where C is the number of output classes and y is the text of the ground truth.

オフライン学習時に教師ありデータとして音声とテキストのペアが与えられる場合、当該音声の音声特徴系列データを学習データ、当該テキストの文字系列データを教師データとして用いてASR10の学習を行うことができる。一方、教師なしデータとしてテキストのみが与えられる場合、例えば、音声合成用にオンライン入力されたテキストを使用する場合、図3を参照して説明したように、TTS20から出力される音声特徴系列データを学習データ、音声合成用にオンライン入力されたテキストの文字系列データを教師データとして用いてASR10の学習を行うことができる。 When a pair of voice and text is given as supervised data at the time of offline learning, learning of ASR10 can be performed using the voice feature series data of the voice as learning data and the character series data of the text as teacher data. On the other hand, when only text is given as unsupervised data, for example, when text input online for speech synthesis is used, the speech feature sequence data output from TTS 20 is used as described with reference to FIG. The ASR10 can be learned by using the training data and the character sequence data of the text input online for speech synthesis as the teacher data.

次に、DNN音声合成モデルについて説明する。図5は、一例に係るDNN音声合成モデルの模式図である。TTS20は、テキストyを長さTの文字系列データ(すなわちy=[y,…,y])、音声xを長さSの音声特徴系列データ(すなわちx=[x,…,x])としたときの条件付き確率p(x|y)を求めるsequence-to-sequence型モデルとして構築される。具体的には、TTS20は、再帰型ニューラルネットワークを応用したオートエンコーダとして構築することができる。音声特徴系列データの各要素xはD次元の実数値ベクトルである。文字系列データの各要素yは音素または書記素である。 Next, the DNN speech synthesis model will be described. FIG. 5 is a schematic diagram of a DNN speech synthesis model according to an example. In the TTS 20, the text y is the character sequence data of length T (that is, y = [y 1 , ..., y T ]), and the voice x is the voice feature series data of length S (that is, x = [x 1 , ..., X]). S ]) is constructed as a sequence-to-sequence type model for obtaining the conditional probability p (x | y). Specifically, the TTS 20 can be constructed as an autoencoder to which a recurrent neural network is applied. Each element x s of the voice feature series data is a D-dimensional real value vector. Each element yt of the character sequence data is a phoneme or a grapheme.

より詳細には、TTS20は、エンコーダ21と、デコーダ22と、アテンション23とを備えている。エンコーダ21は、文字埋め込みレイヤ211と、全結合(FC: Fully Connected)レイヤ212と、CBHG(1-D Convolution Bank + Highway network + bidirectional GRU)213とを備えている。エンコーダ21において、文字埋め込みレイヤ211に文字系列データy,…,yが入力されてCBHG213から中間層ベクトルh (t=1,…,T)が出力される。エンコーダ21の入力である文字系列データyは音素または書記素そのものではなく音素または書記素のidまたはインデックス番号である。 More specifically, the TTS 20 includes an encoder 21, a decoder 22, and an attention 23. The encoder 21 includes a character embedding layer 211, a fully connected (FC) layer 212, and a CBHG (1-D Convolution Bank + Highway network + bidirectional GRU) 213. In the encoder 21, the character sequence data y 1 , ..., Y T are input to the character embedding layer 211, and the intermediate layer vector heat ( t = 1, ..., T) is output from the CBHG 213. The character sequence data yt that is the input of the encoder 21 is not the phoneme or grapheme itself, but the id or index number of the phoneme or grapheme.

デコーダ22は、全結合レイヤ221と、LSTMレイヤ222と、CBHG223と、全結合レイヤ224とを備えている。デコーダ22において、全結合レイヤ221に対数メルスペクトル特徴量で表される音声特徴系列データx ,…,x S-1が入力されてLSTMレイヤ222から対数メルスペクトル特徴量で表される音声特徴系列データx ,…,x が出力される。また、デコーダ22において、LSTMレイヤ222から出力される音声特徴系列データx ,…,x がCBHG223に入力されて全結合レイヤ224からリニアスペクトル特徴量で表される音声特徴系列データx (s=1,…,S)が出力される。CBHG223の入力x は、LSTMレイヤ222から出力される中間層ベクトルh とアテンション23によって計算されるコンテキストベクトルcとを連結したベクトルを所定の線型作用素で重み付けし、さらにそれを所定の活性化関数に入力することにより算出される。図示していないが、全結合レイヤ224から出力される音声特徴系列データx (s=1,…,S)はGriffin-Limアルゴリズムに従って処理されて音声が再構築される。 The decoder 22 includes a fully coupled layer 221, an LSTM layer 222, a CBHG223, and a fully coupled layer 224. In the decoder 22, voice feature series data x M 0 , ..., X M S-1 represented by logarithmic mel spectrum features are input to the fully coupled layer 221 and are represented by logarithmic mel spectrum features from the LSTM layer 222. Voice feature series data x M 1 , ..., X MS are output. Further, in the decoder 22, the voice feature series data x M 1 , ..., XMS output from the LSTM layer 222 is input to the CBHG223 , and the voice feature series data x represented by the linear spectral feature amount from the fully coupled layer 224. R s (s = 1, ..., S) is output. The input x M s of the CBHG 223 weights a vector connecting the intermediate layer vector hd s output from the LSTM layer 222 and the context vector c s calculated by the attention 23 with a predetermined linear operator, and further determines it. It is calculated by inputting to the activation function of. Although not shown, the voice feature sequence data x R s (s = 1, ..., S) output from the fully coupled layer 224 is processed according to the Griffin-Lim algorithm to reconstruct the voice.

デコーダ22は、さらに、出力レイヤ225と、入力レイヤ226とを備えている。出力レイヤ225は、発話の終端の確率を出力するレイヤである。出力レイヤ225を設けた理由は、デコーダ22から出力される音声特徴系列データ音声特徴系列データx およびx (s=1,…,S)はいずれも実数値ベクトルであり、それらからは発話の終端が判断できないからである。もし出力レイヤ225がなければ発話の終端が判断できないためTTS20から出力される音声特徴系列データが所定の長さになったところで強制的に音声合成を終了させることとなり語尾が不自然になるおそれがある。一方、出力レイヤ225を設けたことによって発話の終端が判断できるようになり、音声特徴系列データを所定の長さで強制的に打ち切ることなく発話終端で音声合成を終了させることができ、自然な語尾の音声を合成が実現できる。 The decoder 22 further includes an output layer 225 and an input layer 226. The output layer 225 is a layer that outputs the probability of the end of the utterance. The reason why the output layer 225 is provided is that the audio feature sequence data audio feature sequence data x M s and x R s (s = 1, ..., S) output from the decoder 22 are both real value vectors, and are derived from them. Is because the end of the speech cannot be determined. If there is no output layer 225, the end of the utterance cannot be determined, so the speech synthesis will be forcibly terminated when the speech feature sequence data output from the TTS 20 reaches a predetermined length, and the ending may become unnatural. be. On the other hand, by providing the output layer 225, it becomes possible to determine the end of the utterance, and it is possible to end the voice synthesis at the end of the utterance without forcibly interrupting the voice feature series data with a predetermined length, which is natural. It is possible to synthesize the voice of the end of the word.

入力レイヤ226には話者の識別情報が入力される。話者の識別情報として話者のidを用いることができる。入力レイヤ226に入力された話者のidは埋め込み(embed)関数に入力されて実数値ベクトルによる分散表現に変換されてLSTMレイヤ222、224などに入力される。未知の話者にも対応可能にするために、話者のidを話者認識用のi-vectorにマッピングするようにしてもよい。このように話者の識別情報が入力される入力レイヤ226を設けたことで、TTS20は当該話者の声に似た音声を合成できるようになる。 The speaker identification information is input to the input layer 226. The speaker id can be used as the speaker identification information. The speaker id input to the input layer 226 is input to the embed function, converted into a distributed representation by a real value vector, and input to the LSTM layer 222, 224 and the like. In order to be able to handle unknown speakers, the speaker id may be mapped to the i-vector for speaker recognition. By providing the input layer 226 in which the identification information of the speaker is input in this way, the TTS 20 can synthesize a voice similar to the voice of the speaker.

上述したようにASR10のオンライン学習ではTTS20から出力される音声特徴系列データが学習データとして用いられるが、このとき音声認識用に入力された音声とTTS20によって合成された音声の声質が異なっているとASR10の学習が正しく進まなくなるおそれがある。そこで入力レイヤ226を設けて話者の声に似た音声を合成できるようにすることでASR10のオンライン学習の質を向上させることができる。特にマシンスピーチチェイン1が複数の話者の音声を認識しなければならないような場合には入力レイヤ226を設けることが望ましい。 As described above, in the online learning of ASR10, the voice feature series data output from TTS20 is used as learning data, but at this time, if the voice input for voice recognition and the voice quality synthesized by TTS20 are different. There is a risk that the learning of ASR10 will not proceed correctly. Therefore, the quality of online learning of ASR10 can be improved by providing an input layer 226 so that a voice similar to the voice of a speaker can be synthesized. In particular, when the machine speech chain 1 must recognize the voices of a plurality of speakers, it is desirable to provide an input layer 226.

アテンション23は、コンテキストベクトルcを計算するモジュールである。より詳細には、アテンション23は、デコーダ22のLSTMレイヤ222から出力される時刻sにおける中間層ベクトルh とエンコーダ21のCBHG213が保持している中間層ベクトルh ,…,h から値aを計算し、さらに値aと中間層ベクトルh ,…,h からコンテキストベクトルcを計算する。なお、値aおよびコンテキストベクトルcの計算式は周知であるのでここでの説明は省略する。 The attention 23 is a module for calculating the context vector cs . More specifically, the attention 23 has an intermediate layer vector hd s at the time s output from the LSTM layer 222 of the decoder 22 and an intermediate layer vector h e 1 , ..., He e T held by the CBHG 213 of the encoder 21. The value a s is calculated from, and the context vector c s is calculated from the value a s and the intermediate layer vectors h e 1 , ..., He e T. Since the calculation formulas for the value as and the context vector c s are well known, the description thereof is omitted here.

TTS20のパラメータは、次の損失関数の値が最小になるように確率的勾配降下法や誤差逆伝播法などを用いて調整される。

Figure 0006989951000002
ここで、x^M、x^R、bはそれぞれTTS20から出力される対数メルスペクトル特徴量、リニアスペクトル特徴量、発話終端確率であり、xM、x、bはそれぞれそれらの正解(ground truth)である。 The parameters of the TTS 20 are adjusted by using a stochastic gradient descent method, an error backpropagation method, or the like so that the value of the next loss function is minimized.
Figure 0006989951000002
Here, x ^ M , x ^ R , and b ^ are logarithmic mel spectrum features, linear spectrum features, and utterance termination probabilities output from TTS 20, respectively, and x M , x R , and b are their correct answers (respectively). ground truth).

オフライン学習時に教師ありデータとして音声とテキストのペアが与えられる場合、当該テキストの文字系列データを学習データ、当該音声の音声特徴系列データ(対数メルスペクトル特徴量およびリニアスペクトル特徴量)を教師データとして用いてTTS20の学習を行うことができる。一方、教師なしデータとして音声のみが与えられる場合、例えば、音声認識用にオンライン入力された音声を使用する場合、図2を参照して説明したように、ASR10から出力される文字系列データを学習データ、音声認識用にオンライン入力された音声の音声特徴系列データ(対数メルスペクトル特徴量およびリニアスペクトル特徴量)を教師データとして用いてTTS20の学習を行うことができる。 When a pair of voice and text is given as supervised data during offline learning, the character series data of the text is used as training data, and the voice feature series data of the voice (logous mel spectrum feature amount and linear spectrum feature amount) is used as teacher data. It can be used to learn TTS20. On the other hand, when only voice is given as unsupervised data, for example, when voice input online for voice recognition is used, as described with reference to FIG. 2, character sequence data output from ASR10 is learned. The TTS 20 can be learned by using the voice feature series data (logous mel spectrum feature amount and linear spectrum feature amount) of the voice input online for the data and voice recognition as the teacher data.

3.実施形態
次に、本発明の一実施形態に係るスピーチチェイン装置の構成を説明する。図6は、本発明の一実施形態に係るスピーチチェイン装置100のブロック図である。スピーチチェイン装置100は、音声認識部(ASR)10と、音声合成部(TTS)20と、音声特徴抽出部30と、テキスト生成部40と、テキスト特徴抽出部50と、音声生成部60と、ASR学習制御部70と、TTS学習制御部80とを備えている。スピーチチェイン装置100を構成するこれら要素はハードウェアまたはソフトウェアまたはそれらの組み合わせとして実現することができる。例えば、パソコンやスマートフォンなどのコンピュータ装置に専用のコンピュータソフトウェアをインストールすることで当該コンピュータ装置をスピーチチェイン装置100として機能させることができる。例えば、スピーチチェイン装置100は、クラウド上のサーバーに実装してSaaS(software as a service)として実施することもできる。また、スピーチチェイン装置100の各構成要素を複数のコンピュータ装置に分散配置し、電気通信ネットワークを介して各構成要素を互いに接続することによってスピーチチェイン装置100を実現することもできる。大量の計算が必要なASR10およびTTS20はGPU(Graphics Processing Unit)などの専用のプロセッサで処理し、それ以外の構成要素はCPU(Central Processing Unit)で処理させるとよい。
3. 3. Embodiment Next, the configuration of the speech chain device according to the embodiment of the present invention will be described. FIG. 6 is a block diagram of the speech chain device 100 according to the embodiment of the present invention. The speech chain device 100 includes a voice recognition unit (ASR) 10, a voice synthesis unit (TTS) 20, a voice feature extraction unit 30, a text generation unit 40, a text feature extraction unit 50, and a voice generation unit 60. It includes an ASR learning control unit 70 and a TTS learning control unit 80. These elements constituting the speech chain device 100 can be realized as hardware or software or a combination thereof. For example, by installing dedicated computer software in a computer device such as a personal computer or a smartphone, the computer device can function as the speech chain device 100. For example, the speech chain device 100 can be mounted on a server on the cloud and implemented as SaaS (software as a service). Further, the speech chain device 100 can be realized by arranging each component of the speech chain device 100 in a plurality of computer devices in a distributed manner and connecting the components to each other via a telecommunication network. The ASR10 and TTS20, which require a large amount of calculation, may be processed by a dedicated processor such as a GPU (Graphics Processing Unit), and the other components may be processed by a CPU (Central Processing Unit).

次に、スピーチチェイン装置100の各構成要素の詳細について説明する。なお、ASR10およびTTS20については上述した通りであるため、繰り返しの説明は省略する。 Next, the details of each component of the speech chain device 100 will be described. Since the ASR10 and TTS20 are as described above, the repeated description will be omitted.

音声特徴抽出部30は、入力された音声を処理して、ASR10に入力される音声特徴系列データ(x=[x,…,x])を生成するモジュールである。テキスト生成部40は、ASR10から出力される文字系列データ(y=[y,…,y])に基づいて、音声特徴抽出部30に入力された音声に対応するテキストを生成するモジュールである。音声特徴抽出部30には、図略のマイクロフォンで集音した音声をリアルタイムに入力できる他、図略のストレージ装置やメモリ装置に保持された録音音声などを入力することもできる。テキスト生成部40から出力されるテキストは、図略の表示装置にリアルタイムに表示できる他、図略のストレージ装置やメモリ装置に保存することもできる。 The voice feature extraction unit 30 is a module that processes the input voice and generates voice feature series data (x = [x 1 , ..., X S ]) input to the ASR 10. The text generation unit 40 is a module that generates text corresponding to the voice input to the voice feature extraction unit 30 based on the character sequence data (y ^ = [y 1 , ..., y T ]) output from the ASR 10. Is. The voice feature extraction unit 30 can input the voice collected by the microphone shown in the figure in real time, and can also input the recorded voice held in the storage device or the memory device shown in the figure. The text output from the text generation unit 40 can be displayed in real time on the illustrated display device, and can also be stored in the illustrated storage device or memory device.

図7は、音声特徴抽出部30によって実施される音声特徴系列データ生成処理のフローチャートである。スピーチチェイン装置100に音声が入力されると(S11)、音声特徴抽出部30は、入力された音声に対してプリエンファシス処理を施し(S12)、その後さらに短時間フーリエ変換を施す(S13)。こうして音声特徴抽出部30は、入力された音声からそのリニアスペクトル特徴量を計算し(S14)、それを出力する(S15)。出力されたリニアスペクトル特徴量は図略のメモリ装置などに一時保存される。さらに、音声特徴抽出部30は、リニアスペクトル特徴量から対数メルスペクトル特徴量を計算し(S16)、それを出力する(S17)。出力された対数メルスペクトル特徴量は図略のメモリ装置などに一時保存される。 FIG. 7 is a flowchart of the voice feature series data generation process performed by the voice feature extraction unit 30. When voice is input to the speech chain device 100 (S11), the voice feature extraction unit 30 performs pre-emphasis processing on the input voice (S12), and then performs a short-time Fourier transform (S13). In this way, the voice feature extraction unit 30 calculates the linear spectral feature amount from the input voice (S14) and outputs it (S15). The output linear spectral features are temporarily stored in a memory device or the like shown in the figure. Further, the voice feature extraction unit 30 calculates a logarithmic mel spectrum feature from the linear spectrum feature (S16) and outputs it (S17). The output logarithmic mel spectrum feature quantity is temporarily stored in a memory device or the like shown in the figure.

図6へ戻り、テキスト特徴抽出部50は、入力されたテキストを処理して、TTS20に入力される文字系列データ(y=[y,…,y])を生成するモジュールである。音声生成部60は、TTS20から出力される音声特徴系列データ(x=[x,…,x])に基づいて、テキスト特徴抽出部50に入力されたテキストに対応する音声を生成するモジュールである。テキスト特徴抽出部50には、図略の入力デバイスを通じて入力されたテキストやOCR(Optical Character Recognition)装置などで読み取られたテキストをリアルタイムに入力できる他、図略のストレージ装置やメモリ装置に保持された文書中のテキストなどを入力することもできる。音声生成部60から出力される音声は、図略のスピーカからリアルタイムに出音できる他、図略のストレージ装置やメモリ装置に保存することもできる。 Returning to FIG. 6, the text feature extraction unit 50 is a module that processes the input text and generates character sequence data (y = [y 1 , ..., y T ]) input to the TTS 20. The voice generation unit 60 generates voice corresponding to the text input to the text feature extraction unit 50 based on the voice feature series data (x ^ = [x 1 , ..., X S ]) output from the TTS 20. It is a module. In the text feature extraction unit 50, the text input through the illustration input device and the text read by the OCR (Optical Character Recognition) device can be input in real time, and are held in the storage device and the memory device of the illustration. You can also enter the text in the document. The voice output from the voice generation unit 60 can be output in real time from the speaker shown in the figure, and can also be stored in the storage device or memory device shown in the figure.

図8は、テキスト特徴抽出部50によって実施される文字系列データ生成処理のフローチャートである。スピーチチェイン装置100にテキストが入力されると(S21)、テキスト特徴抽出部50は、当該入力されたテキストに含まれる文字、記号、数字の正規化処理を行う(S22)。具体的には、テキスト特徴抽出部50は、大文字をすべて小文字に変換し、ダブルクオーテーションなどの一部の記号をシングルクオーテーションなどの別の記号に置き換え、数字をその読みを表すテキストに変換(例えば、“5”→“five”)する。その後、テキスト特徴抽出部50は、正規化されたテキストを各文字に切り分ける(S23)(例えば、“five”→“f”,“i”,“v”,“e”)。その後、テキスト特徴抽出部50は、各文字をインデックスに変換し(S24)(例えば、 “f”→6,“i”→9,“v”→22,“e”→5)、正規化テキストと文字インデックスを出力する(S25)。出力された正規化テキストと文字インデックスは図略のメモリ装置などに一時保存される。 FIG. 8 is a flowchart of the character sequence data generation process performed by the text feature extraction unit 50. When a text is input to the speech chain device 100 (S21), the text feature extraction unit 50 performs normalization processing of characters, symbols, and numbers included in the input text (S22). Specifically, the text feature extraction unit 50 converts all uppercase letters to lowercase letters, replaces some symbols such as double quotation marks with other symbols such as single quotation marks, and converts numbers into text representing the reading. (For example, "5" → "five"). After that, the text feature extraction unit 50 divides the normalized text into each character (S23) (for example, “five” → “f”, “i”, “v”, “e”). After that, the text feature extraction unit 50 converts each character into an index (S24) (for example, “f” → 6, “i” → 9, “v” → 22, “e” → 5), and the normalized text. And the character index is output (S25). The output normalized text and character index are temporarily stored in the memory device of the figure.

図6へ戻り、ASR学習制御部70は、ASR10の学習を制御するモジュールである。ASR10には音声特徴抽出部30によって生成された音声特徴系列データxおよびTTS20から出力された音声特徴系列データxのいずれか一方が選択的に入力されるようになっている。スピーチチェイン装置100にテキストが入力されてスピーチチェイン装置100が音声合成装置として動作するとき、ASR学習制御部70は、TTS20によって生成された音声特徴系列データx^を学習データとしてASR10に入力し、テキスト特徴抽出部50によって生成された文字系列データyを教師データとして用いて、上述した方法でASR10のパラメータを調整する。 Returning to FIG. 6, the ASR learning control unit 70 is a module that controls the learning of the ASR 10. Either the voice feature sequence data x generated by the voice feature extraction unit 30 or the voice feature sequence data x ^ output from the TTS 20 is selectively input to the ASR 10. When a text is input to the speech chain device 100 and the speech chain device 100 operates as a speech synthesizer, the ASR learning control unit 70 inputs the speech feature sequence data x ^ generated by the TTS 20 into the ASR 10 as learning data. Using the character sequence data y generated by the text feature extraction unit 50 as the teacher data, the parameters of the ASR 10 are adjusted by the above-mentioned method.

TTS学習制御部80は、TTS20の学習を制御するモジュールである。TTS20にはテキスト特徴抽出部50によって生成された文字系列データyおよびASR10から出力された文字系列データyのいずれか一方が選択的に入力されるようになっている。スピーチチェイン装置100に音声が入力されてスピーチチェイン装置100が音声認識装置として動作するとき、TTS学習制御部80は、ASR10によって生成された文字系列データyを学習データとしてTTS20に入力し、音声特徴抽出部30によって生成された音声特徴系列データxを教師データとして用いて、上述した方法でTTS20のパラメータを調整する。 The TTS learning control unit 80 is a module that controls learning of the TTS 20. Either the character sequence data y generated by the text feature extraction unit 50 or the character sequence data y ^ output from the ASR 10 is selectively input to the TTS 20. When voice is input to the speech chain device 100 and the speech chain device 100 operates as a voice recognition device, the TTS learning control unit 80 inputs the character sequence data y ^ generated by the ASR 10 into the TTS 20 as learning data, and the voice is input. Using the voice feature sequence data x generated by the feature extraction unit 30 as teacher data, the parameters of the TTS 20 are adjusted by the above-mentioned method.

図9は、スピーチチェイン装置100において実施されるDNN音声認識・合成相互学習の全体フローチャートである。スピーチチェイン装置100にデータが入力され(S31)、それが音声とテキストのペアであれば(S32でYES)、音声特徴抽出部30が、当該入力された音声から音声特徴系列データxを生成し、テキスト特徴抽出部50が、当該入力されたテキストから文字系列データyを生成する(S33)。音声特徴系列データおよび文字系列データの生成処理について図7および図8を参照して説明した通りである。これら系列データが生成されると、ASR学習制御部70が、音声特徴系列データxを学習データとしてASR10に入力し、文字系列データyを教師データとして用いてASR10を学習させるとともに、TTS学習制御部80が、文字系列データyを学習データとしてTTS20に入力し、音声特徴系列データxを教師データとして用いてTTS20を学習させる(S34)。 FIG. 9 is an overall flowchart of DNN speech recognition / synthetic mutual learning carried out in the speech chain device 100. If data is input to the speech chain device 100 (S31) and it is a voice / text pair (YES in S32), the voice feature extraction unit 30 generates voice feature sequence data x from the input voice. , The text feature extraction unit 50 generates character sequence data y from the input text (S33). The process of generating the voice feature series data and the character series data is as described with reference to FIGS. 7 and 8. When these series data are generated, the ASR learning control unit 70 inputs the voice feature series data x into the ASR 10 as learning data, uses the character series data y as the teacher data to train the ASR 10, and also trains the ASR 10 and the TTS learning control unit. 80 inputs the character sequence data y as training data into the TTS 20, and trains the TTS 20 using the voice feature sequence data x as teacher data (S34).

このように、音声とテキストのペアという教師ありデータが与えられた場合、ASR学習制御部70およびTTS学習制御部80は、その教師ありデータを用いてASR10およびTTS20をそれぞれ教師強制モードでオフライン学習させることができる。 In this way, when supervised data such as a pair of voice and text is given, the ASR learning control unit 70 and the TTS learning control unit 80 learn the ASR 10 and TTS 20 offline using the supervised data, respectively, in the supervised mode. Can be made to.

スピーチチェイン装置100に入力されたデータが音声のみであれば(S32でNO、S35でYES)、音声特徴抽出部30が当該入力された音声から音声特徴系列データxを生成し(S36)、ASR10がそれを受けて音声認識を行う(S37)。そして、TTS学習制御部80が、ASR10から出力された文字系列データyを学習データとしてTTS20に入力し、音声特徴抽出部30によって生成された音声特徴系列データxを教師データとして用いてTTS20を学習させる(S38)。一方、スピーチチェイン装置100に入力されたデータがテキストのみであれば(S32でNO、S35でNO)、テキスト特徴抽出部50が当該入力されたテキストから文字系列データyを生成し(S39)、TTS20がそれを受けて音声合成を行う(S40)。そして、ASR学習制御部70が、TTS20から出力された音声特徴系列データxを学習データとしてASR10に入力し、テキスト特徴抽出部50によって生成された文字系列データyを教師データとして用いてASR10を学習させる(S41)。 If the data input to the speech chain device 100 is only voice (NO in S32, YES in S35), the voice feature extraction unit 30 generates voice feature sequence data x from the input voice (S36), and ASR10. In response to this, voice recognition is performed (S37). Then, the TTS learning control unit 80 inputs the character sequence data y ^ output from the ASR 10 into the TTS 20 as learning data, and uses the voice feature sequence data x generated by the voice feature extraction unit 30 as the teacher data to generate the TTS 20. Learn (S38). On the other hand, if the data input to the speech chain device 100 is only text (NO in S32, NO in S35), the text feature extraction unit 50 generates character sequence data y from the input text (S39). The TTS 20 receives it and performs speech synthesis (S40). Then, the ASR learning control unit 70 inputs the voice feature sequence data x ^ output from the TTS 20 into the ASR 10 as learning data, and uses the character sequence data y generated by the text feature extraction unit 50 as the teacher data to generate the ASR 10. Learn (S41).

このように、音声のみのみが与えられた場合、TTS学習制御部80は、ASR10による音声認識結果をTTS20の学習データとして使用してTTS20を学習させることができる。一方、テキストのみが与えられた場合、ASR学習制御部70は、TTS20による音声合成結果をASR10の学習データとして使用してASR10を学習させることができる。すなわち、教師なしデータを用いてASR10およびTTS20のオンライン学習が可能になる。 As described above, when only the voice is given, the TTS learning control unit 80 can learn the TTS 20 by using the voice recognition result by the ASR 10 as the learning data of the TTS 20. On the other hand, when only the text is given, the ASR learning control unit 70 can learn the ASR 10 by using the speech synthesis result by the TTS 20 as the learning data of the ASR 10. That is, online learning of ASR10 and TTS20 becomes possible using unsupervised data.

上述したように、スピーチチェイン装置100においてASR10およびTTS20は教師ありデータおよび教師なしデータのいずれを与えられても学習可能であることから、音声とテキストのペア、テキストのみおよび音声のみの3種類のデータが混在するデータセットを用意してASR10およびTTS20のバッチ学習を行うことができる。 As described above, in the speech chain device 100, since the ASR10 and TTS20 can be learned by being given either supervised data or unsupervised data, there are three types of voice-text pairs, text-only and voice-only. Batch learning of ASR10 and TTS20 can be performed by preparing a data set in which data is mixed.

図10は、ASR10およびTTS20のバッチ学習処理のフローチャートである。ASR学習制御部70およびTTS学習制御部80は、図略のストレージ装置などに保存されたデータセットから音声とテキストのペアを一定量取り出して音声特徴抽出部30およびテキスト特徴抽出部50にそれぞれ入力し(S51)、音声特徴抽出部30によって生成された音声特徴系列データxおよびテキスト特徴抽出部50によって生成された文字系列データyを用いてASR10およびTTS20をそれぞれ学習させる(S52)。続いて、TTS学習制御部80は、データセットから音声のみのデータを一定量取り出して音声特徴抽出部30に入力し(S53)、ASR10によって生成された文字系列データyを学習データとしてTTS20に入力し、音声特徴抽出部30によって生成された音声特徴系列データxを教師データとして用いてTTS20を学習させる(S54)。続いて、ASR学習制御部70は、データセットからテキストのみのデータを一定量取り出してテキスト特徴抽出部50に入力し(S55)、TTS20によって生成された音声特徴系列データxを学習データとしてASR10に入力し、テキスト特徴抽出部50によって生成された文字系列データyを教師データとして用いてASR10を学習させる(S56)。ASR学習制御部70およびTTS学習制御部80は、以上の工程をデータセットのデータがなくなるまで繰り返す。 FIG. 10 is a flowchart of batch learning processing of ASR10 and TTS20. The ASR learning control unit 70 and the TTS learning control unit 80 take out a certain amount of voice and text pairs from the data set stored in the storage device or the like shown in the figure and input them to the voice feature extraction unit 30 and the text feature extraction unit 50, respectively. (S51), ASR10 and TTS20 are trained using the voice feature sequence data x generated by the voice feature extraction unit 30 and the character sequence data y generated by the text feature extraction unit 50 (S52). Subsequently, the TTS learning control unit 80 extracts a certain amount of audio-only data from the dataset and inputs it to the audio feature extraction unit 30 (S53), and uses the character sequence data y ^ generated by the ASR 10 as learning data in the TTS 20. The TTS 20 is trained by inputting and using the voice feature series data x generated by the voice feature extraction unit 30 as teacher data (S54). Subsequently, the ASR learning control unit 70 extracts a certain amount of text-only data from the data set and inputs it to the text feature extraction unit 50 (S55), and uses the voice feature sequence data x ^ generated by the TTS 20 as training data for the ASR 10 The character sequence data y generated by the text feature extraction unit 50 is used as the teacher data to train the ASR 10 (S56). The ASR learning control unit 70 and the TTS learning control unit 80 repeat the above steps until the data in the data set is exhausted.

以上説明したように、本実施形態に係るスピーチチェイン装置100によって人間のスピーチチェインのメカニズムを機械で再現することができる。これにより、音声認識用に入力された音声および音声合成用に入力されたテキストを教師なしデータとして用いて音声合成および音声認識のオンライン学習を行うことができるようになり、教師ありデータとしての音声とテキストのペアを大量に用意する労力とコストを削減することができる。さらに、本実施形態に係るスピーチチェイン装置100は、音声認識装置および音声合成装置として使えば使うほど学習が進んで音声認識および音声合成の精度が向上する。 As described above, the speech chain device 100 according to the present embodiment can mechanically reproduce the mechanism of human speech chain. This makes it possible to perform online learning of speech synthesis and speech recognition using the speech input for speech recognition and the text input for speech synthesis as unsupervised data, and the speech as supervised data. It can reduce the labor and cost of preparing a large number of pairs of text and text. Further, the more the speech chain device 100 according to the present embodiment is used as the voice recognition device and the voice synthesis device, the more the learning progresses and the accuracy of the voice recognition and the voice synthesis is improved.

以上のように、本発明における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。 As described above, an embodiment has been described as an example of the technique in the present invention. To that end, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Therefore, among the components described in the attached drawings and the detailed description, not only the components essential for problem solving but also the components not essential for problem solving in order to illustrate the above-mentioned technology. Can also be included. Therefore, the fact that those non-essential components are described in the accompanying drawings or detailed description should not immediately determine that those non-essential components are essential.

また、上述の実施の形態は、本発明における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Further, since the above-described embodiment is for exemplifying the technique of the present invention, various changes, replacements, additions, omissions, etc. can be made within the scope of claims or the equivalent thereof.

100…スピーチチェイン装置、10…音声認識部、20…音声合成部、30…音声特徴抽出部、40…テキスト生成部、50…テキスト特徴抽出部、60…音声生成部、70…ASR学習制御部、80…TTS学習制御部、225…出力レイヤ、226…入力レイヤ 100 ... speech chain device, 10 ... voice recognition unit, 20 ... voice synthesis unit, 30 ... voice feature extraction unit, 40 ... text generation unit, 50 ... text feature extraction unit, 60 ... voice generation unit, 70 ... ASR learning control unit , 80 ... TTS learning control unit, 225 ... output layer, 226 ... input layer

Claims (7)

音声特徴系列データを入力とし文字系列データを出力とするディープニューラルネットワークで構築された音声認識部と、
文字系列データを入力とし音声特徴系列データを出力とするディープニューラルネットワークで構築された音声合成部と、
入力された音声を処理して、前記音声認識部に入力される前記音声特徴系列データを生成する音声特徴抽出部と、
前記音声認識部から出力される前記文字系列データに基づいて、前記音声特徴抽出部に入力された音声に対応するテキストを生成するテキスト生成部と、
入力されたテキストを処理して、前記音声合成部に入力される前記文字系列データを生成するテキスト特徴抽出部と、
前記音声合成部から出力される前記音声特徴系列データに基づいて、前記テキスト特徴抽出部に入力されたテキストに対応する音声を生成する音声生成部と、
前記音声合成部から出力された前記音声特徴系列データを学習データとして前記音声認識部に入力し、前記テキスト特徴抽出部によって生成された前記文字系列データを教師データとして用いて前記音声認識部を学習させる第1の学習制御部と、
前記音声認識部から出力された前記文字系列データを学習データとして前記音声合成部に入力し、前記音声特徴抽出部によって生成された前記音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第2の学習制御部と、を備えたスピーチチェイン装置。
A voice recognition unit built with a deep neural network that inputs voice feature series data and outputs character series data,
A voice synthesizer built with a deep neural network that inputs character sequence data and outputs voice feature sequence data,
A voice feature extraction unit that processes the input voice and generates the voice feature series data input to the voice recognition unit.
A text generation unit that generates text corresponding to the voice input to the voice feature extraction unit based on the character sequence data output from the voice recognition unit, and a text generation unit.
A text feature extraction unit that processes the input text and generates the character sequence data input to the voice synthesis unit, and
A voice generation unit that generates a voice corresponding to the text input to the text feature extraction unit based on the voice feature series data output from the voice synthesis unit, and a voice generation unit.
The voice feature series data output from the voice synthesis unit is input to the voice recognition unit as learning data, and the character sequence data generated by the text feature extraction unit is used as teacher data to learn the voice recognition unit. The first learning control unit to be made to
The character sequence data output from the voice recognition unit is input to the voice synthesis unit as learning data, and the voice feature sequence data generated by the voice feature extraction unit is used as teacher data to learn the voice synthesis unit. A speech chain device equipped with a second learning control unit.
前記音声認識部に入力される前記音声特徴系列データがメルスペクトル特徴量であり、
前記音声合成部から出力される前記音声特徴系列データがリニアスペクトル特徴量およびメルスペクトル特徴量であり、
前記音声特徴抽出部が、前記音声特徴系列データとして、前記音声特徴抽出部に入力された音声のリニアスペクトル特徴量およびメルスペクトル特徴量を生成するものであり、
前記第2の学習制御部が、前記音声特徴抽出部によって生成された前記リニアスペクトル特徴量および前記メルスペクトル特徴量を教師データとして用いて前記音声合成部を学習させるものである請求項1に記載のスピーチチェイン装置。
The voice feature series data input to the voice recognition unit is a mel spectrum feature amount.
The voice feature series data output from the voice synthesizer is a linear spectrum feature amount and a mel spectrum feature amount.
The voice feature extraction unit generates the linear spectrum feature amount and the mel spectrum feature amount of the voice input to the voice feature extraction unit as the voice feature series data.
The first aspect of claim 1, wherein the second learning control unit trains the voice synthesis unit by using the linear spectrum feature amount and the mel spectrum feature amount generated by the voice feature extraction unit as teacher data. Speech chain device.
前記音声合成部が、発話の終端の確率を表す出力レイヤを有するものであり、
前記第2の学習制御部が、さらに発話の終端の確率を教師データとして用いて前記音声合成部を学習させるものである請求項1または請求項2に記載のスピーチチェイン装置。
The voice synthesis unit has an output layer that represents the probability of the end of an utterance.
The speech chain device according to claim 1 or 2, wherein the second learning control unit further learns the speech synthesis unit by using the probability of the end of the utterance as teacher data.
前記音声合成部が、話者の識別情報が入力される入力レイヤを有するものである請求項1ないし請求項3のいずれかに記載のスピーチチェイン装置。 The speech chain device according to claim 1, wherein the speech synthesis unit has an input layer into which speaker identification information is input. 音声特徴系列データを入力とし文字系列データを出力とするディープニューラルネットワークで構築された音声認識部と、
文字系列データを入力とし音声特徴系列データを出力とするディープニューラルネットワークで構築された音声合成部と、
入力された音声を処理して、前記音声認識部に入力される前記音声特徴系列データを生成する音声特徴抽出部と、
前記音声認識部から出力される前記文字系列データに基づいて、前記音声特徴抽出部に入力された音声に対応するテキストを生成するテキスト生成部と、
入力されたテキストを処理して、前記音声合成部に入力される前記文字系列データを生成するテキスト特徴抽出部と、
前記音声合成部から出力される前記音声特徴系列データに基づいて、前記テキスト特徴抽出部に入力されたテキストに対応する音声を生成する音声生成部と、
前記音声合成部から出力された前記音声特徴系列データを学習データとして前記音声認識部に入力し、前記テキスト特徴抽出部によって生成された前記文字系列データを教師データとして用いて前記音声認識部を学習させる第1の学習制御部と、
前記音声認識部から出力された前記文字系列データを学習データとして前記音声合成部に入力し、前記音声特徴抽出部によって生成された前記音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第2の学習制御部と、をコンピュータに実現させるためのコンピュータプログラム。
A voice recognition unit built with a deep neural network that inputs voice feature series data and outputs character series data,
A voice synthesizer built with a deep neural network that inputs character sequence data and outputs voice feature sequence data,
A voice feature extraction unit that processes the input voice and generates the voice feature series data input to the voice recognition unit.
A text generation unit that generates text corresponding to the voice input to the voice feature extraction unit based on the character sequence data output from the voice recognition unit, and a text generation unit.
A text feature extraction unit that processes the input text and generates the character sequence data input to the voice synthesis unit, and
A voice generation unit that generates a voice corresponding to the text input to the text feature extraction unit based on the voice feature series data output from the voice synthesis unit, and a voice generation unit.
The voice feature series data output from the voice synthesis unit is input to the voice recognition unit as learning data, and the character sequence data generated by the text feature extraction unit is used as teacher data to learn the voice recognition unit. The first learning control unit to be made to
The character sequence data output from the voice recognition unit is input to the voice synthesis unit as learning data, and the voice feature sequence data generated by the voice feature extraction unit is used as teacher data to learn the voice synthesis unit. A computer program for realizing a second learning control unit and a computer.
音声特徴系列データを入力とし文字系列データを出力とするディープニューラルネットワークで構築された音声認識部および文字系列データを入力とし音声特徴系列データを出力とするディープニューラルネットワークで構築された音声合成部を相互に学習させるDNN音声認識・合成相互学習方法であって、
教師ありデータとして音声とテキストのペアが与えられた場合、当該音声の音声特徴系列データを学習データとして前記音声認識部に入力し、当該テキストの文字系列データを教師データとして用いて前記音声認識部を学習させるとともに、当該テキストの文字系列データを学習データとして前記音声合成部に入力し、当該音声の音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第1のステップと、
教師なしデータとして音声のみが与えられた場合、前記音声認識部に当該音声の音声特徴系列データを入力して前記音声認識部から出力された文字系列データを学習データとして前記音声合成部に入力し、当該音声の音声特徴系列データを教師データとして用いて前記音声合成部を学習させる第2のステップと、
教師なしデータとしてテキストのみが与えられた場合、前記音声合成部に当該テキストの文字系列データを入力して前記音声合成部から出力された音声特徴系列データを学習データとして前記音声認識部に入力し、当該テキストの文字系列データを教師データとして用いて前記音声認識部を学習させる第3のステップと、を備えたDNN音声認識・合成相互学習方法。
A voice recognition unit built with a deep neural network that inputs voice feature series data and outputs character series data, and a voice synthesis unit built with a deep neural network that inputs character series data and outputs voice feature series data. It is a DNN speech recognition / synthesis mutual learning method that allows mutual learning.
When a voice / text pair is given as supervised data, the voice feature sequence data of the voice is input to the voice recognition unit as learning data, and the character sequence data of the text is used as the teacher data in the voice recognition unit. The first step of learning the voice synthesis unit by inputting the character sequence data of the text as learning data into the voice synthesis unit and using the voice feature sequence data of the voice as teacher data.
When only voice is given as unsupervised data, the voice feature sequence data of the voice is input to the voice recognition unit, and the character sequence data output from the voice recognition unit is input to the voice synthesis unit as learning data. , The second step of learning the voice synthesis unit using the voice feature series data of the voice as teacher data,
When only text is given as unsupervised data, the character sequence data of the text is input to the voice synthesis unit, and the voice feature sequence data output from the voice synthesis unit is input to the voice recognition unit as learning data. , A third step of learning the voice recognition unit using the character sequence data of the text as teacher data, and a DNN voice recognition / synthesis mutual learning method.
音声とテキストのペア、テキストのみおよび音声のみの3種類のデータが混在するデータセットから各種類のデータを一定量ずつ取り出す第4のステップと、
前記データセットから取り出した各種類のデータを用いて前記第1のステップないし前記第3のステップを順に繰り返して前記音声認識部および前記音声合成部のバッチ学習を行う第5のステップと、をさらに備えた請求項6に記載のDNN音声認識・合成相互学習方法。
A fourth step of extracting a fixed amount of each type of data from a dataset containing three types of data: a voice-text pair, text-only data, and voice-only data.
Using each type of data extracted from the data set, the first step to the third step are repeated in order, and a fifth step of performing batch learning of the voice recognition unit and the voice synthesis unit is further performed. The DNN speech recognition / synthetic mutual learning method according to claim 6 provided.
JP2018001538A 2018-01-09 2018-01-09 Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method Active JP6989951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001538A JP6989951B2 (en) 2018-01-09 2018-01-09 Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001538A JP6989951B2 (en) 2018-01-09 2018-01-09 Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method

Publications (2)

Publication Number Publication Date
JP2019120841A JP2019120841A (en) 2019-07-22
JP6989951B2 true JP6989951B2 (en) 2022-01-12

Family

ID=67306188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001538A Active JP6989951B2 (en) 2018-01-09 2018-01-09 Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method

Country Status (1)

Country Link
JP (1) JP6989951B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220254330A1 (en) * 2019-05-15 2022-08-11 Deepmind Technologies Limited Speech synthesis utilizing audio waveform difference signal(s)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3966810A1 (en) * 2019-06-19 2022-03-16 Google LLC Contextual biasing for speech recognition
CN114207711A (en) 2019-08-13 2022-03-18 三星电子株式会社 System and method for recognizing speech of user
WO2021029643A1 (en) 2019-08-13 2021-02-18 Samsung Electronics Co., Ltd. System and method for modifying speech recognition result
WO2021029627A1 (en) 2019-08-13 2021-02-18 Samsung Electronics Co., Ltd. Server that supports speech recognition of device, and operation method of the server
JP7336135B2 (en) * 2019-08-19 2023-08-31 大学共同利用機関法人情報・システム研究機構 speech synthesizer
JP2021039218A (en) * 2019-09-02 2021-03-11 日本電信電話株式会社 Learning device, learning method, and learning program
CN111816158B (en) * 2019-09-17 2023-08-04 北京京东尚科信息技术有限公司 Speech synthesis method and device and storage medium
EP4062400A1 (en) 2020-01-21 2022-09-28 Google LLC Deliberation model-based two-pass end-to-end speech recognition
JP7314079B2 (en) * 2020-02-21 2023-07-25 株式会社東芝 Data generation device, data generation method and program
CN111785248B (en) * 2020-03-12 2023-06-23 北京汇钧科技有限公司 Text information processing method and device
JP7326596B2 (en) 2020-04-21 2023-08-15 株式会社Nttドコモ Voice data creation device
US11335321B2 (en) 2020-08-28 2022-05-17 Google Llc Building a text-to-speech system from a small amount of speech data
US11783811B2 (en) 2020-09-24 2023-10-10 International Business Machines Corporation Accuracy of streaming RNN transducer
CN112562634B (en) * 2020-12-02 2024-05-10 平安科技(深圳)有限公司 Multi-style audio synthesis method, device, equipment and storage medium
US11942078B2 (en) 2021-02-26 2024-03-26 International Business Machines Corporation Chunking and overlap decoding strategy for streaming RNN transducers for speech recognition
WO2023248398A1 (en) * 2022-06-22 2023-12-28 日本電信電話株式会社 Training device, training method, training program, and speech synthesis device
WO2024009890A1 (en) * 2022-07-04 2024-01-11 日本電気株式会社 Training data generation device, voice recognition model generation device, training data generation method, voice recognition model generation method, and recording medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271182A (en) 2002-03-18 2003-09-25 Toshiba Corp Device and method for preparing acoustic model

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271182A (en) 2002-03-18 2003-09-25 Toshiba Corp Device and method for preparing acoustic model

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Y.Benahmed, et al.,Using Text-to-Speech Engine to Improve the Accuracy of a Speech-Enabled Interface,2007 Innovations in Information Technologies,IEEE,2007年11月,pp.302-306
中村哲,日本音響学会2017年秋季研究発表会講演論文集[CD-ROM],2017年09月,pp.1387-1390

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220254330A1 (en) * 2019-05-15 2022-08-11 Deepmind Technologies Limited Speech synthesis utilizing audio waveform difference signal(s)
US11915682B2 (en) * 2019-05-15 2024-02-27 Deepmind Technologies Limited Speech synthesis utilizing audio waveform difference signal(s)

Also Published As

Publication number Publication date
JP2019120841A (en) 2019-07-22

Similar Documents

Publication Publication Date Title
JP6989951B2 (en) Speech chain device, computer program and DNN speech recognition / synthesis mutual learning method
Chou et al. One-shot voice conversion by separating speaker and content representations with instance normalization
Taigman et al. Voiceloop: Voice fitting and synthesis via a phonological loop
CN112037754B (en) Method for generating speech synthesis training data and related equipment
KR20230003056A (en) Speech recognition using non-speech text and speech synthesis
CN106971709A (en) Statistic parameter model method for building up and device, phoneme synthesizing method and device
Cotescu et al. Voice conversion for whispered speech synthesis
EP4266306A1 (en) A speech processing system and a method of processing a speech signal
KR102272554B1 (en) Method and system of text to multiple speech
Huang et al. Towards identity preserving normal to dysarthric voice conversion
Kameoka et al. FastS2S-VC: Streaming non-autoregressive sequence-to-sequence voice conversion
Wu et al. Multilingual text-to-speech training using cross language voice conversion and self-supervised learning of speech representations
Cho et al. Learning speaker embedding from text-to-speech
Shah et al. Nonparallel emotional voice conversion for unseen speaker-emotion pairs using dual domain adversarial network & virtual domain pairing
Quamer et al. Zero-shot foreign accent conversion without a native reference
CN113470622A (en) Conversion method and device capable of converting any voice into multiple voices
CN113077783A (en) Method and device for amplifying Chinese speech corpus, electronic equipment and storage medium
JP6594251B2 (en) Acoustic model learning device, speech synthesizer, method and program thereof
JP7360814B2 (en) Audio processing device and audio processing program
Zhao et al. Research on voice cloning with a few samples
Huang et al. FlowCPCVC: A Contrastive Predictive Coding Supervised Flow Framework for Any-to-Any Voice Conversion.
CN114822497A (en) Method, apparatus, device and medium for training speech synthesis model and speech synthesis
WO2022039636A1 (en) Method for synthesizing speech and transmitting the authentic intonation of a clonable sample
KR20220067864A (en) Method for converting characteristics of voice
JP2021189402A (en) Voice processing program, voice processing device and voice processing method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R150 Certificate of patent or registration of utility model

Ref document number: 6989951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150