JP6806662B2 - Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method - Google Patents
Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method Download PDFInfo
- Publication number
- JP6806662B2 JP6806662B2 JP2017240349A JP2017240349A JP6806662B2 JP 6806662 B2 JP6806662 B2 JP 6806662B2 JP 2017240349 A JP2017240349 A JP 2017240349A JP 2017240349 A JP2017240349 A JP 2017240349A JP 6806662 B2 JP6806662 B2 JP 6806662B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- text
- speech
- data
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 79
- 238000003786 synthesis reaction Methods 0.000 title claims description 79
- 238000013179 statistical model Methods 0.000 title claims description 54
- 238000001308 synthesis method Methods 0.000 title claims description 15
- 238000000605 extraction Methods 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 32
- 239000000284 extract Substances 0.000 claims description 22
- 238000004458 analytical method Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 17
- 230000000877 morphologic effect Effects 0.000 claims description 16
- 230000010365 information processing Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000007619 statistical method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 244000000626 Daucus carota Species 0.000 description 6
- 235000002767 Daucus carota Nutrition 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Description
本発明は、音声合成システム、統計モデル生成装置、音声合成装置、音声合成方法に関する。 The present invention relates to a speech synthesis system, a statistical model generator, a speech synthesizer, and a speech synthesis method.
近年、電話の自動応答、公共交通機関や自治体のアナウンス、スマートフォンやパーソナルコンピュータのアプリケーションによる情報の読み上げ等、様々な分野において音声合成技術が導入されている。また昨今、音声認識、機械翻訳、対話生成等の技術が飛躍的に向上し、音声翻訳やサービスロボット等への実用化が急速に進められている。 In recent years, speech synthesis technology has been introduced in various fields such as automatic answering of telephone calls, announcements of public transportation and local governments, and reading of information by applications of smartphones and personal computers. In recent years, technologies such as voice recognition, machine translation, and dialogue generation have been dramatically improved, and practical application to voice translation, service robots, and the like is rapidly being promoted.
音声合成の方式としては様々なものが存在するが、中でもテキスト音声合成方式は重要技術の一つとして注目されている。一般的なテキスト音声合成方式は、テキストを発音記号列に変換するフロントエンド(Front-End)処理と、中間言語から音声波形を生成するバックエンド(Back-End)処理とを含む。昨今ではフロントエンド処理及びバックエンド処理の夫々にDNN (Deep Neural Network)等の統計的手法を適用したものも実用化されている。 There are various speech synthesis methods, but the text speech synthesis method is attracting attention as one of the important technologies. A general text-to-speech synthesis method includes a front-end process for converting text into a phonetic symbol string and a back-end process for generating a speech waveform from an intermediate language. In recent years, those to which statistical methods such as DNN (Deep Neural Network) are applied to front-end processing and back-end processing have been put into practical use.
また最近では、中間言語を経由することなく、入力されたテキストから直接音声を生成する、いわゆるETE(End-To-End)型の音声合成方式も登場している。ETE型の音声合成方式では、音声コーパスの発話テキストの言語特徴量と音声波形の音響特徴量との関係をDNN等の統計的手法により事前に統計モデルとして用意しておき、音声合成時は統計モデルに基づき音声合成の対象となるテキストに対応する音響特徴量を有する系列を生成して音声を合成する。 Recently, a so-called ETE (End-To-End) type speech synthesis method has also appeared, in which speech is directly generated from input text without going through an intermediate language. In the ET-type speech synthesis method, the relationship between the language features of the spoken text of the speech corpus and the acoustic features of the speech waveform is prepared in advance as a statistical model by a statistical method such as DNN, and statistics are obtained during speech synthesis. Based on the model, a series having acoustic features corresponding to the text to be voice-synthesized is generated and the voice is synthesized.
ところで、音声合成技術の利用現場においては、例えば、人名や固有名詞等についてユーザが指定した読み(発音)で音声合成を行いたいというニーズが少なからず存在し、ETE型の音声合成方式においてもユーザ辞書の機能に対するニーズは少なくない。しかしETE型の音声合成方式における統計モデルは、その全体(DNNモデル等)が一つの大きなモデルとして構成されており、膨大なデータを用いたETE型の音声合成方式の再学習には大量の計算機リソースが必要となり、ユーザ辞書の内容を学習データに追加したり新語を追加する度に統計モデルを再学習することは必ずしも現実的でない。 By the way, in the field of using speech synthesis technology, for example, there is a considerable need to perform speech synthesis with the reading (pronunciation) specified by the user for a person's name, a proper noun, etc., and the user also has an ET-type speech synthesis method. There are many needs for dictionary functions. However, the statistical model in the ETE-type speech synthesis method is configured as one large model as a whole (DNN model, etc.), and a large amount of computers are used for re-learning the ETE-type speech synthesis method using a huge amount of data. It requires resources, and it is not always practical to retrain the statistical model every time the contents of the user dictionary are added to the training data or new words are added.
本発明はこうした背景に鑑みてなされたものであり、ユーザが指定した読み(発音)での音声合成を行うことが可能なETE型の音声合成方式による音声合成システム等を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a speech synthesis system based on an ET-type speech synthesis method capable of performing speech synthesis with a reading (pronunciation) specified by a user. To do.
上記課題を解決するための本発明のうちの一つは、情報処理装置を用いて構成される音声合成システムであって、発話テキストと音声データとを対応づけた学習データに基づき、音声合成に用いる統計モデルを生成するモデル学習部と、前記発話テキストの全部又は一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成するテキスト置換部と、単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶する記憶部と、音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書において当該単語についての前記発音記号列で置き換えるユーザ辞書適用部と、前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成する音声合成処理部と、を備える。 One of the present inventions for solving the above problems is a speech synthesis system configured by using an information processing device, which is used for speech synthesis based on learning data in which spoken text and speech data are associated with each other. A model learning unit that generates a statistical model to be used, and a text replacement unit that generates data in which all or part of the spoken text is replaced with a phonetic symbol string and the speech data is associated with the speech data. , A storage unit that stores a user dictionary, which is data containing information corresponding to a word and a pronunciation symbol string for the word, and a target text, which is a text to be voice-synthesized, are included in the target text. A user dictionary application unit that replaces a word included in the user dictionary with the pronunciation symbol string for the word in the user dictionary, and a speech synthesis process based on the statistical model for the target text after the replacement. A speech synthesis processing unit that generates a synthetic speech by performing the above is provided.
本発明によれば、ユーザが指定した読み(発音)での音声合成を行うことが可能なETE型の音声合成方式による音声合成システム等を提供することができる。 According to the present invention, it is possible to provide a speech synthesis system based on an ET-type speech synthesis method capable of performing speech synthesis with a reading (pronunciation) specified by a user.
以下、本発明に係る実施形態を図面に参照しつつ説明する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
図1に本実施形態で説明する、ETE(End-To-End)型の音声合成方式により音声合成を行うシステム(以下、音声合成システム1と称する。)の概略的な構成を示している。 FIG. 1 shows a schematic configuration of a system (hereinafter, referred to as a speech synthesis system 1) that synthesizes speech by an ETE (End-To-End) type speech synthesis method described in the present embodiment.
音声合成システム1は、音声コーパス50の発話テキスト51の言語特徴量と音声データ52の音響特徴量との関係をDNN (Deep Neural Network)等の統計的手法(機械学習等)で学習することにより事前に統計モデル60を生成しておき、音声合成の対象となるテキスト(文章や句)(以下、入力テキスト700(対象テキスト)と称する。)に対応する音響特徴量を有する系列を統計モデル60に基づき生成して音声を合成する。
The speech synthesis system 1 learns the relationship between the language features of the
尚、本実施形態では、上記の統計的手法としてDNNを例として説明するが、統計的手法は必ずしも限定されず、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)等の他の統計的手法を用いてもよい。また以下ではテキストとして記述される言語が日本語である場合を例として説明するが、テキストとして記述される言語は他の言語であってもよいし、テキストには複数の言語が混在していてもよい。 In the present embodiment, DNN will be described as an example of the above statistical method, but the statistical method is not necessarily limited, and for example, another statistical method such as a Hidden Markov Model (HMM) may be used. You may use it. In the following, the case where the language described as text is Japanese will be described as an example, but the language described as text may be another language, and the text contains a mixture of multiple languages. May be good.
同図に示すように、音声合成システム1は、音声コーパス50、音声コーパス50に基づき統計モデル60を生成する統計モデル生成部100、及び、入力テキスト700に対応する音響特徴量を有する系列を生成し、生成した系列に基づき音声波形を合成して合成音声800を生成(出力)する音声合成部200、を含む。
As shown in the figure, the speech synthesis system 1 generates a
音声コーパス50は、発話テキスト51と、発話テキスト51と対応づけられた音声データ52(音声波形データ、符号化された音声データ等)とを含む。音声コーパス50は、統計モデル生成部100が統計モデル60を生成する際の学習データとして用いられる。
The
音声合成部200は、統計モデル60を用い、入力テキスト700について指定された発音や発話スタイル(例えば、会話調である、感情がこもっている等の発声上の特徴や、声の抑揚、大きさ、リズム、速さ、間の長さといった要素によって特徴付けられる発声上の特徴等)等に従った音声を合成する。
The
図2は音声合成システム1の実現に用いるハードウェアの一例として示す情報処理装置10(コンピュータ、計算機リソース)のブロック図である。同図に示すように、情報処理装置10は、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15、及び通信装置16を備える。これらは図示しないバス等の通信手段を介して互いに通信可能に接続されている。
FIG. 2 is a block diagram of an information processing device 10 (computer, computer resource) shown as an example of hardware used for realizing the speech synthesis system 1. As shown in the figure, the
尚、情報処理装置10は、その全ての構成が必ずしもハードウェアで実現されている必要はなく、例えば、構成の一部又は全部がクラウドシステムのクラウドサーバのような仮想的な資源によって実現されていてもよい。
It should be noted that the
プロセッサ11は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等を用いて構成される。プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行することにより、音声合成システム1の様々な機能が実現される。
The
主記憶装置12は、プログラムやデータを記憶する装置であり、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性半導体メモリ(NVRAM(Non Volatile RAM))等である。
The
補助記憶装置13は、例えば、ハードディスクドライブ、SSD(Solid State Drive)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDメモリカード、FD(フレキシブルディスク)等の記録媒体の読取/書込装置、クラウドサーバの記憶領域等である。補助記憶装置13に格納されているプログラムやデータは主記憶装置12に随時読み込まれる。音声コーパス50等の音声合成システム1が管理するデータは、例えば、補助記憶装置13をデータの格納領域として利用するDBMS(DataBase Management System)のデータベースに管理される。
The
入力装置14は、音声コーパス50や入力テキスト700を入力するためのインタフェース(又はユーザインタフェース)であり、例えば、キーボード、マウス、タッチパネル、カードリーダ、マイクロフォン、アンプ等である。尚、情報処理装置10が、通信装置16を介して他の装置との間で情報の入力を受け付ける構成としてもよい。
The
出力装置15は、各種の情報を出力するインタフェース(又はユーザインタフェース)であり、合成音声を出力する音声出力装置(スピーカ、アンプ等)を含む。尚、情報処理装置10は、ユーザに処理経過や処理結果等の各種情報を提供するインタフェース(例えば、音声出力装置(スピーカ等)、画面表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、印字装置等)を出力装置15として更に備えていてもよい。また情報処理装置10が、通信装置16を介して他の装置との間で情報の出力を行う構成としてもよい。
The
通信装置16は、LANやインターネット等の通信手段を介した他の装置との間の通信を実現する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、各種無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール、モデム等である。
The
尚、統計モデル生成部100、音声合成部200、音声コーパス50、及び統計モデル60は、これらの全てが共通のハードウェアで実現されていなくてもよく、通信可能に接続された複数のハードウェアに分散して配置されていてもよい。例えば、音声コーパス50及び統計モデル生成部100と、統計モデル60及び音声合成部200とを、独立した資源により構成してもよい。統計モデル60及び音声合成部200は、例えば、カーナビゲーション装置、スマートフォン、携帯電話機、パーソナルコンピュータ等のデバイスに組み込まれる。
The statistical
また統計モデル生成部100の後述する構成要素は、必ずしも共通のハードウェアで実現されていなくてもよく、通信可能に接続された複数のハードウェアに分散して配置されていてもよい。また音声合成部200の後述する構成要素は、必ずしも共通のハードウェアで実現されていなくてもよく、通信可能に接続された複数のハードウェアに分散して配置されていてもよい。
Further, the components described later of the statistical
また音声コーパス50や統計モデル60をクラウドサーバ等の通信ネットワーク上の資源に配置し、統計モデル生成部100や音声合成部200が有線方式又は無線方式の通信ネットワークを通じて音声コーパス50や統計モデル60にアクセスするようにしてもよい。
Further, the
また統計モデル生成部100と音声合成部200とを独立したハードウェアに配置し、統計モデル生成部100によって生成された統計モデル60を、物理的な記録媒体(光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ハードディスクドライブ、SSD、ICカード、SDメモリカード等)や有線方式又は無線方式の通信ネットワークを介して音声合成部200に提供するようにしてもよい。
Further, the statistical
図3は、図1に示した音声合成システム1の構成を詳細に説明する図である。同図に示すように、統計モデル生成部100は、テキスト置換部110、及びモデル学習部120の各機能を有する。
FIG. 3 is a diagram for explaining the configuration of the speech synthesis system 1 shown in FIG. 1 in detail. As shown in the figure, the statistical
テキスト置換部110は、音声コーパス50の発話テキスト51の一部又は全部をテキストデータ形式の発音記号列で置き換える。より詳細には、テキスト置換部110は、発話テキスト51の一部又は全部をテキストデータ形式の発音記号列で置き換える。
The
図4は図3のテキスト置換部110の詳細を説明する図である。同図に示すように、テキスト置換部110は、置換単語抽出部111、音声特徴量抽出部112、発音記号列生成部113、及びテキスト置換処理部115を含む。
FIG. 4 is a diagram illustrating details of the
置換単語抽出部111は、音声コーパス50の発話テキスト51のうち、発音記号列への置き換えの対象とする単語(例えば、固有名詞等)を抽出する。尚、以下の説明において、「単語」という場合、1文字、1単語、複数の単語の塊、句、節、文等、後述するユーザ辞書212への登録対象となりうる全ての態様を含むものとする。
The replacement
ここでこのように発話テキスト51から置き換えの対象とする単語を抽出するのは、音声コーパス50の全ての発話テキスト51の全ての単語を発音記号列に置き換えてしまうと、音声合成部200による音声合成に際し発音記号列の入っていないテキスト(以下、ノーマルテキストと称する。)に基づく音声合成ができなくなってしまうからである。そこで例えば、ユーザ辞書の機能を実現することが目的である場合、置換単語抽出部111は、例えば、ユーザ辞書に登録される可能性のある単語を置き換えの対象となる単語として抽出する。
Here, the words to be replaced are extracted from the
図5は、図4に示した置換単語抽出部111の詳細を説明する図である。同図に示すように、置換単語抽出部111は、形態素解析部1111及び単語抽出部1112の各機能を有する。
FIG. 5 is a diagram for explaining the details of the replacement
また置換単語抽出部111は、単語抽出用データ106を記憶する。単語抽出用データ106には、単語抽出部1112が発音記号列への置き換えの対象となる単語として抽出するか否かの判定の基準となる情報が含まれる。単語抽出用データ106の内容は、例えば、ユーザが設定する。尚、置換単語抽出部111が、例えば、統計的手法(機械学習等)を用いて自動的に単語を抽出するようにしてもよい。
Further, the replacement
形態素解析部1111は、形態素解析を行って発話テキスト51を言語の最小単位(日本語の場合は形態素)に分割する。例えば、発話テキスト51が「外国人参政権」である場合、形態素解析部1111は、これを「外国」、「人」、「参政」、「権」という4つの単語に分割する。
The
単語抽出部1112は、形態素解析部2101によって分割されることにより得られた単語から、発音記号列への置き換えの対象となる単語を抽出する。ここで上記抽出の方法は必ずしも限定されないが、例えば、ルールベース手法や統計ベース手法を用いて行うことができる。例えば、鉄道放送向けの音声合成システム1を構築する場合、後述するユーザ辞書212に駅名が登録されることを想定し、置換単語抽出部111は発話テキスト51から駅名を抽出する。具体的には、例えば、入力テキスト700が「新宿さんが新宿で電車を降りました。」であり、単語抽出用データ106が「表記=新宿、読み=しんじゅく、属性=駅名」である場合、単語抽出部2102は、「駅名」として「新宿」が使われている単語のみを抽出する。但しこのように駅名のみを置換するようにした場合には、アクセント型に偏りが生じる可能性がある。そこでユーザ辞書に登録される可能性のある単語を全体的に高品質に読み上げることができるように、例えば、置換単語抽出部111が、単語の音韻のバランス(選択した単語の音素つながりが偏っていないこと)や韻律のバランス(アクセント型、文中における位置などが偏っていないこと)を考慮して音声コーパス50全体の発話テキスト51から単語を適宜選択する(必要であれば駅名以外の単語も抽出対象とする)ようにしてもよい。
The
図6は、図4に示した音声特徴量抽出部112の詳細を説明する図である。音声特徴量抽出部112は、音声コーパス50の音声データ52から、例えば、発音(音素)、発話スタイル、韻律等を音声特徴量として抽出する。
FIG. 6 is a diagram for explaining the details of the voice feature
同図に示すように、音声特徴量抽出部112は、発音(音素)抽出部1121、発話スタイル抽出部1122、及び韻律特徴抽出部1123を有する。発音(音素)抽出部1121は、音声コーパス50の音声データ52から発音(音素)情報を抽出する。発話スタイル抽出部1122は、音声コーパス50の音声データ52から発話スタイル情報を抽出する。韻律特徴抽出部1123は、音声コーパス50の音声データ52から韻律特徴情報を抽出する。このように発音(音素)のみならず発話スタイルや韻律に関する情報を抽出して発音記号列に組み込むことで、合成音声の発話スタイルや抑揚をチューニングすることが可能になる。音声特徴量抽出部112は、更に別の情報を音声特徴量104として抽出してもよい。音声特徴量抽出部112が行う処理は、例えば、音声認識技術やテキスト解析技術等を用いて情報処理装置により自動的に行うことができる。尚、上記処理の一部又は全部を手動で行ってもよい。
As shown in the figure, the voice
尚、発音(音素)情報は、例えば、発話テキスト51から言語処理技術によって抽出することができるが、例えば「明日」という単語が「あした」又は「あす」のうちのいずれで発音されるのか等、言語処理技術では発音を一意に決定することができないことがあるが、その場合は例えば音声認識技術を用いて音声データ52に基づき正確な発音を抽出するようにしてもよい。例えば、ある音声データ52に対応する発話テキスト51が「明日は晴れです。」である場合、音声特徴量抽出部112は音声データ52について音声認識技術を適用することにより「アスワハレデス」という発音(音素)情報を抽出する。
The pronunciation (phoneme) information can be extracted from the spoken
図4に戻り、発音記号列生成部113は、音声特徴量抽出部112が抽出した音声特徴量104に基づき発音記号列105を生成(音声特徴量104を発音記号列で表現)する。発音記号列105の記述方法は必ずしも限定されないが、例えば、日本語の場合、発音記号列生成部113は、音声特徴量抽出部112が抽出した音声特徴量104に基づき、JIETA(一般社団法人電子情報技術産業協会)が規定する日本語テキスト音声合成用記号(JEITA IT-4006)を生成する。
Returning to FIG. 4, the phonetic symbol
尚、一般的なテキストに用いる文字コードに含まれていないコード(記号コードや特殊コード等)を用いることで、読み(発音)指定の精度を高めることができる。例えば、発音記号列生成部113は、音声特徴量抽出部112が抽出した発音「アスワハレデス」を、「アス'ワ ハレ'テ゛ス%.」という一般的なテキストに用いる文字コードに含まれていないコードを含む発音記号列に変換する。尚、発音(音素)情報以外に、更にアクセント情報や韻律境界情報、ポーズ情報等の情報を付加して読み指定の品質を高めるようにしてもよい。
By using a code (symbol code, special code, etc.) that is not included in the character code used for general text, the accuracy of reading (pronunciation) designation can be improved. For example, the phonetic symbol
テキスト置換処理部115は、発話テキスト51について、置換単語抽出部111が抽出した単語(同図における、抽出した単語103)を、これに対応する発音記号列生成部113が生成した発音記号列で置き換えた発話テキスト(以下、発音記号列を含む発話テキスト102と称する。)を生成する。
The text
図3に戻り、テキスト置換処理部115は、テキスト置換部110が生成した、発音記号列を含む発話テキスト102を、これに対応する音声データ52と組み合わせて新たな学習データとして音声コーパス50に追加する。これによりテキスト置換部110が発音記号列を含む発話テキスト102を生成する度に音声コーパス50に学習データが追加されていくことになる。
Returning to FIG. 3, the text
具体例を示すと、例えば、発話テキスト51が「次の停車駅は新宿です。」であり、置換単語抽出部111が、この発話テキスト51から「新宿」という単語(抽出した単語103)を抽出した場合、テキスト置換処理部115は、「次の停車駅はシンシ゛ュクです。」という、発音記号列を含む発話テキスト102を生成する。テキスト置換処理部115は、生成した発音記号列を含む発話テキスト102を、対応する音声データ52と組み合わせて音声コーパス50に追加する。
To give a specific example, for example, the
尚、テキスト置換処理部115は、テキスト置換部110が生成した、発音記号列を含む発話テキスト102とこれに対応する音声データ52との組合せを、上記のように新たに音声コーパス50に追加してもよいし、音声コーパス50の、発音記号列に置換する前の発話テキスト51と音声データ52の組合せにおける発話テキスト51を、発音記号列を含む発話テキスト102に置換するようにしてもよい(即ち、音声コーパス50の既存の組合せを更新する)。
In addition, the text
図3に示すモデル学習部120は、音声コーパス50に含まれている、全ての発話テキスト51と音声データ52との組合せ(テキスト置換処理部115により新たに追加された組合せを含む)を学習データとして学習(機械学習等)を行い、統計モデル60を生成する。尚、このように学習データには発音記号列を含む発話テキスト102が含まれているため、生成された統計モデル60を用いることで、ノーマルテキストのみならず発音記号列を含むテキストについても音声合成を行うことができる。
The
続いて、図3に示した音声合成部200について説明する。同図に示すように、音声合成部200は、ユーザ辞書適用部210、及び音声合成処理部220の各機能を有する。
Subsequently, the
ユーザ辞書適用部210は、入力テキスト700に基づく音声合成の際、入力テキスト700中にユーザ辞書に登録されている単語を検出すると、検出した単語を当該単語についてユーザ辞書212で指定されている発音記号列に置き換え、発音記号列を含むテキスト203を生成する。尚、ユーザ辞書適用部210の機能は、単純な文字列置換のアルゴリズムによって実現することもできるが、入力テキスト700が日本語のように単語の間に明確な分割文字が存在しない言語で記述されている場合、単純な文字列置換のアルゴリズムでは上記の置き換えを正しく行うことができないことがある。例えば、ユーザ辞書212に「表記=人参、読み(発音記号列)=ニンシ゛ン」というデータが含まれている場合、単純な文字列置換のアルゴリズムでは「外国人参政権」が「外国ニンシ゛ン政権」に置き換えられてしまうとことがある。そこで本実施形態のユーザ辞書適用部210は、以下のようにして発音記号列を含むテキスト203を生成する。
When the user
図7は、ユーザ辞書適用部210の詳細を説明する図である。同図に示すように、ユーザ辞書適用部210は、形態素解析部2101、単語抽出部2102、及び発音記号列置換部2103を有する。
FIG. 7 is a diagram illustrating details of the user
またユーザ辞書適用部210は、単語抽出用データ211及びユーザ辞書212を記憶する。単語抽出用データ211には、単語抽出部2102が置き換えの対象となる単語として抽出するか否かの判定の基準となる情報が含まれる。ユーザ辞書212は、単語(表記)と読み(発音記号列)とを対応づけた情報が含まれる。
Further, the user
形態素解析部2101は、形態素解析を行って入力テキスト700を言語の最小単位(日本語の場合は形態素)に分割する。例えば、入力テキスト700として「外国人参政権」が入力された場合、形態素解析部2101は、これを「外国」、「人」、「参政」、「権」という4つの単語に分割する。このため、例えば、ユーザ辞書212に「表記=人参、読み(発音記号列)=ニンシ゛ン」といった内容が登録されていた場合でも誤って置き換えてしまうことはない。
The
単語抽出部2102は、形態素解析部2101によって分割された単語から、発音記号列への置き換え対象とする単語(例えば、固有名詞等)を抽出する。この抽出の方法は必ずしも限定されないが、例えば、ルールベース手法や統計ベース手法を用いて行う。前述した単語抽出部1112と同様であるが、例えば、入力テキスト700が「新宿さんが新宿で電車を降りました。」であり、単語抽出用データ211に「表記=新宿、読み=しんじゅく、属性=駅名」が登録されている場合、単語抽出部2102は、「駅名」として「新宿」が使われている単語を抽出する。
The
発音記号列置換部2103は、単語抽出部2102が抽出した単語のうち、ユーザ辞書212に登録されている単語を当該単語についてユーザ辞書212に登録されている読み(発音記号列)で置き換える。上記の例において、例えば、ユーザ辞書212に「表記=新宿、読み(発音記号列)=シンシ゛ュク」が登録されていた場合、発音記号列置換部2103は、「新宿さんが新宿で電車を降りました。」という入力テキスト700を「新宿さんがシンシ゛ュクで電車を降りました。」というテキストに置換する。
The phonetic symbol
尚、形態素解析部2101及び単語抽出部2102としては、前述した統計モデル生成部100の置換単語抽出部111における、形態素解析部1111及び単語抽出部1112と同じもの(アルゴリズムが共通するもの)を用いることが好ましい。また発音記号列置換部2103としては、前述したテキスト置換部110のテキスト置換処理部115と同じもの(アルゴリズムが共通するもの)を用いることが好ましい。このように統計モデル生成部100と音声合成部200とで共通のアルゴリズムを用いることで合成音声の品質を高めることができる。
As the
図3に戻り、音声合成処理部220は、統計モデル60を用い、入力テキスト700から合成音声800を生成する。音声合成処理部220は、例えば、非特許文献1のように直接音声波形を生成する方法、非特許文献2のようにフレームごとに音声パラメータを生成した後に音声を生成する手法、非特許文献3のようなDNNで選択した音声素片をつなぎ合わせることで音声合成する手法等により、合成音声800を生成する。
Returning to FIG. 3, the speech
尚、例えば、音声コーパス50に入力テキスト700に対応する発話テキスト51が含まれていない場合にモデル学習部120統計的手法(機械学習等)により類推して統計モデル60を生成するようにしてもよい。例えば、発音記号列を含む発話テキスト102として「シンジュク」を含むものが音声コーパス50に含まれていない場合に、モデル学習部120が、統計的手法により類推して「シンジュク」と音声データ52との対応を含む統計モデル60を生成するようにする。
For example, when the
以上詳細に説明したように、本実施形態の音声合成システム1は、発話テキスト51の一部の単語を発音記号列で置き換えた発話テキスト51と音声データ52とを対応づけた学習データを含んだ音声コーパス50により統計モデル60を予め学習しておき、入力テキスト700について、当該入力テキスト700に含まれている単語のうちユーザ辞書212に含まれている単語をユーザ辞書212における当該単語に対応づけられている発音記号列で置き換え、置き換え後の入力テキスト700について統計モデル60に基づく音声合成処理を行うことにより合成音声を生成する。そのため、統計モデル60を再学習させることなく、ユーザが指定した読み(発音)での音声合成を行うことが可能できる。このように本実施形態によれば、ユーザが指定した読み(発音)での音声合成を行うことが可能なETE型の音声合成方式による実用的な音声合成システムを実現することができる。
As described in detail above, the speech synthesis system 1 of the present embodiment includes learning data in which the
以上、本発明について実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加・削除・置換をすることができる。 Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist thereof. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the above embodiment with another configuration.
また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサが夫々の機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functional units, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
また各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 Further, in each figure, control lines and information lines are shown as necessary for explanation, and not all control lines and information lines in mounting are necessarily shown. For example, in practice almost all configurations may be considered interconnected.
また以上に説明した情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、各情報処理装置がハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 Further, the arrangement form of various functional units, various processing units, and various databases of the information processing apparatus described above is only an example. The arrangement form of various function units, various processing units, and various databases can be changed to the optimum arrangement form for each information processing device from the viewpoints of hardware and software performance, processing efficiency, communication efficiency, and the like.
1 音声合成システム、10 情報処理装置、50 音声コーパス、51 発話テキスト、52 音声データ、60 統計モデル、100 統計モデル生成部、102 発音記号列を含むテキスト、103 抽出した単語、104 音声特徴量、105 発音記号列、106 単語抽出用データ、110 テキスト置換部、111 置換単語抽出部、1111 形態素解析部、1112 単語抽出部、112 音声特徴量抽出部、1121 発音(音素)抽出部、1122 発話スタイル抽出部、1123 韻律特徴抽出部、113 発音記号列生成部、115 テキスト置換処理部、120 モデル学習部、200 音声合成部、203 発音記号列を含むテキスト、202 発音記号列を含むテキスト、210 ユーザ辞書適用部、211 単語抽出用データ、212 ユーザ辞書、2101 形態素解析部、2102 単語抽出部、2103 発音記号列置換部、700 入力テキスト、800 合成音声 1 Speech synthesis system, 10 Information processing device, 50 Speech corpus, 51 Speech text, 52 Speech data, 60 Statistical model, 100 Statistical model generator, 102 Text including pronunciation symbol string, 103 Extracted words, 104 Speech features, 105 pronunciation symbol string, 106 word extraction data, 110 text replacement unit, 111 replacement word extraction unit, 1111 morphological analysis unit, 1112 word extraction unit, 112 speech feature extraction unit, 1121 pronunciation (sound element) extraction unit, 1122 speech style Extraction unit, 1123 Prosodic feature extraction unit, 113 pronunciation symbol string generation unit, 115 text replacement processing unit, 120 model learning unit, 200 speech synthesis unit, 203 text including pronunciation symbol string, 202 text including pronunciation symbol string, 210 users Dictionary application unit, 211 word extraction data, 212 user dictionary, 2101 morphological analysis unit, 2102 word extraction unit, 2103 pronunciation symbol string replacement unit, 700 input text, 800 synthetic speech
Claims (15)
前記発話テキストの一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成するテキスト置換部と、
単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶する記憶部と、
を有する統計モデル生成装置と、
音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書における当該単語に対応づけられている前記発音記号列で置き換えるユーザ辞書適用部と、
前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成する音声合成処理部と、
を有する音声合成装置と、
を備えた音声合成システム。 A model learning unit that generates a statistical model used for speech synthesis based on learning data that associates utterance text with speech data.
A text replacement unit that generates data in which the utterance text in which some words of the utterance text are replaced with phonetic symbol strings and the voice data are associated with the learning data
A storage unit that stores a user dictionary, which is data containing information corresponding to a word and a phonetic symbol string for the word, and a storage unit.
Statistical model generator with
Regarding the target text, which is the text to be voice-synthesized, the phonetic symbol string in which the word included in the user dictionary among the words included in the target text is associated with the word in the user dictionary. User dictionary application part to be replaced with
A speech synthesis processing unit that generates synthetic speech by performing speech synthesis processing based on the statistical model for the target text after the replacement,
With a voice synthesizer
Speech synthesis system equipped with.
前記テキスト置換部は、前記音声データから音声特徴量を抽出し、抽出した音声特徴量に基づき発音記号列を生成し、前記発話テキストの一部の単語を前記発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成する、
音声合成システム。 The voice synthesis system according to claim 1.
The text replacement unit extracts a voice feature amount from the voice data, generates a pronunciation symbol string based on the extracted voice feature amount, and replaces a part of the words in the speech text with the speech symbol string. The data associated with the voice data is generated as the training data.
Speech synthesis system.
前記テキスト置換部は、前記音声データについて音声認識を行うことにより前記発音記号列を生成する、
音声合成システム。 The voice synthesis system according to claim 2.
The text replacement unit generates the phonetic symbol string by performing voice recognition on the voice data.
Speech synthesis system.
前記音声特徴量は、発音(音素)、発話スタイル、及び韻律のうちの少なくともいずれかである、
音声合成システム。 The voice synthesis system according to claim 2.
The speech feature is at least one of pronunciation (phoneme), speech style, and prosody.
Speech synthesis system.
前記テキスト置換部は、形態素解析のアルゴリズムにより前記発話テキストを複数の単語に分割し、
前記ユーザ辞書適用部は、前記形態素解析のアルゴリズムと共通のアルゴリズムにより前記対象テキストを複数の単語に分割する、
音声合成システム。 The voice synthesis system according to claim 1.
The text replacement unit divides the utterance text into a plurality of words by an algorithm of morphological analysis.
The user dictionary application unit divides the target text into a plurality of words by an algorithm common to the algorithm of the morphological analysis.
Speech synthesis system.
前記テキスト置換部は、発音記号列への置き換え対象とする単語を単語抽出アルゴリズムにより前記発話テキストから抽出し、
前記ユーザ辞書適用部は、発音記号列への置き換え対象とする単語を前記単語抽出アルゴリズムと共通のアルゴリズムにより前記対象テキストから抽出する、
音声合成システム。 The voice synthesis system according to claim 1.
The text replacement unit extracts a word to be replaced with a phonetic symbol string from the utterance text by a word extraction algorithm.
The user dictionary application unit extracts a word to be replaced with a phonetic symbol string from the target text by an algorithm common to the word extraction algorithm.
Speech synthesis system.
前記学習データは音声コーパスである、
音声合成システム。 The voice synthesis system according to claim 1.
The learning data is a voice corpus,
Speech synthesis system.
前記テキスト置換部は、発音記号列への置き換え対象とする単語を、抽出した単語の音韻又は韻律のバランスを考慮した単語抽出アルゴリズムにより、前記音声コーパスの発話テキストから抽出する、
音声合成システム。 The voice synthesis system according to claim 7.
The text replacement unit extracts a word to be replaced with a phonetic symbol string from the spoken text of the voice corpus by a word extraction algorithm considering the phonological or prosodic balance of the extracted word.
Speech synthesis system.
前記モデル学習部は、DNN(Deep Neural Network)により前記統計モデルを生成する、
音声合成システム。 The voice synthesis system according to claim 1.
The model learning unit generates the statistical model by DNN (Deep Neural Network).
Speech synthesis system.
ETE(End-To-End)型音声合成システムである、
音声合成システム。 The voice synthesis system according to claim 1.
ETE (End-To-End) type speech synthesis system,
Speech synthesis system.
発話テキストと音声データとを対応づけた学習データに基づき、音声合成に用いる統計モデルを生成する前記モデル学習部と、
前記発話テキストの一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成する前記テキスト置換部と、
を備える、統計モデル生成装置。 The statistical model generator in the speech synthesis system according to claim 1.
The model learning unit that generates a statistical model used for speech synthesis based on the learning data that associates the utterance text with the speech data.
The text replacement unit that generates data in which the utterance text in which some words of the utterance text are replaced with phonetic symbol strings and the voice data are associated with each other as the learning data.
A statistical model generator equipped with.
前記学習データは音声コーパスである、
統計モデル生成装置。 The statistical model generator according to claim 11.
The learning data is a voice corpus,
Statistical model generator.
前記モデル学習部は、DNN(Deep Neural Network)により前記統計モデルを生成する、
統計モデル生成装置。 The statistical model generator according to claim 11.
The model learning unit generates the statistical model by DNN (Deep Neural Network).
Statistical model generator.
単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶する前記記憶部と、
音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書における当該単語に対応づけられている前記発音記号列で置き換える前記ユーザ辞書適用部と、
前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成する前記音声合成処理部と、
を備える、音声合成装置。 The voice synthesizer in the voice synthesis system according to claim 1.
The storage unit that stores a user dictionary, which is data including information corresponding to a word and a phonetic symbol string for the word,
Regarding the target text, which is the text to be voice-synthesized, the phonetic symbol string in which the word included in the user dictionary among the words included in the target text is associated with the word in the user dictionary. The user dictionary application part to be replaced with
The speech synthesis processing unit that generates synthetic speech by performing speech synthesis processing based on the statistical model for the target text after the replacement,
A voice synthesizer equipped with.
発話テキストと音声データとを対応づけた学習データに基づき、音声合成に用いる統計モデルを生成するステップ、
前記発話テキストの一部の単語を発音記号列で置き換えた発話テキストと音声データとを対応づけたデータを前記学習データとして生成するステップ、
単語と当該単語についての発音記号列とを対応づけた情報を含むデータであるユーザ辞書を記憶するステップ、
音声合成の対象となるテキストである対象テキストについて、当該対象テキストに含まれている単語のうち前記ユーザ辞書に含まれている単語を前記ユーザ辞書における当該単語に対応づけられている前記発音記号列で置き換えるステップ、及び、
前記置き換え後の前記対象テキストについて前記統計モデルに基づく音声合成処理を行うことにより合成音声を生成するステップ、
を実行する、音声合成方法。 Information processing device
Steps to generate a statistical model used for speech synthesis based on learning data that associates spoken text with speech data,
A step of generating as the training data data in which the utterance text in which some words of the utterance text are replaced with phonetic symbol strings and the voice data are associated with each other.
A step of storing a user dictionary, which is data containing information corresponding to a word and a phonetic symbol string for the word.
Regarding the target text, which is the text to be voice-synthesized, the phonetic symbol string in which the word included in the user dictionary among the words included in the target text is associated with the word in the user dictionary. Steps to replace with, and
A step of generating a synthesized voice by performing a voice synthesis process based on the statistical model on the target text after the replacement.
A speech synthesis method that executes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240349A JP6806662B2 (en) | 2017-12-15 | 2017-12-15 | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017240349A JP6806662B2 (en) | 2017-12-15 | 2017-12-15 | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109278A JP2019109278A (en) | 2019-07-04 |
JP6806662B2 true JP6806662B2 (en) | 2021-01-06 |
Family
ID=67179602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017240349A Active JP6806662B2 (en) | 2017-12-15 | 2017-12-15 | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6806662B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7228998B2 (en) * | 2018-08-27 | 2023-02-27 | 日本放送協会 | speech synthesizer and program |
CN112289303B (en) * | 2019-07-09 | 2024-04-16 | 北京京东振世信息技术有限公司 | Method and device for synthesizing voice data |
CN114787913A (en) * | 2019-12-13 | 2022-07-22 | 谷歌有限责任公司 | Training speech synthesis to generate different speech sounds |
CN112667865A (en) * | 2020-12-29 | 2021-04-16 | 西安掌上盛唐网络信息有限公司 | Method and system for applying Chinese-English mixed speech synthesis technology to Chinese language teaching |
JP7432000B2 (en) | 2021-05-25 | 2024-02-15 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Audio reproduction system, tone composition method and device for audio reproduction, electronic equipment, storage medium, and computer program |
-
2017
- 2017-12-15 JP JP2017240349A patent/JP6806662B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019109278A (en) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6806662B2 (en) | Speech synthesis system, statistical model generator, speech synthesizer, speech synthesis method | |
US8990089B2 (en) | Text to speech synthesis for texts with foreign language inclusions | |
Isewon et al. | Design and implementation of text to speech conversion for visually impaired people | |
US9761219B2 (en) | System and method for distributed text-to-speech synthesis and intelligibility | |
CN110797006B (en) | End-to-end speech synthesis method, device and storage medium | |
CN104899192B (en) | For the apparatus and method interpreted automatically | |
El Ouahabi et al. | Toward an automatic speech recognition system for amazigh-tarifit language | |
JP7110055B2 (en) | Speech synthesis system and speech synthesizer | |
JP2024514064A (en) | Phonemes and Graphemes for Neural Text-to-Speech | |
Dagba et al. | A Text To Speech system for Fon language using Multisyn algorithm | |
Raghavendra et al. | A multilingual screen reader in Indian languages | |
Alam et al. | Development of annotated Bangla speech corpora | |
CN111968619A (en) | Method and device for controlling voice synthesis pronunciation | |
Hendessi et al. | A speech synthesizer for Persian text using a neural network with a smooth ergodic HMM | |
CN111489742A (en) | Acoustic model training method, voice recognition method, device and electronic equipment | |
US11250837B2 (en) | Speech synthesis system, method and non-transitory computer readable medium with language option selection and acoustic models | |
Carson-Berndsen | Multilingual time maps: portable phonotactic models for speech technology | |
Le et al. | First steps in building a large vocabulary continuous speech recognition system for Vietnamese | |
Nair et al. | Indian text to speech systems: A short survey | |
Dika et al. | The principles of designing of algorithm for speech synthesis from texts written in Albanian language | |
Thangthai et al. | A learning method for Thai phonetization of English words | |
Mutawa | Machine Learning for Arabic Text To Speech Synthesis: a Tacotron Approach | |
Koşaner et al. | Improving Turkish language training materials: Grapheme-to-phoneme conversion for adding phonemic transcription into dictionary entries and course books | |
Hassana et al. | Text to Speech Synthesis System in Yoruba Language | |
He et al. | Automatic Stress Annotation and Prediction for Expressive Mandarin TTS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6806662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |