JPH02240699A - 音声合成装置 - Google Patents

音声合成装置

Info

Publication number
JPH02240699A
JPH02240699A JP1061761A JP6176189A JPH02240699A JP H02240699 A JPH02240699 A JP H02240699A JP 1061761 A JP1061761 A JP 1061761A JP 6176189 A JP6176189 A JP 6176189A JP H02240699 A JPH02240699 A JP H02240699A
Authority
JP
Japan
Prior art keywords
section
processing
language processing
language
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1061761A
Other languages
English (en)
Inventor
Kenji Matsui
謙二 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1061761A priority Critical patent/JPH02240699A/ja
Publication of JPH02240699A publication Critical patent/JPH02240699A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、テキストを音声に変換する音声合成装置に関
する。
従来の技術 任意のテキストを自然性の高い音声に変換するには大き
く分けて2種類の処理が必要である。その一つは言語処
理部である。この言語処理部に要求される機能は、1)
入力された文章を単語や文節に分割し、それぞれに読み
、アクセント、品詞情報などを付与する、2)記号や数
詞等の処理、読みの選択、変更(連濁等)を行う、3)
複合単語や文節のアクセント型を決定する、4)構文解
析を行い自然な音声の合成に必要な構文情報を得る1、
・・・1等である。
もう一つの重要なブロックは音響処理部である。
音響処理部の主な機能は、1)ポーズ位置やポーズ長の
決定、音韻変形処理(母音の無声化等)。
2)各音韻の持続時間長の決定、3)イントネーシ日ン
(基本周波数)の決定、4)調音結合による音素や音韻
の変形処理、5)音声合成部用パラメータの生成、6)
このようにして生成された音声合成部用パラメータによ
り音声合成部がリアルタイムで所望の音声信号を合成す
る1、・・・。
等である。
通常はこれらの一連の処理はコンピュータシステム上で
そのプログラムとして実現される。そして、言語処理部
と音響処理部とは汎用の主プロセツサが受持ち、合成部
は信号処理用のプロセッサにより受は持たれるという手
法が現在の通例である。
第5図は従来の音声合成装置の構成を示すものである。
同図に於て、21は言語音響処理モジュール、22は合
成器モジュール、23はテキスト入力部、24は言語処
理部、25は音響処理部、26は音声合成部である。こ
こでCPUとは汎用のマイクロプロセッサのことであり
、DSPとはディジタル信号処理用のマイクロプロセッ
サのことである。
発明が解決しようとする課題 本来、言語処理部、音響処理部はそれぞれまとまった処
理単位であり、モジュール化に適した処理単位であるが
、上記従来例では、主プロセツサが言語処理と音韻処理
部などの音響処理とを交互に処理するので、例えば言語
処理部で詳細な構文解析や意味理解を行う場合、主プロ
セツサで言語処理と音韻処理両方をおこなっていたので
はブロッセサの負荷が重くなりすぎ高速な処理が期待で
きない。また、ユーザーの希望が音響処理部のみを持っ
て発音記号入力を行いたい場合や、場合によって異なっ
た言語を合成したい場合、主プロセツサが全体を処理す
るようでは、モジュール化が難しい。
本発明の目的は、上記従来例の欠点に鑑み、言語処理お
よび音響処理が効率的に、かつ独立して使用でき、多種
類の言語に対応できる音声規則合成装置の実現にある。
課題を解決するための手段 (1)テキストの情報を入力できるテキスト入力部と、
このテキスト入力部から出力されるテキスト記号列を発
音記号列やアクセント記号列や構文情報等の言語情報に
変換する言語処理部と、この言語処理部から出力される
発音記号列やアクセント記号列や構文情報等の言語情報
から入力テキストに対応した音声の特徴パラメータに変
換する音響処理部と、この音響処理部から出力される音
声の特徴パラメータを音声信号に変換する音声合成部と
、この音声合成部から出力される音声信号を音声に変換
する電気音響変換部とを具備し、上記言語処理部と上記
音響処理部とがそれぞれ独自のプロセッサを持つことを
構成要件とするものである。
(2)さらに(1)の構成において、言語処理部が音響
処理部に対して着脱可能となる対音響処理接続部と、言
語処理結果をホストコンピュータ等に出力することがで
きる言語処理結果出力部とを具備し、上記音響処理部が
上記言語処理部に対して着脱可能となる対言語処理接続
部と、外部のホストコンピュータ等から発音記号やアク
セント情報を入力できる音響処理部用テキスト入力部と
を具備し、言語処理部が音響処理部に装着されていると
きには漢字かな混じり文を人力でき、言語処理部が音響
処理部から切り放されている場合は、上記音響処理部用
テキスト入力部より発音記号とアクセント情報が入力で
き、かつ上記言語処理部は外部のホストコンピュータ等
に上記言語処理結果出力部を介して言語処理出力結果を
出力できる構成とするものである。
(3)さらに(1)または(2)の構成において、言語
処理部が多種の言語に対して用意されており、所望の言
語用の言語処理部をそのつど交換して装着するか、ある
いは複数個の言語処理部が同時に装着できる音響処理部
内の対言語処理接続部を持つことを構成要件とするもの
である。
作   用 上記手段を用いることにより例えば音響処理部が処理を
行っている間に言語処理部は次の処理を独立に行えるの
で、全体の処理が高速に行える。
さらにこの言語処理部を音響処理部から着脱可能にすれ
ば、ユーザーによって言語処理部が不用なとき装置を小
型化かつ場合によっては低価格化できる。さらに、この
言語処理部を複数の言語に対してそれぞれ用意すれば、
色々な言語を同一の装置で合成できる。
実施例 第1図は、音響処理部及び言語処理部が効率的に動作す
ることを目的とした本発明の一実施例に於ける音声合成
装置の構成を示すものである。
同図に於て、1は第1のCPUを備えた言語処理モジュ
ール、2は第2のCPUを備えた音響処理モジュール、
3はDSPを備えた合成器モジュール、4は言笥処理モ
ジュール1内のテキスト入力部、5は言語処理モジュー
ル1内の言語処理部、6は言語処理部出力を音響処理モ
ジュール2内の音響処理部9に送るために必要なバッフ
ァ等を備えた対音響処理接続部、7は音響処理モジュー
ル2内の対言語処理接続部、8は音響処理モジュール2
に発音記号やイントネーシ日ンを入力するためのテキス
ト入力部、10は合成器モジュール3内の音声合成部で
ある。
上記のように構成された本実施例の音声合成装置につい
て以下その動作を説明する。
全体の装置内には3つのモジュール、すなわち言語処理
モジュール1、音響処理モジュール2および合成器モジ
ュール3があり、基本動作としては言語処理モジュール
1はテキスト入力部4と言語処理部5とを受持ち、音響
処理モジュール2は音響処理部9を受は持つ。また、合
成器モジュール3は音声合成部10を実現している。
合成しようとするテ率スト情報はASCII等の文字コ
ードの形態で言語処理モジュール1のテキスト入力部4
に入力される。このテキスト入力部4は外部機器とのイ
ンタフェースとしての機能を持ち、送られてきた文字コ
ードデータを言語処理モジュール1内に取り込む。次に
、言語処理部5で入力テキストについて、1)単語や文
節に分割し、それぞれに読み、アクセント、品詞情報な
どを付与する、2)記号や数詞等の処理、読みの選択、
変更(連濁等)を行う、3)複合単語や文節のアクセン
ト型を決定する、4)構文解析を行い自然な音声の合成
に必要な構文情報を得る、等の一連の処理を行う。これ
らの処理が終了した時点で発音記号や構文情報等の出力
データを音響処理2モジユールに送りだし、第1のCP
Uは次の入力テキストの処理を開始する。第1のCPU
と第2のCPUの通信は対音響処理接続部6および対言
語処理接続部7により行う。
音響処理部8は、上記の言語処理モジュール1からの出
力データについて、1)ポーズ位置やポーズ長の決定、
音韻変形処理(母音の無声化等)、2)各音韻の持続時
間長の決定、3)イントネーシロン(基本周波数)の決
定、4)調音結合による音素や音韻の変形処理、5)音
声合成部用パラメータの生成、等の一連の処理を行う。
これらの処理が終了した時点で合成用パラメータ等の出
力データを合成器モジュール3に送りだし、第2のCP
Uは次の入力データの処理を開始する。
このようにして生成された音声合成部用パラメータによ
り音声合成部10がリアルタイムで所望の音声信号を合
成した後、図示しない電気音響変換部によって前記音声
信号は音声に変換される。
第2図は従来例におけるCPUおよびDSPのタイムチ
ャートを示し、第3図は本実施例におけるCPUおよび
DSPのタイムチャートを示したものである。これらの
図が示すように、本実施例により音声合成全体の処理の
効率化が図れる。
次に、本実施例の音声合成装置における二つの使用例を
説明する。
まず第1の使用例として、ユーザーが音響処理部9及び
音声合成部10を使用する場合を考える。
第1図に示す合成システムから言語処理部5を取り外し
音響処理部9及び音声合成部10のみを用いる。合成し
ようとするテキスト情報はこの場合、発音記号とイント
ネーション記号の情報であり、この入力はキーボード、
ホストコンピュータ、あるいは他の言語処理部からの出
力である。これらはASCII等の文字コードの形態で
音響処理モジュール2のテキスト入力部8に入力される
。テキスト入力部8は外部機器とのインタフェースとし
ての機能を持ち、送られてきた文字コードデ・−タを音
響処理モジュール2内に取り込む。
音響処理部9は、1)ポーズ位置やポーズ長の決定、音
韻変形処理(母音の無声化等)、2)各音韻の持続時間
長の決定、3)イントネーション(基本周波数)の決定
、4)調音結合による音素や音韻の変形処理、5)音声
合成部用パラメータの生成、等の一連の処理を行う。こ
れらの処理が終了した時点で合成用パラメータ等の出力
データを合成器モジュール3番と送りだし、第2のCP
Uは次の入力データの処理を開始する。
このようにして生成された音声合成部用パラメータによ
り音声合成部10がリアルタイムで所望の音声信号を合
成する。
次に第2の使用例として、ユーザーが言語処理部5のみ
を用いる場合を考える。第1図に示す合成システムから
音響処理部の、音声合成部10を取り外し、言語処理部
5を例えば外部のホストコンピュータに取り付ける。合
成しようとするテキスト情報はASCII等の文字コー
ドの形態で前記ホストコンピュータから言語処理モジュ
ール1のテキスト入力部4に入力される。テキスト入力
部4は外部機器とのインタフェースとしての機能を持ち
、送られてきた文字コードデータを言語処理モジュール
エ内に取り込む。次に、言語処理部5で入力テキストに
対して、1)単語や文節に分割し、それぞれに読み、ア
クセント、品詞情報などを付与する、2)記号や数詞等
の処理、読みの選択、変更(連濁等)を行う、3)複合
単語や文節のアクセント型を決定する、4)構文解析を
行い自然な音声の合成に必要な構文情報を得る、等の一
連の処理を行う。これらの処理が終了した時点で発音記
号や構文情報等の出力データを外部のホストコンピュー
タに逆に送りだし、第1のCPUは次の入力テキストの
処理を開始する。前記ホストコンピュータと第1のCP
Uとの通信は対音響処理接続部6により行う。このホス
トコンピュータは言語処理部5からの出力をたとえば文
書にルビをふるために用いたり、点字文書の作成に用い
ることができる。
以上、説明したように本実施例によれば、音響処理部9
及び言語処理部5をそれぞれ単体として効率よく用いる
ことができる。
次に、第4図を参照しながら、多国語に対応し、かつ音
響処理部及び言語処理部を効率的に使用することを目的
とした本発明の第2の実施例に於ける音声合成装置を説
明する。
同図に於て、11は多言語にそれぞれ対応し第1のCP
Uを備えた言語処理モジュール、12は第2のDPUを
備えた多国語対応音響処理モジュール、13はCPUを
備えた合成器モジュール、14はテキスト入力部、15
は言語処理部、16は対音響処理接続部、17は対言語
処理接続部、18は多国語対応テキスト入力部、19は
多国語対応音響処理部、20は音声合成部である。ここ
では多国語の例として英語を用いることにする。
まず、ユーザーは音声に変換したい英語の文書を外部の
ホストコンピュータ上に用意する。次に、英語に対応す
る言語処理モジュール11を選んで音響処理モジュール
12に接続する。 (この場合、異なった言語に対する
複数の言語処理部15を単一の多国語対応音響処理部1
9に接続して切り替えて使用する形態も考えられる。)
合成しようとする英語テキスト情報はASCII等の文
字コードの形態で前記言語処理モジュール11のテキス
ト入力部14に入力されSo  このテキスト入力部1
4は外部機器とのインタフェースとしての機能を持ち、
送られてきた文字コードデータを言語処理モジュール1
1内に取り込む。次に、言語処理部15(英語に対応)
で入力テキストに対し°C11)略号、記号や数字の読
みの付与、2)辞書マツチングによる読み、アクセント
、品詞情報の付与、3)構文解析による文構造の把握、
4)辞書に無い単語の処理、5)文章としての発音記号
付与、修正、等の一連の処理を行う。これらの処理が終
了した時点で発音記号や構文情報等の出力データを多国
語対応音響処理モジュール12に送りだし、第1のCP
Uは次の入力テキストの処理を開始する。第1のCPU
と第2のCPUの通信は対音響処理接続部16及び対言
語処理接続部17により行う。
多国語対応音響処理部19は、各言語の音響音声学的特
徴情報(例えば各言語の母音のホルマント周波数の違い
等)を持っており、言語処理部15からの指令によりこ
の特徴情報を切り替えて、上記の言語処理モジュール1
からの出力データに対して、1)ポーズ位置やポーズ長
の決定、音韻変形処理(母音の無声化等)、2)各音韻
の持続時間長の決定、3)イントネーシeン(基本周波
数)の決定、4)H音結合による音素や音韻の変形処理
、5)音声合成部用パラメータの生成、等の一連の処理
を行う。これらの処理が終了した時点で合成用パラメー
タ等の出力データを合成器モジュール13に送りだし、
第2のCPUは次の入力データの処理を開始する。
このようにして生成された音声合成部用パラメータによ
り音声合成部20がリアルタイムで所望の英語音声信号
を合成する。
以上説明したように、本実施例によれば、共通の多国語
対応音響処理モジュール12と、個別の言語に対応する
言語処理モジュール11とを用いることにより、多国語
対応の音声合成システムを効率よく実現できる。
発明の効果 以上のように本発明によれば、例えば音響処理部が音韻
処理などの処理を行っている間に言語処理部は次の処理
を独立に行えるので、全体の処理が高速に行える。さら
に言語処理部が音響処理部から着脱可能であるので、ユ
ーザーによって言語処理部あるいは音響処理部を独立し
て使用でき、その使用目的に対しては新たな費用は必要
とせず、かつ、装置を小型化できる。
さらに、この言語処理部を複数の言語に対してそれぞれ
用意すれば、色々な言語を同一の装置で合成できるので
、装置使用上高速性、柔軟性が得られその実用的効果は
大きい。
【図面の簡単な説明】
第1図は本発明の第1実施例における音声合成装置のブ
ロック図、第2図は従来例における処理手順のタイムチ
ャート、第3図は本実施例における処理手順のタイムチ
峯−ト、第4図は本発明の第2の実施例における多国語
対応音声合成装置のブロック図、第5図は従来の音声合
成装置のブロック図である。 119.言語処理モジュール、2.・0.音響処理モジ
ュール、3.13.、、合成器モジュール、8.160
4.対音響処理接続部、7.17.、、対言語処理接続
部、8.、、テキスト入゛力部、11.、、多国語にそ
れぞれ対応した言語処理モジュール群、12.、、多国
語対応音響処理モジュール、18.、、多国語対応テキ
スト入力部、19.、、多国語対応音響処理部。 代理人の氏名 弁理士 粟野重孝 はか1名テキスト ◆ 合成音声 ! −・− 2−・・ 3−・・ 6−・・  −一− −m− !!薯M1理モジュール 會マ処理もジュール 合成6モ′/1−ル 灯智マ処筺接続藝 N盲tlffi!授駅ヒ却 テ キ  ス  ト λ 方 名び 第 図 IV  −−− /7−−− +B −−− +9−一− 壷 含1−ii* ■■珊モモジュー ル1ionηた1マ幻理ぞシコー 合成!:S五ジュール 灯壷マ処理椿続部 R1鰐幻理偕護超 多5Jnn応チキストλ力部 シ凹101’た1マ定理1β ル

Claims (3)

    【特許請求の範囲】
  1. (1)入力されるテキスト記号列を発音記号列やアクセ
    ント記号列や構文情報等の言語情報に変換することがで
    き、かつその処理を行う専用のプロセッサを持った言語
    処理部と、この言語処理部から出力される発音記号列や
    アクセント記号列や構文情報等の言語情報から入力テキ
    ストに対応した音声の特徴パラメータに変換することが
    でき、かつその処理を行う専用のプロセッサを持った音
    響処理部と、この音響処理部から出力される音声の特徴
    パラメータを音声信号に変換する音声合成部とを具備す
    ることを特徴とする音声合成装置。
  2. (2)言語処理部が音響処理部に対して着脱可能となる
    対音響処理接続部と、言語処理結果を外部に出力するこ
    とができる言語処理結果出力部とを具備し、上記音響処
    理部が上記言語処理部に対して着脱可能となる対言語処
    理接続部と、外部から発音記号やアクセント情報を入力
    できる音響処理部用テキスト入力部とを具備し、言語処
    理部が音響処理部に装着されているときには漢字かな混
    じり文を入力でき、言語処理部が音響処理部から切り放
    されている場合は、上記音響処理部用テキスト入力部よ
    り発音記号とアクセント情報が入力でき、かつ上記言語
    処理部は外部に上記言語処理結果出力部を介して言語処
    理出力結果を出力できるように構成したことを特徴とす
    る請求項1記載の音声合成装置。
  3. (3)言語処理部が多種の言語に対して用意されており
    、所望の言語用の言語処理部をそのつど交換して装着す
    るか、あるいは複数個の言語処理部が同時に装着できる
    音響処理部内の対言語処理接続部を具備することを特徴
    とする請求項1または2記載の音声合成装置。
JP1061761A 1989-03-14 1989-03-14 音声合成装置 Pending JPH02240699A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1061761A JPH02240699A (ja) 1989-03-14 1989-03-14 音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1061761A JPH02240699A (ja) 1989-03-14 1989-03-14 音声合成装置

Publications (1)

Publication Number Publication Date
JPH02240699A true JPH02240699A (ja) 1990-09-25

Family

ID=13180451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1061761A Pending JPH02240699A (ja) 1989-03-14 1989-03-14 音声合成装置

Country Status (1)

Country Link
JP (1) JPH02240699A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233565A (ja) * 1991-11-12 1993-09-10 Fujitsu Ltd 音声合成システム
EP2434464A1 (de) * 2010-09-27 2012-03-28 Siemens Aktiengesellschaft Umwandlung einer von einem Gefahrenmelder insbesondere über eine Zweidrahtleitung empfangenen Textnachricht mittels eines Sprachsynthesizers in ein Sprachsignal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233565A (ja) * 1991-11-12 1993-09-10 Fujitsu Ltd 音声合成システム
EP2434464A1 (de) * 2010-09-27 2012-03-28 Siemens Aktiengesellschaft Umwandlung einer von einem Gefahrenmelder insbesondere über eine Zweidrahtleitung empfangenen Textnachricht mittels eines Sprachsynthesizers in ein Sprachsignal
EP3029644A1 (de) * 2010-09-27 2016-06-08 Siemens Schweiz AG Gefahrenmeldeanlage mit einer gefahrenmeldezentrale und mehreren über eine zweidrahtleitung miteinander verbundenen gefahrenmeldern zur umwandlung einer empfangenen textnachricht mittels eines sprachsynthesizers in ein sprachsignal

Similar Documents

Publication Publication Date Title
US7233901B2 (en) Synthesis-based pre-selection of suitable units for concatenative speech
KR101120710B1 (ko) 텍스트 처리 시스템 및 방법과, 컴퓨터 판독 가능 저장 매체
US6477495B1 (en) Speech synthesis system and prosodic control method in the speech synthesis system
JP2006048056A (ja) 混合言語テキスト音声合成
CN1801321B (zh) 文字转语音的系统与方法
JPH02240699A (ja) 音声合成装置
Javkin et al. A multilingual text-to-speech system
Huang et al. A Chinese text-to-speech synthesis system based on an initial-final model
JP2575252B2 (ja) 発音辞書管理方法
JPH0229797A (ja) テキスト音声変換装置
JPH02238494A (ja) 音声合成装置
JPS62119591A (ja) 文章読上げ装置
KR920009961B1 (ko) 무제한 단어 한국어 합성 방법 및 회로
JP2667553B2 (ja) 音声合成装置
Li et al. Trainable Cantonese/English dual language speech synthesis system
JPH02247696A (ja) テキスト音声合成装置
JPH06168265A (ja) 言語処理装置および音声合成装置
JP2002333896A (ja) 音声合成装置、音声合成システムおよび音声合成方法
Christogiannis et al. Design and implementation of a Greek text-to-speech system based on concatenative synthesis
Evans et al. A multi-lingual speech synthesiser for blind people
JPH02234198A (ja) テキスト音声合成システム
Umoren et al. Grapheme-To-Phoneme, Phoneme-To-Grapheme (G2P-P2G) Transcription Machine for Tone Languages: A Database Approach.
JPH07219574A (ja) 音声規則合成装置
Sef Text analysis for the Slovenian text-to-speech system
Sef et al. Govorec (Speaker)-Slovenian text-to-speech system for telecommunication applications