JP2728440B2 - 音声出力装置 - Google Patents

音声出力装置

Info

Publication number
JP2728440B2
JP2728440B2 JP63179108A JP17910888A JP2728440B2 JP 2728440 B2 JP2728440 B2 JP 2728440B2 JP 63179108 A JP63179108 A JP 63179108A JP 17910888 A JP17910888 A JP 17910888A JP 2728440 B2 JP2728440 B2 JP 2728440B2
Authority
JP
Japan
Prior art keywords
intermediate result
input
data
character string
pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63179108A
Other languages
English (en)
Other versions
JPH0229798A (ja
Inventor
泰雄 佐藤
光子 加世田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63179108A priority Critical patent/JP2728440B2/ja
Publication of JPH0229798A publication Critical patent/JPH0229798A/ja
Application granted granted Critical
Publication of JP2728440B2 publication Critical patent/JP2728440B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概要〕 音声出力の高速化及び音声出力形式の多様化を図った
音声出力装置に関し、 音声出力の高速化を容易な操作で可能にすると共に、
音声出力形式の柔軟性を増すことを目的とし、 入力されるデータが文字列であるか文字列を音声に変
換する途上に生じる音声情報を表わす中間結果であるか
を判別し、該判別結果に応じて該入力される文字列また
は中間結果を各々の所定の出力先に出力するデータ判別
手段と、該データ判別手段に入力されるデータが文字列
である場合に該データ判別手段から加わる文字列を中間
結果に変換する中間結果変換手段と、該中間結果変換手
段から加わる中間結果または前記データ判別手段に入力
されるデータが中間結果である場合に該データ判別手段
から出力される中間結果に基づいて音声を合成する音声
合成手段と、前記中間結果変換手段により変換された中
間結果を蓄積させて該中間結果を必要に応じて前記デー
タ判別手段に出力させる中間結果蓄積・制御手段と、を
有するように構成する。
〔産業上の利用分野〕
本発明は文章等の文字列または発音・韻律記号の列を
入力して音声に変換する音声出力装置に関し、更に詳し
くは音声出力の高速化及び音声出力形式の多様化を図っ
た音声出力装置に関する。
〔従来の技術〕
第7図、第8図に従来の音声出力装置のシステム構成
図を示す。この従来の音声出力装置においては、第7図
ではキーボード等から成る入力装置61から文章(文字
列)、また第8図では直接発音記号(例えば日本語の場
合にはかな文字、英語の場合には音素)と韻律記号(ア
クセント位置、ポーズ位置、ポーズ長等の韻律を表現す
る記号)の列を直接入力することにより、音声が出力さ
れるようになっている。
第7図では利用者が入力装置61から文章(文字列)を
入力すると、入力文章は入力制御部62を介して言語処理
部63に送られ、言語処理部63により文章の解析が行われ
る。そして、統語・意味・談話解析等により文章に対応
する発音・韻律記号列が作成されて音響処理部64に出力
される。音響処理部64は、入力される発音・韻律記号列
を基に所定の合成単位と規則により音声合成のための音
響パラメータを作成し、図示していない内蔵の音声合成
器により音声波形を合成する。生成された音声波形はス
ピーカ65を介して放音される。
また、第8図では入力装置61から直接発音・韻律記号
を入力した場合には、その入力した発音・韻律記号に応
じて音響処理部64により音響パラメータが作成されて音
声波形が合成される。
〔発明が解決しようとする課題〕
上述したように、文章を文字列で入力する場合には言
語処理部63により統語・意味・談話等の解析が行われる
ため、解析処理時間が長くなり、音声出力の指定を行っ
てから実際に音声が出力されるまでに時間がかかりすぎ
ていた。また、文の長さ・構造等により、解析時間が異
なってくるため、音声が出力されるまでの応答時間が文
によってまちまちになるなど不自然であった。
さらに、日本語においては、「五月」等のように「ゴ
ガツ」、「サツキ」と複数の読み方がある漢字が使用さ
れるが、文の構造解析だけでは正しい読み方を設定する
ことは難しく、間違った読み方がなされてしまうなどの
問題があった。
また、音声出力を高速化するためには第8図のように
直接、発音・韻律記号列を入力すればよいが、発音・韻
律記号列の入力には発音・韻律記号に関する予備知識が
必要となり、初心者にとっては容易ではなくまた、熟練
者にとっても入力作業は煩わしく時間のかかるものであ
った。
本発明は、音声出力の高速化を容易な操作で可能にす
ると共に、文字列の複数の発音のうち所望の発音で発音
可能とすることにより、音声出力形式の柔軟性を増すこ
とを目的とする。
〔課題を解決するための手段〕
第1図は本発明の原理図である。
データ判別手段2には、文字列、または中間結果が入
力される。中間結果は、発音・韻律記号列、音響パラメ
ータ(スペクトルパラメータ、ピッチパラメータ、音響
パラメータ等から成る)等の、文字列を音声に変換する
途上に生じる音声情報を表わす。
データ判別手段2は、例えば入力データの先頭に付加
されたコードの値により、またはデータを構成するコー
ドの種別等(例えば1バイトコードかまたは2バイトコ
ードか)により、入力されるデータが文字列であるか中
間結果であるかを判別する。そして、文字列が入力され
れば、その文字例を中間結果変換手段3に出力し、中間
結果が入力されれば、その中間結果を音声合成手段4に
出力する。
中間結果変換手段3は、入力される文字列に対して構
造解析等を行い、入力文字列を対応する発音・韻律記号
等の中間結果に変換して、その中間結果を音声合成手段
4に出力する。
このとき、中間結果蓄積・制御手段7は、中間結果変
換手段3より出力される中間結果を蓄積させる。そし
て、後に、必要に応じて、蓄積されている中間結果が上
記データ判別手段に入力される。
音声合成手段4は、データ判別手段2または中間結果
変換手段3から入力する中間結果に基づいて音声を合成
する。
〔作用〕
本発明では、入力される文字列を発音・韻律記号等の
中間結果に変換して音声出力すると共に、変換した中間
結果を蓄積させて後に再利用する。
このように、さまざまな文章を中間結果の形で蓄積さ
せておくことで、以前に変換された文章と同一の文章が
入力された場合には、蓄積されているその文章に対応す
る中間結果を用いることにより、中間結果への変換処理
を行う必要がない分、高速に音声出力が成される。この
ことは特に、同一の文章をリピート出力する場合、効果
的である。
また、表示手段5を設けた場合、入力された文字列に
対応する中間結果が表示手段5に表示されるので、表示
されるさまざまな文章の中間結果を観察することにより
中間結果の形式を学習することができる。このため、利
用者が容易に自分で中間結果の形式で所望の音声を作成
できるようになる。この表示手段5は上位装置のものを
利用しても良い。
さらに、中間結果修正手段6を設けた場合、中間結果
変換手段3により作成された中間結果を自由に修正でき
るので、文章の一部が所望していた読みと異っていた場
合、中間結果の一部を修正して、その修正した中間結果
を再度音声合成手段4に出力することにより、所望の正
しい音声出力を得ることが可能となる。
この中間結果修正手段6は上位装置のエディタなどを
使用しても良い。
〔実施例〕
以下、図面を参照しながら本発明の実施例について説
明する。
第2図は本発明の第1実施例である日本語の音声出力
を行う音声出力装置のシステム構成図である。
同図において、インタフェース部11はパーソナル・コ
ンピュータやワークステーション等の上位装置との入出
力インターフェースであり、図示していない上位装置か
ら送信されるデータを受信して入力制御部12に出力する
と共に、言語処理部13から加わる中間結果を上位装置に
送信する。
入力制御部12は、入力データが文字列であるか、また
は中間結果である発音・韻律記号列であるかを判別し、
文字列であれば入力データを言語処理部13へ、発音・韻
律記号列であれば入力データを音響処理部14へ出力す
る。
言語処理部13は、文字列に対し構文・意味解析等を行
い、文字列に対応する発音・韻律記号列を作成し音響処
理部14へ出力する。また、上位装置から発音・韻律記号
列の読み出し要求があった場合には、言語処理部13は、
作成した発音・韻律記号列をインターフェース部11を介
して上位装置に出力する。韻律記号は、文節のアクセン
ト位置、文と文の間の発音休止時間長であるポーズ長等
を示す記号である。尚、言語処理部13の詳細な回路構成
は後述する。
音響処理部14は、発音・韻律記号列に基づいて予め定
められている合成単位と規則により音声合成のための音
響パラメータを作成し、内蔵している音声合成器により
音声波形を合成する。音響処理部14によって合成された
音声波形はスピーカ15を介して放音される。
第3図は、言語処理部13の一構成例を示すブロック図
である。前処理部21は、日本語の入力文字列を句読
点「,」、「。」により区分する。単語同定部22は、日
本語の各単語を格納している単語辞書23を検索して、文
章を単語単位に分割する。単語辞書23内には,単語の品
詞、発音記号、アクセントの位置を表す情報などが格納
されており、各単語に関する品詞情報、発音記号、アク
セント位置情報なども読みだされる。構文解析部24は、
単語の品詞情報を基に、文章を文節単位に分割するとと
もに、文節関係などの構文情報を作成する。
発音解析部25は、前後の単語の発音記号を考慮して、
発音記号の修正を行ったり、固有名詞や数詞などの単語
辞書23に登録されていない単語に対して発音記号を設定
する。
また、韻律解析部26は、構文解析部24によって作成さ
れた構文情報を基にイントネーションや、ポーズ長を求
め、また複合語や付属語が続いた語のアクセント位置を
予め定められた規則に基づいて求め、韻律記号の修正、
生成を行う。
以上のようにして言語処理部13により、日本語の文字
列に対応する発音・韻律記号列が作成される。
次に、第4図は音響処理部14の一構成例を示す図であ
る。
時間長設定部31は、日本語の各発音記号の発音時間長
が格納されているテーブルを有しており、発音・韻律記
号の列を入力すると、このテーブルを参照しながら音声
の各合成単位に対して発音時間長を設定する。
音声ファイル32は、各合成単位毎にPARCOR係数から成
るスペクトルパラメータと音の強さを指示する音源パラ
メータ等を格納しているファイルであり、例えばROM
(リード・オンリ・メモリ)等の半導体メモリまたはフ
ロッピィディスクやハードディスク等の外部記憶装置内
に作成される。
スペクトルパラメータ生成部33は、音声ファイル32を
参照して、合成単位毎のスペクトルパラメータを設定す
る。また、音源パラメータ生成部34は、音声ファイル32
を参照して、合成単位毎に音源パラメータを設定する。
さらに、ピッチパラメータ生成部35は基本的なイント
ネーションパターンを記憶しており、韻列記号で指示さ
れているアクセント位置に基づいて各合成単位毎のピッ
チパラメータ(基本周波数を示すパラメータ)を生成す
る。
上記スペクトルパラメータ、ピッチパラメータ、音源
パラメータ、ピッチパラメータ生成部35から時系列順に
PARCOR型の波形合成器から成る波形合成部36に出力され
る。波形合成部36は、入力される音響パラメータ(スペ
クトルパラメータ、ピッチパラメータ、音源パラメー
タ)に基づいて音声波形を合成する。
次に、以上のように構成された上記第1実施例の動作
を第5図のフローチャートを参照しながら説明する。
上位装置からインタフェース部11を介してデータが送
られてくると(SA1)、入力制御部12はそのデータが日
本語の文字列、または中間結果(発音・韻律記号列)の
いづれであるかを判別する(SA2)。
上位装置は、中間結果を送信する場合、データの先頭
に音声情報であることを示す所定のコードを付けて送信
する。したがって、入力制御部は入力データの先頭が前
記所定コードであるか否かを判別して、送信されたデー
タが中間結果(発音・韻律記号列)であるか否かを判別
する。
尚、日本語の文字列は漢字かな混じり文の2バイトコ
ード、中間結果(発音・韻律記号列)は英数字による1
バイトコードで表現するようにして、コードの違いによ
り判別するようにしてもよい。
入力制御部12は、文字列であると判別すれば受信デー
タを言語処理部13に出力する。
言語処理部13は、入力する文字列を単語同定、構造解
析等により中間結果(発音・韻律記号列)に変換する
(SA3)。
ところで、利用者は上位装置からコマンド入力等を行
い、音声出力の有無、文字列の変換結果(すなわち発音
・韻律記号列)を上位装置に送信するか否かを指示する
ことができる。
これらの指示情報は、言語処理部13内の特に図示して
いないフラグに格納される。
言語処理部13は、発音・韻律記号列を作成すると(SA
3)、次に前記フラグを参照して音声出力の指示がなさ
れているかを判別し(SA4)、音声出力の指示がなされ
ていれば、作成した発音・韻律記号列を音響処理部14に
出力する。
音響処理部14は、入力される発音・韻律記号列に基づ
いて音声を合成し、その音声はスピーカ15を介して放音
される(SA5)。
次に、言語処理部13は前記フラグを参照して上位装置
に対し作成した発音・韻律記号列を出力する旨の指示が
なされているかを判別し(SA6)、指示されていれば発
音・韻律記号列をインターフェース部11を介して上位装
置に送信する(SA7)。
一方、上記SA2で、入力制御部12は受信したデータが
中間結果であると判別すると、その中間結果を音響処理
部14に出力する、即ちSA5の処理に移行する。以後、前
記SA5〜SA7により中間結果に対応する音声出力が行われ
る。
具体例により、第1実施例の動作をさらに詳しく説明
する。
例えば、上位装置から「音声認識機能を持つ、…」と
いう日本語の文字列が送信されてくると(SA1)、入力
制御部12は文字列であると判別し(SA2)、上記文字列
を言語処理部13に出力する。言語処理部13は、入力する
文字列を「ONSE-NINSHIKIKINO-O/A9 MOTSU/A1/B1」とい
う発音・韻律記号列に変換する(SA3)。尚、「−」は
長音を示す発音記号であり、「/A1」、「/A9」はアクセ
ント位置を示す韻律記号、「/B1」はポーズ長を示す韻
律記号である。「/A9」は、文節の9文字目にアクセン
トがあることを示し、「/A1」は文節の1文字目にアク
セントがあることを示す。したがって、「ONSE-NINSHIK
IKINO-O」の文節内では「KI」にアクセントがあり、「M
OTSU」の文節内では「MO」にアクセントがある。
そして、音声出力の指示がなされていた場合(SA
4)、「ONSE-NINSHIKIKINO-O/A9 MOTSU/A1/B1」の発音
・韻律記号列に基づいて音響処理部14により「オンセー
ニンシキ キノーオ モツ」という音声が発音される
(SA5)。
また、中間結果を上位装置に出力する旨の指示がなさ
れていた場合には(SA6)、言語処理部13からインター
フェース部11を介して上位装置に「ONSE-NINSHIKIKINO-
O/A9 MOTSU/A1/B1…」という中間結果が送信される(SA
7)。
上位装置では、この中間結果を蓄積し、次に再び「音
声認識機能を持つ…」という文章を音声出力させたい場
合には、上記中間結果を音声出力装置に対して再度送信
する。
音声出力装置に送信された中間結果は、入力制御部12
により中間結果であると判別され(SA2)、入力制御部1
2から音響処理部14に出力される。そして、音声出力の
指示がなされていた場合には音響処理部14により「オン
セー ニンシキ キノーオ モツ」という音声が合成さ
れ(SA5)、スピーカ15を介して放音される。
このように、中間結果が入力された場合には言語処理
部13による文字から発音・韻律記号列への変換が行われ
ず、直接音響処理部14により音声合成が行われるので、
音声出力が高速に行われる。
したがって、音声出力を繰り返し行う文章は中間結果
の形式で記憶しておくようにすれば、便利である。
次に、第6図は第2実施例のシステム構成図である。
入力装置41は、音声出力を行う文章の文字列もしくは発
音・韻律記号列、または各種コマンド等を入力するため
のキーボード等から成る入力装置である。入力装置41か
ら入力されたデータは入力制御装置42に送られる。
入力制御装置42は、マイクロプロセッサ等から成り、
図示していないがエディターやその他の各種プログラム
が格納されているROM(リード・オンリ・メモリ)、各
種データを記憶するRAM(ランダム・アクセス・メモ
リ)等を有しており、ROMに格納されているプログラム
を実行して入力データの判別やデータの編集等の各種処
理を行う。そして、入力装置41から入力されたデータが
文字列であった場合にはその文字列を言語処理部43に出
力する。また、発音・韻律記号列であった場合には、そ
の発音・韻律記号列を音響処理部44に出力する。
言語処理部43、音響処理部44及びスピーカ45は前述し
た第2図に示す同一名称のブロックと同様であり、詳し
い説明は省略する。
言語処理部43によって作成された発音・韻律記号列は
音響処理部44または表示制御部46に出力される。
表示制御部46は、入力する発音・韻律記号列をCRT(C
athode Ray Tube)等から成る表示装置47に表示させる
制御装置である。
次に、以上のように構成された第2実施例の動作を説
明する。
文章の入力方法には、文字列による入力と、発音・韻
律記号列による入力の2つの入力モードがあり、入力装
置41からコマンド入力を行うことにより上記2つの入力
モードのうちいづれかを指定する。すなわち、文字列入
力モードにおいて文字列による入力が、発音・韻律記号
列入力モードにおいて発音・韻律記号列による入力が可
能である。
したがって文章入力を行う前にまず入力装置41から入
力モード設定のコマンド入力を行い所望の入力モードを
指定する。
上記入力モード設定コマンドを入力装置41から入力す
ると、その入力モード設定コマンドは入力制御装置42に
送られ、入力制御装置42は上記入力モード設定コマンド
により指示されたモードを内蔵RAM内に設けられたモー
ド記憶フラグに記憶する。
上述のようにして文字列入力モードを設定した後、入
力装置41から任意の日本語の文字列を入力すると、その
入力文字列は入力装置41から入力制御装置42に送られ
る。入力制御装置42は、入力装置41からデータが送られ
てくるとモード記憶フラグを参照して現在文字列入力モ
ードが選択されていると判別し、入力文字列を言語処理
部43に出力する。そして、言語処理部43により入力文字
列が日本語の発音・韻律記号列に変換され音響処理部41
に出力される。そして、音響処理部44により音声合成が
行われ、スピーカ45を介して放音される。
また、言語処理部43は、変換した発音・韻律記号列を
表示制御部46にも出力する。表示制御部46は入力される
発音・韻律記号列を画面表示させるための表示制御信号
を生成して表示装置47に加え、表示装置47に発音・韻律
記号列を表示させる。
このように、文字列を入力すると、文字列で表現され
た文章が音声出力されると共に、文字列に対応する発音
・韻律記号列が表示装置47に表示される。したがって、
さまざまな日本語の文字列を入力しながら、表示される
発音・韻律記号列を見て発音・韻律記号の形式を学習す
ることが可能となる。
また、利用者は、表示装置47に表示されている発音・
韻律記号列を入力制御装置42に内蔵されているエディタ
(データ編集用のプログラム)を起動させることにより
修正することが可能である。
入力装置41から、エディタを起動するコマンドを入力
すると、入力制御装置42内に内蔵されているエディタが
起動され、表示装置47に表示されている発音・韻律記号
列を画面を見ながら修正することができる。また、エデ
ィタを用いて利用者が所望の発音・韻律記号列を独自に
作成することもできる。エディタにより、修正・作成等
を行った発音・韻律記号列は、入力装置41から音声出力
指示のコマンドを入力することにより、入力制御装置42
から音響処理部44に送られ、音響処理部44により対応す
る音声波形が生成され、スピーカ45から放音される。
一方、発音・韻律記号列入力モードにおいては、入力
装置41から直接発音・韻律記号列を入力して、音声出力
を行う。
入力装置41から発音・韻律記号列を入力すると、その
記号列は入力制御装置42に送られる。入力制御装置42
は、モード記憶フラグを参照して現在発音・韻律記号列
入力モードが選択されていると判別し、入力される発音
・韻律記号列を音響処理部44に出力する。そして、音響
処理部44により発音・韻律記号列に対応する音声波形が
合成され、スピーカ45を介して放音される。
尚、上記実施例では日本語の音声出力を行うようにな
っているが、本発明は日本語に限定されることなく、英
語、ドイツ語、フランス語等の他の言語の音声出力にも
適用可能である。
また、中間結果も発音・韻律記号列に限定されること
なく、スペクトルパラメータ、ピッチパラメータ、音源
パラメータ等の音声合成器用の音響パラメータであって
もよい。音響パラメータの形で文章を蓄積しておくと、
音声出力をさらに高速に行うことができる。
さらに、発音・韻律記号列の表示形式も上記実施例に
限定されることなく、その他の表記形式が可能である。
〔発明の効果〕
以上説明したように、本発明によれば、文字列または
中間結果のいづれでも音声に変換可能であり、しかも文
字列が入力された場合には、文字列に対応する中間結果
を外部出力するので、上位装置において中間結果の形で
文章を蓄積することが可能となる。このため、2回目以
降の音声出力においては、中間結果を入力する操作を行
わずとも蓄積されている中間結果をそのままデータとし
て入力すればよく、同一文章を複数回出力する場合など
音声出力の高速化が可能となる。
また、表示手段を設けて中間結果を表示するようにし
た場合には、入力した文章に対応する中間結果が表示さ
れるので、中間結果の形式を学習することができ、中間
結果の形式の習得に効果的である。
さらに、中間結果の修正・作成を行えるようにした場
合には、利用者が誤って音声変換された読みを正しい読
み方に修正したり、文章の読み方を所望するように指定
できるので、柔軟性に富んだ音声出力を行うことが可能
となる。
【図面の簡単な説明】
第1図は本発明の原理図、 第2図は第1実施例のシステム構成図、 第3図は言語処理部の一構成例を示す図、 第4図は音響処理部の一構成例を示す図、 第5図は第1実施例の動作を説明するフローチャート、 第6図は第2実施例のシステム構成図、 第7図、第8図は従来の音声出力装置のシステム構成図
である。 2……データ判別手段、3……中間結果変換手段、4…
…音声合成手段、5……表示手段、6……中間結果修正
手段、7……中間結果蓄積・制御手段。

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】入力されるデータが文字列であるか文字列
    を音声に変換する途上に生じる音声情報を表わす中間結
    果であるかを判別し、該判別結果に応じて該入力される
    文字列または中間結果を各々の所定の出力先に出力する
    データ判別手段と、 該データ判別手段に入力されるデータが文字列である場
    合に該データ判別手段から加わる文字列を中間結果に変
    換する中間結果変換手段と、 該中間結果変換手段から加わる中間結果または前記デー
    タ判別手段に入力されるデータが中間結果である場合に
    該データ判別手段から出力される中間結果に基づいて音
    声を合成する音声合成手段と、 前記中間結果変換手段により変換された中間結果を蓄積
    させて該中間結果を必要に応じて前記データ判別手段に
    出力させる中間結果蓄積・制御手段と、 を有することを特徴とする音声出力装置。
  2. 【請求項2】前記中間結果変換手段により変換された中
    間結果を表示する表示手段を有することを特徴とする請
    求項1記載の音声出力装置。
  3. 【請求項3】前記中間結果変換手段により変換された中
    間結果を修正する中間結果修正手段を有することを特徴
    とする請求項1または2記載の音声出力装置。
JP63179108A 1988-07-20 1988-07-20 音声出力装置 Expired - Fee Related JP2728440B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63179108A JP2728440B2 (ja) 1988-07-20 1988-07-20 音声出力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63179108A JP2728440B2 (ja) 1988-07-20 1988-07-20 音声出力装置

Publications (2)

Publication Number Publication Date
JPH0229798A JPH0229798A (ja) 1990-01-31
JP2728440B2 true JP2728440B2 (ja) 1998-03-18

Family

ID=16060159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63179108A Expired - Fee Related JP2728440B2 (ja) 1988-07-20 1988-07-20 音声出力装置

Country Status (1)

Country Link
JP (1) JP2728440B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7162579B2 (ja) * 2019-09-27 2022-10-28 Kddi株式会社 音声合成装置、方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59123928A (ja) * 1982-12-29 1984-07-17 Fujitsu Ltd 音声入出力装置
JPS6295595A (ja) * 1985-10-23 1987-05-02 株式会社日立製作所 音声応答方式
JP2856731B2 (ja) * 1986-07-08 1999-02-10 株式会社東芝 音声合成装置
JPS63136096A (ja) * 1986-11-28 1988-06-08 株式会社東芝 言語辞書編集装置

Also Published As

Publication number Publication date
JPH0229798A (ja) 1990-01-31

Similar Documents

Publication Publication Date Title
WO2004066271A1 (ja) 音声合成装置,音声合成方法および音声合成システム
JP2009139677A (ja) 音声処理装置及びそのプログラム
JPH05165486A (ja) テキスト音声変換装置
JP2728440B2 (ja) 音声出力装置
JP6197523B2 (ja) 音声合成装置、言語辞書修正方法及び言語辞書修正用コンピュータプログラム
JP3006240B2 (ja) 音声合成方法および装置
JP3060276B2 (ja) 音声合成装置
JP3284976B2 (ja) 音声合成装置及びコンピュータ可読記録媒体
JP3414326B2 (ja) 音声合成用辞書登録装置及び方法
JPH06119144A (ja) 文書読み上げ装置
JP2014197117A (ja) 音声合成装置及び言語辞書登録方法
JPH07210185A (ja) 朗読情報作成装置および朗読装置
JP2580568B2 (ja) 発音辞書更新装置
JPH0229797A (ja) テキスト音声変換装置
JPH11338498A (ja) 音声合成装置
JP2002123281A (ja) 音声合成装置
JP2801622B2 (ja) テキスト音声合成方法
JPH06176023A (ja) 音声合成システム
JPH08185197A (ja) 日本語解析装置、及び日本語テキスト音声合成装置
JP2938466B2 (ja) テキスト音声合成システム
JP2001343987A (ja) 音声合成方法、および音声合成装置
JPH0634175B2 (ja) 文章読上げ装置
JP3034911B2 (ja) テキスト音声合成装置
JPH06168265A (ja) 言語処理装置および音声合成装置
JPH04199421A (ja) 文書読上げ装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees