JP2000356995A - 音声通信システム - Google Patents

音声通信システム

Info

Publication number
JP2000356995A
JP2000356995A JP2000113350A JP2000113350A JP2000356995A JP 2000356995 A JP2000356995 A JP 2000356995A JP 2000113350 A JP2000113350 A JP 2000113350A JP 2000113350 A JP2000113350 A JP 2000113350A JP 2000356995 A JP2000356995 A JP 2000356995A
Authority
JP
Japan
Prior art keywords
unit
information
voice
prosody
code sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000113350A
Other languages
English (en)
Other versions
JP2000356995A5 (ja
Inventor
Takahiro Kamai
孝浩 釜井
Kenji Matsui
謙二 松井
Ichu Shu
偉中 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000113350A priority Critical patent/JP2000356995A/ja
Publication of JP2000356995A publication Critical patent/JP2000356995A/ja
Publication of JP2000356995A5 publication Critical patent/JP2000356995A5/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】音声CODECを用いた通信機器に対して低コスト
で音声規則合成機能を付加する。 【解決手段】受信部106は通信路を伝播してきた符号
系列を受信し、分離部107に伝える。分離部107は
符号系列を音声符号系列とテキスト情報とに分離し、そ
れぞれ合成部115と言語解析部108に出力する。音
声符号系列は合成部115によってピッチ周期、LSP
係数、符号番号などに復号化され、CELP方式で音声
を復元する。一方、テキスト情報は言語解析部108に
よって発音とアクセントの情報に変換され、韻律生成部
110によって音韻時間長、ピッチパターンなどの韻律
情報が付加される。音韻にふさわしいLSP係数、符号
番号などは素片読み出し部113によって素片DB11
4から読み出され、ピッチ周波数は韻律情報から取り出
されて合成部115に入力され、音声に合成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えば携帯電話、
インターネットなどで音声を用いて情報伝達を行う音声
通信システム、媒体及び情報集合体に関するものであ
る。
【0002】
【従来の技術】音声通信システムは同軸ケーブルなどの
有線通信路、電磁波などの無線通信路を介して送信機と
受信機を結ぶことによって構成される。かつてはこれら
の通信路に音響信号を直接あるいは搬送波に変調するこ
とによって伝播させるアナログ通信が主流であったが、
耐雑音性、歪などの通信品質の向上、および通信チャン
ネル数の増加などを目的として、音響信号を一旦符号化
した上で伝播させるディジタル通信が主流になってきて
いる。
【0003】最近の携帯電話などの通信システムは、急
速な普及に伴う伝送電波帯域の不足を解消するため、CE
LP(Schroeder M.R. and Atal B.S.: "Code-Excited Li
nearPrediction (CELP) : High-Quality Speech at Ver
y Low Bit Rates", Pros. IEEE ICASSP '85, 25.1.1,
(April 1985))方式が用いられている。
【0004】図7はCELP音声符号化復号化システムの代
表的な構成例である。
【0005】符号化側、即ち送信端末側での処理は以下
のようなものである。音声信号は例えば10ミリ秒程度
のフレームに区切られて処理される。入力された音声は
LPC分析部200でLPC(Linear Prediction Codi
ng)分析が行われ、声道伝達関数を表すLPC係数αi
に変換される。
【0006】LPC係数αiはLSPパラメータ量子化
部201でLSP(Line Spectrum Pair)係数αqiに変
換され、量子化される。αqiは合成フィルタ202に与
えられ、符号番号caに対応して適応符号帳203から
読み出された音源波形により音声波形が合成される。音
源波形はこれまでの処理と並行して自己相関法などを用
いて算出されたピッチ周期T0に従った周期波形として入
力される。
【0007】合成された音声波形は入力音声から差し引
かれ、聴覚重み付けフィルタ206を介して歪計算部2
07に入力される。歪計算部207は適応符号帳203
に対して符号番号caを変化させながら繰り返し合成波
形と入力波形の差のエネルギーを計算し、それが最小に
なる符号番号caを決定する。
【0008】続いて、決定されたcaのもとに読み出さ
れる音源波形と雑音符号帳204から符号番号crに従
って読み出された雑音源波形が加算され、同様の処理に
より歪を最小とする符号番号crを決定する。これまで
の処理で両音源波形に乗算されるべきゲインの値も決定
され、それらに対応する最適なゲインベクトルをゲイン
符号帳から選び出し、符号番号cgを決定する。
【0009】以上のように決定されたLSP係数αqi
ピッチ周期T0、適応符号番号ca、雑音符号番号cr
ゲイン符号番号cgは一つのデータ系列にまとめられ通
信路に送信される。
【0010】一方、復号化側、即ち受信端末側での処理
は以下のようなものである。
【0011】通信路から受信されたデータ系列はLSP
係数αqi、ピッチ周期T0、適応符号番号ca、雑音符号
番号cr、ゲイン符号番号cgに再び分離される。ピッチ
周期T0および適応符号番号caに従って適応符号帳20
8から周期的な音源が読み出され、雑音符号番号cr
従って雑音符号帳209から雑音源波形が読み出され
る。
【0012】それぞれの音源はゲイン符号番号cgに従
ってゲイン符号帳210から読み出されたゲインベクト
ルが表すゲインによって振幅調整を受け、合成フィルタ
211に入力される。合成フィルタ211はLSP係数
αqiに従って音声を合成する。
【0013】上記のような音声通信システムは、入力さ
れた音声を圧縮符号化することによって、限られた通信
路容量で能率よく音声を伝播することを主眼においてい
る。すなわち、通信の対象は飽くまで人間が発した音声
そのものである。
【0014】しかし、今日の通信サービスにおいては遠
隔地間の人間同士の音声通信だけにとどまらず、送信端
末側でテキストを入力し、遠隔地の受信端末にデータと
して送信するいわゆる電子メールやショートメッセージ
などのサービスが普及している。また、CTI(Computer
Telephony Integration)などのように音声により様々
な情報をサービスすることや、機器の操作法を音声で提
示するなど、機器から人間に対して音声を提供すること
が重要になってきている。さらには、テキスト情報を音
声に変換する音声規則合成技術を用いることにより、電
話を介して電子メールやニュースなどの内容を聞くこと
が可能となり、最近注目を浴びている。
【0015】
【発明が解決しようとする課題】このように、テキスト
情報を音声に変換してサービスする通信形態が求められ
て来ている。このようなサービスを実現する方法として
以下の二つの形態が考えられる。
【0016】ひとつはサービスを提供する側で音声を合
成し、通常の音声通話を利用してユーザーに伝送する方
法である。この方法の場合、受信側の端末装置は従来と
同様音声信号を受信して再生するだけでよいため、共通
のハードウェアを用いることができる。
【0017】しかし、大量のテキストを音声化すること
は長時間の音声を通信路に流し続けることとなり、携帯
電話などの通信システムを用いる場合、長時間接続を維
持する必要が生じる。したがって、通信料金が高額にな
るという問題があった。
【0018】もうひとつは情報をテキストのままで通信
路を経て伝送し、受信端末側で音声合成装置を用いて音
声に変換し、ユーザーに聞かせる方法である。この方法
の場合、情報伝送量が音声の数百分の一といった極めて
少ない量ですむため、非常に短時間で伝送することが可
能となる。従って通信料金も低く抑えられ、さらにテキ
ストを受信端末側に蓄積しておけばユーザーが好きな時
に音声に変換して聞きなおすことが可能となる。また、
音声に変換する時に男女などの声の種類、発声速度、ピ
ッチの高低などを選ぶことができるという利点がある。
【0019】しかしながら、受信側の端末装置に設ける
べき音声合成装置は、一般の携帯電話などの受信端末に
用いられているものと回路が異なるため、新たに音声合
成用の回路を搭載しなければならず、そのために回路規
模が増大し、端末装置のコストが増大するという問題が
あった。
【0020】本発明は、このような従来の通信方法の課
題を考慮し、通信の負担が少なく、しかも、受信端末に
おける音声合成装置が簡単ですむ音声通信システム、媒
体及び情報集合体を提供することを目的とする。
【0021】
【課題を解決するための手段】上記の課題を解決するた
め、第1の本発明(請求項1に対応)は、テキスト入力
手段及び送信手段を有する送信部と、受信手段、言語解
析手段、韻律生成手段、素片データ記憶手段、素片読み
出し手段及び、合成手段を有する受信部と、を備えた音
声通信システムであって、前記テキスト入力手段はテキ
スト情報を入力し、前記送信手段は前記テキスト情報を
通信路に送信し、前記受信手段は前記通信路から前記テ
キスト情報を受信し、前記言語解析手段は前記テキスト
情報を解析して、前記テキスト情報を、音声表記情報に
変換し、前記韻律生成手段は、前記音声表記情報を、韻
律情報が付加された韻律情報付き音声表記情報に変換
し、前記素片読み出し手段は、前記韻律情報付き音声表
記情報に従って、前記素片データ記憶手段から素片デー
タを読み出し、前記合成手段は、前記韻律情報付き音声
表記情報と、前記素片データを用いて音声を合成し、前
記素片データ記憶手段は、音源特性と声道伝達特性情報
を記憶し、前記合成手段は、前記韻律情報に従った周期
を有し、前記音源特性に従った特性を有する音源波形
を生成するとともに、前記声道伝達特性情報に従って前
記音源波形をフィルタ処理することによって音声を合成
することを特徴とする音声通信システムである。
【0022】また、第2の本発明(請求項2に対応)
は、前記送信部は音声入力手段と音声符号化手段と多重
化手段を有し、前記受信部は分離手段を有し、前記音声
入力手段は音声信号を入力し、前記音声符号化手段は前
記入力された音声信号のピッチと音源特性と声道伝達特
性を分析して符号化することにより音声符号系列に変換
し、前記多重化手段は前記テキスト情報と前記音声符号
系列を多重化してひとつの符号系列に変換し、前記分離
手段は前記符号系列を前記テキスト情報と前記音声符号
系列に分離し、前記合成手段は前記音声符号系列を音声
信号に変換することを特徴とする第1の本発明に記載の
音声通信システムである。
【0023】また、第3の本発明(請求項3に対応)
は、テキスト入力手段、言語解析手段及び送信手段を有
する送信部と、受信手段、韻律生成手段、素片データ記
憶手段、素片読み出し手段及び、合成手段を有する受信
部とを備えた音声通信システムであって、前記テキスト
入力手段はテキスト情報を入力し、前記言語解析手段
は、前記テキスト情報を音声表記情報に変換し、前記送
信手段は前記音声表記情報を通信路に送信し、前記受信
手段は前記通信路から前記音声表記情報を受信し、前記
韻律生成手段は、前記音声表記情報を、韻律情報が付加
された韻律情報付き音声表記情報に変換し、前記素片読
み出し手段は、前記韻律情報付き音声表記情報に従って
前記素片データ記憶手段から素片データを読み出し、前
記合成手段は、前記韻律情報付き音声表記情報と前記素
片データを用いて音声を合成し、前記素片データ記憶手
段は音源特性と声道伝達特性情報を記憶し、前記合成手
段は、前記韻律情報に従った周期を有し、前記音源特性
に従った特性を有する音源波形を生成するとともに、前
記声道伝達特性情報に従って前記音源波形をフィルタ処
理することによって音声を合成することを特徴とする音
声通信システムである。
【0024】また、第4の本発明(請求項4に対応)
は、前記送信部は音声入力手段と音声符号化手段と多重
化手段を有し、前記受信部は分離手段を有し、前記音声
入力手段は音声信号を入力し、前記音声符号化手段は前
記入力された音声信号のピッチと音源特性と声道伝達特
性を分析して符号化することにより音声符号系列に変換
し、前記多重化手段は前記音声表記情報と前記音声符号
系列を多重化してひとつの符号系列に変換し、前記分離
手段は、前記符号系列を前記音声表記情報と前記音声符
号系列に分離し、前記合成手段は前記音声符号系列を音
声信号に変換することを特徴とする第3の本発明に記載
の音声通信システムである。
【0025】また、第5の本発明(請求項5に対応)
は、テキスト入力手段、言語解析手段、韻律生成手段及
び、送信手段を有する送信部と、受信手段、素片データ
記憶手段、素片読み出し手段及び合成手段を有する受信
部とを備えた音声通信システムであって、前記テキスト
入力手段はテキスト情報を入力し、前記言語解析手段
は、前記テキスト情報を音声表記情報に変換し、前記韻
律生成手段は、前記音声表記情報を、韻律情報が付加さ
れた韻律情報付き音声表記情報に変換し、前記送信手段
は、前記韻律情報付き音声表記情報を通信路に送信し、
前記受信手段は、前記通信路から前記韻律情報付き音声
表記情報を受信し、前記素片読み出し手段は、前記韻律
情報付き音声表記情報に従って前記素片データ記憶手段
から素片データを読み出し、前記合成手段は、前記韻律
情報付き音声表記情報と前記素片データとを用いて音声
を合成し、前記素片データ記憶手段は音源特性と声道伝
達特性情報を記憶し、前記合成手段は、前記韻律情報に
従った周期を有し、前記音源特性に従った特性を有する
音源波形を生成するとともに、前記声道伝達特性情報に
従って前記音源波形をフィルタ処理することによって音
声を合成することを特徴とする音声通信システムであ
る。
【0026】また、第6の本発明(請求項6に対応)
は、前記送信部は音声入力手段、音声符号化手段及び多
重化手段を有し、前記受信部は分離手段を有し、前記音
声入力手段は音声信号を入力し、前記音声符号化手段
は、前記音声信号のピッチと音源特性と声道伝達特性を
分析して符号化することにより音声符号系列に変換し、
前記多重化手段は前記韻律情報付き音声表記情報と前記
音声符号系列を多重化してひとつの符号系列に変換し、
前記分離手段は前記符号系列を前記韻律情報付き音声表
記情報と前記音声符号系列に分離し、前記合成手段は、
前記音声符号系列を音声信号に変換することを特徴とす
る第5の本発明に記載の音声通信システムである。
【0027】また、第7の本発明(請求項7に対応)
は、テキスト入力手段及び第一の送信手段を有する送信
部と、第一の受信手段、言語解析手段及び第二の送信手
段を有する中継部と、第二の受信手段、韻律生成手段、
素片データ記憶手段、素片読み出し手段及び、合成手段
を有する受信部とを備えた音声通信システムであって、
前記テキスト入力手段はテキスト情報を入力し、前記第
一の送信手段は前記テキスト情報を第一の通信路に送信
し、前記第一の受信手段は前記第一の通信路から前記テ
キスト情報を受信し、前記言語解析手段は前記テキスト
情報を音声表記情報に変換し、前記第二の送信手段は前
記音声表記情報を第二の通信路に送信し、前記第二の受
信手段は前記第二の通信路から前記音声表記情報を受信
し、前記韻律生成手段は、前記音声表記情報を、韻律情
報が付加された韻律情報付き音声表記情報に変換し、前
記素片読み出し手段は前記韻律情報付き音声表記情報に
従って前記素片データ記憶手段から素片データを読み出
し、前記合成手段は、前記韻律情報付き音声表記情報と
前記素片データを用いて音声を合成し、前記素片データ
記憶手段は音源特性と声道伝達特性情報を記憶し、前記
合成手段は、前記韻律情報に従った周期を有し、前記音
源特性に従った特性を有する音源波形 を生成するとと
もに、前記声道伝達特性情報に従って前記音源波形をフ
ィルタ処理することによって音声を合成することを特徴
とする音声通信システムである。
【0028】また、第8の本発明(請求項8に対応)
は、前記送信部は音声入力手段と音声符号化手段と第一
の多重化手段を有し、前記中継部は第一の分離手段と第
二の多重化手段を有し、前記受信部は第二の分離手段を
有し、前記音声入力手段は音声信号を入力し、前記音声
符号化手段は前記音声信号のピッチと音源特性と声道伝
達特性を分析して符号化することにより音声符号系列に
変換し、前記第一の多重化手段は前記テキスト情報と前
記音声符号系列を多重化してひとつの符号系列に変換
し、前記第一の分離手段は前記符号系列を前記テキスト
情報と前記音声符号系列に分離し、前記第二の多重化手
段は前記音声表記情報と前記音声符号系列を多重化して
ひとつの符号系列に変換し、前記第二の分離手段は前記
第二の多重化手段によって多重化された符号系列を前記
音声表記情報と前記音声符号系列に分離し、前記合成手
段は前記音声符号系列を音声信号に変換することを特徴
とする第7の本発明に記載の音声通信システムである。
【0029】また、第9の本発明(請求項9に対応)
は、テキスト入力手段と第一の送信手段を有する送信部
と、第一の受信手段、言語解析手段、韻律生成手段及び
第二の送信手段を有する中継部と、第二の受信手段、素
片データ記憶手段、素片読み出し手段及び合成手段を有
する受信部とを備えた音声通信システムであって、前記
テキスト入力手段はテキスト情報を入力し、前記第一の
送信手段は前記テキスト情報を第一の通信路に送信し、
前記第一の受信手段は前記第一の通信路から前記テキス
ト情報を受信し、前記言語解析手段は前記テキスト情報
を音声表記情報に変換し、前記韻律生成手段は前記音声
表記情報を、韻律情報が付加された韻律情報付き音声表
記情報に変換し、前記第二の送信手段は前記韻律情報付
き音声表記情報を第二の通信路に送信し、前記第二の受
信手段は前記第二の通信路から前記韻律情報付き音声表
記情報を受信し、前記素片読み出し手段は前記韻律情報
付き音声表記情報に従って前記素片データ記憶手段から
素片データを読み出し、前記合成手段は前記韻律情報付
き音声表記情報と前記素片データとを用いて音声を合成
し、前記素片データ記憶手段は音源特性と声道伝達特性
情報を記憶し、前記合成手段は、前記韻律情報に従った
周期を有し、前記音源特性に従った特性を有する音源波
形を生成するとともに、前記声道伝達特性情報に従って
前記音源波形をフィルタ処理することによって音声を合
成することを特徴とする音声通信システムである。
【0030】また、第10の本発明(請求項10に対
応)は、前記送信部は音声入力手段、音声符号化手段及
び、第一の多重化手段を有し、前記中継部は第一の分離
手段と第二の多重化手段を有し、前記受信部は第二の分
離手段を有し、前記音声入力手段は音声信号を入力し、
前記音声符号化手段は前記音声信号のピッチと音源特性
と声道伝達特性を分析して符号化することにより音声符
号系列に変換し、前記第一の多重化手段は前記テキスト
情報と前記音声符号系列を多重化してひとつの符号系列
に変換し、前記第一の分離手段は前記符号系列を前記テ
キスト情報と前記音声符号系列に分離し、前記第二の多
重化手段は、前記韻律情報付き音声表記情報と前記音声
符号系列を多重化してひとつの符号系列に変換し、前記
第二の分離手段は、前記第二の多重化手段によって多重
化された前記符号系列を、前記音韻情報付き音声表記情
報と前記音声符号系列に分離し、前記合成手段は前記音
声符号系列を音声信号に変換することを特徴とする第9
の本発明に記載の音声通信システムである。
【0031】また、第11の本発明(請求項11に対
応)は、テキスト入力手段、言語解析手段及び、第一の
送信手段を有する送信部と、第一の受信手段、韻律生成
手段及び第二の送信手段を有する中継部と、第二の受信
手段、素片データ記憶手段、素片読み出し手段及び合成
手段を有する受信部とを備えた音声通信システムであっ
て、前記テキスト入力手段はテキスト情報を入力し、前
記言語解析手段は前記テキスト情報を音声表記情報に変
換し、前記第一の送信手段は前記音声表記情報を第一の
通信路に送信し、前記第一の受信手段は前記第一の通信
路から音声表記情報情報を受信し、前記韻律生成手段
は、前記音声表記情報を、韻律情報が付加された韻律情
報付き音声表記情報に変換し、前記第二の送信手段は前
記韻律情報付き音声表記情報を第二の通信路に送信し、
前記第二の受信手段は前記第二の通信路から前記韻律情
報付き音声表記情報を受信し、前記素片読み出し手段は
前記韻律情報付き音声表記情報に従って前記素片データ
記憶手段から素片データを読み出し、前記合成手段は、
前記韻律情報付き音声表記情報と前記素片データを用い
て音声を合成し、前記素片データ記憶手段は音源特性と
声道伝達特性情報を記憶し、前記合成手段は、前記韻律
情報に従った周期を有し、前記音源特性に従った特性を
有する音源波形を生成するとともに、前記声道伝達特性
情報に従って前記音源波形をフィルタ処理することによ
って音声を合成することを特徴とする音声通信システム
である。
【0032】また、第12の本発明(請求項12に対
応)は、前記送信部は音声入力手段、音声符号化手段及
び第一の多重化手段を有し、前記中継部は第一の分離手
段と第二の多重化手段を有し、前記受信部は第二の分離
手段を有し、前記音声入力手段は音声信号を入力し、前
記音声符号化手段は前記音声信号のピッチと音源特性と
声道伝達特性を分析して符号化することにより音声符号
系列に変換し、前記第一の多重化手段は前記音声表記情
報と前記音声符号系列を多重化してひとつの符号系列に
変換し、前記第一の分離手段は、前記符号系列を前記音
声表記情報と前記音声符号系列に分離し、前記第二の多
重化手段は前記韻律情報付き音声表記情報と前記音声符
号系列を多重化してひとつの符号系列に変換し、前記第
二の分離手段は、前記第二の多重化手段によって多重化
された符号系列を前記音韻情報付き音声表記情報と前記
音声符号系列に分離し、前記合成手段は前記音声符号系
列を音声信号に変換することを特徴とする第11の本発
明に記載の音声通信システムである。
【0033】また、第13の本発明(請求項13に対
応)は、前記テキスト入力手段は、ユーザが任意のテキ
ストを入力できるものであることを特徴とする第1、
3,5,7,9又は11の本発明に記載の音声通信シス
テムである。
【0034】また、第14の本発明(請求項14に対
応)は、前記テキスト入力手段は、記憶媒体、ネットワ
ーク、あるいはデータベースからテキストを読み出すこ
とにより入力することを特徴とする第1、3,5,7,
9又は11の本発明に記載の音声通信システムである。
【0035】また、第15の本発明(請求項15に対
応)は、さらに、パラメータ入力手段を備え、前記パラ
メータ入力手段によってユーザは好みに応じて音声のパ
ラメータ値を入力でき、前記韻律生成手段および前記素
片読み出し手段は前記パラメータ値に応じて変更を加え
た値を出力することを特徴とする第1、3,5,7,9
又は11の本発明に記載の音声通信システムである。
【0036】また、第16の本発明(請求項16に対
応)は、前記テキスト入力手段はユーザが任意のテキス
トを入力できるものでることを特徴とする第2,4,
6,8,10又は12の本発明に記載の音声通信システ
ムである。
【0037】また、第17の本発明(請求項17に対
応)は、前記テキスト入力手段は、記憶媒体、ネットワ
ーク、あるいはデータベースからテキストを読み出すこ
とにより入力することを特徴とする第2,4,6,8,
10又は12の本発明に記載の音声通信システムであ
る。
【0038】また、第18の本発明(請求項18に対
応)は、パラメータ入力手段を更に有し、前記パラメー
タ入力手段はユーザが好みに応じて設定する音声のパラ
メータ値を入力し、韻律生成手段および素片読み出し手
段は前記パラメータ値に応じて変更を加えた値を出力す
ることを特徴とする第2,4,6,8,10又は12の
本発明に記載の音声通信システムである。
【0039】また、第19の本発明(請求項19に対
応)は、第1〜18の本発明のいずれかに記載の音声通
信システムの全部または一部の手段の全部または一部の
機能をコンピュータにより実行させるためのプログラム
及び/またはデータを担持した媒体であって、コンピュ
ータにより処理可能なことを特徴とする媒体である。
【0040】また、第20の本発明(請求項20に対
応)は、第1〜18の本発明のいずれかに記載の本発明
の全部または一部の手段の全部または一部の機能をコン
ピュータにより実行させるためのプログラム及び/また
はデータであることを特徴とする情報集合体である。
【0041】
【発明の実施の形態】以下に本発明の実施の形態を図面
を参照して説明する。
【0042】[実施の形態1]図1は本発明の音声通信
システムの第一の実施の形態を示すものである。その音
声通信システムは送信端末と受信端末からなり、その間
は通信路で結ばれている。通信路には交換機などを含む
中継器が含まれる場合もある。
【0043】送信端末にはテキスト入力部100が備え
られ、その出力は多重化部104に接続されている。ま
た、音声入力部101が備えられ、その出力はAD変換
部102、音声符号化部103を介して多重化部104
に接続されている。多重化部104の出力は送信部10
5に接続されている。
【0044】受信端末には受信部106が備えられ、そ
の出力は分離部107に接続されている。分離部107
の出力は言語解析部108および合成部115に接続さ
れている。言語解析部108には辞書109が接続され
ている。また言語解析部108の出力は韻律生成部11
0に接続されている。
【0045】韻律生成部110には韻律データベース1
11が接続されている。韻律生成部110の出力は韻律
変形部112に接続され、その出力は素片読み出し部1
13に接続されている。素片読み出し部113には素片
データベース114が接続されている。
【0046】韻律変形部112と素片読み出し部113
の出力はともに合成部115に接続されている。また、
合成部115の出力はDA変換部116を介して音声出
力部117に接続されている。また、パラメータ入力部
118が設けられ、韻律変形部112、素片読み出し部
113と接続されている。
【0047】以下にこのように構成された音声通信シス
テムの動作について説明する。まず、送信端末側の動作
を説明する。
【0048】音声符号化部103は従来例のように音声
を分析し、LSP係数αqi、ピッチ周期T0、適応符号
番号ca、雑音符号番号cr、ゲイン符号番号cgの情報
に符号化し、音声符号系列として多重化部104に出力
する。
【0049】テキスト入力部100はユーザが好みのテ
キストをキーボードなどから入力するなどしたテキスト
情報を入力し、必要に応じて所望の形式に変換して多重
化部104に出力する。多重化部104は音声符号系列
とテキスト情報を時分割で多重化することにより、一連
のデータ系列に配列しなおし、送信部105を介して通
信路に送信する。
【0050】このような多重化の手法は昨今一般的に用
いられている携帯電話のショートメッセージサービスな
どで用いられているデータ通信の方法により可能であ
る。
【0051】次に受信端末側の動作を説明する。受信部
106は通信路より前述のデータ系列を受信し、分離部
107に出力する。分離部107はデータ系列を音声符
号系列とテキスト情報に分離し、音声符号系列を合成部
115に、テキスト情報を言語解析部108に各々出力
する。
【0052】音声符号系列は従来例と同様のプロセスを
経て合成部115で音声信号に変換され、DA変換部1
16、音声出力部117を介して音声として出力され
る。
【0053】一方、テキスト情報は言語解析部108に
おいて辞書109等を用いて読みやアクセントなどの情
報である音声表記情報に変換され、韻律生成部110に
入力される。韻律生成部111は主にアクセント情報、
場合によっては読み情報をも用いて韻律データベース1
11を参照することにより音韻毎のタイミング、音韻毎
のピッチの高低、音韻毎の振幅の大きさなどの情報であ
る韻律情報を付加し、韻律情報付き音声表記情報に変換
する。
【0054】韻律情報付き音声表記情報は韻律変形部1
12によって必要に応じて韻律情報に変形を加えられ
る。例えば、ユーザーが好みによって設定した発話スピ
ード、ピッチの高低などのパラメータに応じて韻律情報
を変形する。発話スピードは音韻毎のタイミングの情報
を変形することによって、またピッチの高低は音韻毎の
ピッチの情報を変形することによって変化させる。この
ような設定はパラメータ入力部118によってユーザー
の好みに応じてなされる。
【0055】韻律変形部112によって韻律に変形を受
けた韻律情報付き音声表記情報はピッチ周期情報T0
その他の情報に分けられ、T0は合成部115に入力さ
れる。それ以外の情報は素片読み出し部113に入力さ
れる。素片読み出し部113は韻律変形部112から受
け取った情報を用いて素片データベース114から適切
な素片を読み出し、その素片のデータとして記憶されて
いるLSPパラメータα qi、適応符号番号ca、雑音符
号番号cr、ゲイン符号番号cgを合成部115に出力す
る。
【0056】合成部115はこれらT0、αqi、ca、c
r、cgの情報から音声を合成し、DA変換部116、音
声出力部117を介して音声として出力する。 [言語解析部の動作]次に、上記の第一の実施の形態に
おける言語解析部の動作について説明する。図8は言語
解析部108の処理の様子をあらわしたものである。図
8(a)には日本語の例、(b)には英語の例、(c)
には中国語の例を示している。以下、(a)の日本語の
例に従って説明する。
【0057】図8(a)の上段は入力のテキストを表し
ている。入力テキストは「今日はいい天気です。」であ
る。このテキストは辞書109を利用しながら形態素解
析、構文解析などを経て、最終的に下段にある音声表記
(発音記号、アクセント情報など)に変換される。”k
yo”や”o”は日本語の1モーラ(1拍)の発音を表
しており、”,”は休止(ポーズ)、”/”はアクセン
ト句の区切りを表す。発音記号に付加されている”’”
はアクセント核を表す。
【0058】図8(b)の英語の場合は、処理結果は”
ih”や”t”などは音素記号、”−”は音節境界、”
1”と”2”はプライマリ・ストレスとセカンダリ・ス
トレスを表す。図8(c)の中国語の場合は”jin”
や”tian”は音節単位の発音表記であるpinyi
nコード、各音節記号に付加されている数字は四声(t
one)を表す。
【0059】これらが各言語における自然な抑揚を持っ
た音声を合成するための情報となる。 [韻律生成から合成にかけての動作]次に、韻律生成か
ら合成にかけての動作について説明する。
【0060】図9は韻律生成部110、韻律変形部11
2、素片読み出し部113、合成部115とその周辺の
構成を表したものである。破線で示されているように、
分離部107から音声符号が合成部115に入力されて
いるが、これは通常の音声復号化の動作である。
【0061】一方、実線で示されているように、韻律変
形部112と素片読み出し部113からもデータが入力
されているが、これはテキストからの音声合成を行う場
合の動作である。 以下にこのテキストからの音声合成
の動作について説明する。
【0062】素片データベース114にはCELP符号
化された素片データが納められている。素片の単位は音
素、モーラ、音節等が通常用いられる。符号化されたデ
ータはLSP係数αqi、適応符号番号ca、雑音符号番
号cr、ゲイン符号番号cgとして格納され、それぞれの
値はフレーム周期毎に並べられている。
【0063】素片読み出し部113には素片選択部11
3−1が備えられ、韻律変形部112から送信される韻
律情報付き音声表記情報のうち音声表記情報を利用して
素片データベース114に格納されている素片のうちの
ひとつを指定する。
【0064】次にデータ読み出し部113−2が素片デ
ータベース114から指定された素片のデータを読み出
し、合成部に送信する。この時、韻律変形部112から
送られてくる韻律情報付き音声表記情報に含まれるタイ
ミング情報を利用して素片データの時間伸縮を行う。
【0065】1素片のデータは(数1)のような時系列
で表される。
【0066】
【数1】Vm = {vm0,vm1,...vmk} ここで、mは素片番号、kは素片毎のフレーム数であ
る。各フレームのvmは(数2)のようにCELPデー
タである。
【0067】
【数2】 vm = {αq0,...,αqn,ca,cr,cg} データ読み出し部113−2はタイミング情報から必要
な時間長を算出し、それをフレーム数k’に換算する。
k=k’すなわち素片本来の時間長と必要な時間長が等
しい場合、vm0、vm1、vm2と順番に一つずつ情報を読
み出して行けば良い。k>k’、すなわち素片の時間長
を縮めて使いたい場合はvm0、vm2、v m4などのように
適当に読み飛ばす。また、k<k’、すなわち素片の時
間長を伸ばして使いたい場合はvm0、vm0、vm1
m2、vm2などのように必要に応じてフレームデータを
繰り返す。
【0068】このようにして生成されたデータは合成部
115に入力される。適応符号帳115−1にはca
雑音符号帳にはcg、ゲイン符号帳にはcg、合成フィル
タにはαqiがそれぞれ入力される。ただし、T0は韻律
変形部112から入力される。
【0069】適応符号帳115−1はcaによって示さ
れた音源波形をT0の周期で繰り返し発生するようにな
っているため、スペクトルの特徴は素片に従い、ピッチ
は韻律変形部112からの出力に従った音源波形が生成
される。その他は通常の音声復号化と同じ動作となる。
【0070】[韻律生成部と韻律変形部の動作]次に、
韻律生成部110と韻律変形部112の動作について詳
しく説明する。
【0071】韻律生成部110には音声表記情報が入力
される。
【0072】図8(a)の例を用いると”kyo’ o
wa , i’ i / te’ N ki de su .”が
入力である。日本語の韻律はアクセント句と呼ばれる単
位で記述される。アクセント句は”,”または”/”で
区切られる。この例の場合、アクセント句は3つ存在す
る。アクセント句の中にはアクセント核が1個または0
個存在し、アクセント核の位置によってアクセント型が
定義されている。アクセント核が先頭モーラにある場合
は1型と呼び、一つ後ろにずれる毎に2型、3型などと
呼ぶ。アクセント核が存在しない場合は特別に0型と呼
ぶ。アクセント型とアクセント句が含むモーラの数によ
ってアクセント句は分類される。この例の場合、先頭か
ら3モーラ1型、2モーラ1型、5モーラ1型となる。
【0073】韻律データベース111にはアクセント句
のモーラ数とアクセント型に応じてモーラ毎のピッチの
値が登録されている。図10はピッチの値を周波数(単
位はHz)で登録してある様子をあらわしている。ま
た、韻律データベース111にはアクセント句のモーラ
数に対応した各モーラの時間長が登録されている。図1
1はその様子を表している。図11の時間長の単位はミ
リ秒である。
【0074】このような情報をもとに韻律生成部110
は図12のような処理を行う。図12は韻律生成部11
0の入出力データを表したものである。入力は図8の言
語処理結果の出力である音声表記である。出力は音声表
記、時間長、ピッチとなる。音声表記は入力の各音節の
表記からアクセント記号を除去したものとなっている。
【0075】また、”,”や”.”は無音を表す”SI
L”という記号に置きかえられている。時間長は図11
の時間長テーブルから3モーラ、2モーラ、5モーラの
情報が取り出され用いられている。SILの音節にはこ
こでは定数の200を割り当てている。ピッチ情報には
図10のピッチテーブルから3モーラ1型、2モーラ1
型、5モーラ1型の情報が取り出されて用いられてい
る。
【0076】韻律変形部112はこれらの情報をパラメ
ータ入力部118を介してユーザが設定した情報に従っ
て変形する。例えばピッチを変えるにはピッチの周波数
の値に定数pfを乗算すればよい。発話速度を変えるに
は時間長の値に定数pdを乗算すればよい。pf=1.
2、pd=0.9の時の韻律変形部112の入力データ
および処理結果の例を図13に示す。韻律変形部112
はこの情報をもとに、適応符号帳115−1に対して各
フレーム毎にT0の値を出力する。そのために、1モー
ラ毎に決定されているピッチ周波数の値を直線補間やス
プライン補間などを用いてフレーム毎の周波数F0に変
換し、それをサンプリング周波数Fsを用いて(数3)
によって変換する。
【0077】
【数3】T0 = Fs / F0 図14にピッチ周波数F0を直線補間する様子を示す。
この例では二つのモーラの間は直線で補間しているが、
文頭やSILの前後などは最寄の値を使用して平坦な周
波数を出力するようにしている。
【0078】ここまで日本語の例を中心に説明したが、
英語、中国語とも同様に処理すればよい。このように構
成することにより、受信端末装置内の合成部115、D
A変換部116、音声出力部117を用いて、音声通信
とテキスト音声変換がともに実現し、ハードウェア規模
の増大を少なく抑えることが可能である。
【0079】また、この構成によればテキスト情報が受
信端末にそのまま送られてくるため、受信端末のディス
プレイにテキストを表示させることや、テキストを音声
合成に適したものに変形させるなどの処理が可能であ
る。
【0080】また、韻律生成部110と韻律データベー
ス111を受信端末側に持つので、例えば複数の韻律パ
ターンからユーザが好みに応じて選択できるようにする
ことや、受信端末装置の機種毎に異なる韻律を搭載する
ことが可能である。
【0081】また、韻律変形部112を受信端末側に搭
載しているので、ユーザが好みに応じて発話速度やピッ
チなど音声のパラメータを変化させることができる。
【0082】さらに、素片読み出し部113や素片デー
タベース114を受信端末側に搭載しているため、ユー
ザが好みに応じて男女の切り替えや話者の切り替えをで
きるようにすることや、機種毎に異なる話者の音声を搭
載することも可能である。
【0083】なお、本実施の形態の説明において、テキ
スト入力部100にはユーザがキーボードなどから任意
のテキストを入力するとしたが、例えばハードディスク
などの記憶媒体やインターネットやLANなどのネット
ワーク、あるいはデータベースからテキストを読み出し
ても良い。あるいはキーボードの代わりに音声認識など
を用いてテキストを入力してももちろん構わない。これ
以降に述べる他の実施の形態においても同様である。
【0084】また、本実施の形態では韻律生成部110
においてピッチと時間長をアクセント句毎のモーラ数と
アクセント形を用いたテーブル参照で行うようにした
が、これを別の方法で行ってももちろん構わない。例え
ばピッチは藤崎モデルなどの生成モデルを用いれば、関
数を用いて連続的なピッチ周波数の値を生成することが
できる。また、時間長は音韻毎の特徴量として統計的に
求めておいてもよい。
【0085】また、本実施の形態において、音声符号化
復号化方式として基本的なCELP方式を例に用いた
が、これをもとに様々な改良方式、例えばCS−ACE
LP方式(ITU−T Recommendation
G.729)などにも適用可能である。
【0086】本発明は、音声信号を音源とLPC係数や
LSP係数などの声道特性に分離して符号化するシステ
ムであれば適用可能である。
【0087】[実施の形態2]続いて本発明の音声通信
システムの第二の実施の形態について説明する。
【0088】図2は本発明の音声通信システムの第二の
実施の形態を示すものである。第一の実施の形態と同様
に、その音声通信システムは送信端末と受信端末からな
り、その間は通信路で結ばれている。
【0089】送信端末にはテキスト入力部100が備え
られ、その出力は言語解析部108に接続されている。
言語解析部108の出力は多重化部104、送信部10
5を経て通信路に送信されている。
【0090】受信端末には受信部106が備えられ、そ
の出力は分離部107に接続されている。分離部107
の出力は韻律生成部110および合成部115に接続さ
れている。その他は第一の実施の形態と同様である。
【0091】このように構成された音声通信システムは
第一の実施の形態と同様に動作する。
【0092】本実施の形態の第一の実施の形態に対する
動作の違いは、テキスト入力部100はテキスト情報を
多重化部104ではなく直接言語解析部108に出力す
ること、言語解析部108の出力である音声表記情報が
多重化部104に出力されること、分離部107が受信
されたデータ系列から音声符号系列と音声表記情報に分
離すること、分離された音声表記情報が韻律生成部11
0に入力されることである。
【0093】このように構成することで、受信端末側に
言語解析部108および辞書109を搭載する必要がな
くなるため、受信端末の回路規模をさらに小さくするこ
とができる。このことは受信側が携帯型の端末であり、
送信側がコンピュータサーバなどの大型機器であるとき
に有利である。
【0094】また、韻律生成部110と韻律データベー
ス111は受信端末側に持つので、ユーザが複数の韻律
パターンから好みの物を選択することや、受信端末装置
の機種毎に異なる韻律を搭載することが可能である。
【0095】また、韻律変形部112を受信端末側に搭
載しているので、ユーザが好みに応じて発話速度やピッ
チなど音声のパラメータを変化させることができる。
【0096】さらに、素片読み出し部113や素片デー
タベース114を受信端末側に搭載しているため、ユー
ザが好みに応じて男女の切り替えや話者の切り替えをで
きるようにすることや、機種毎に異なる話者の音声を搭
載することも可能である。
【0097】[実施の形態3]続いて本発明の音声通信
システムの第三の実施の形態について説明する。
【0098】図3は本発明の音声通信システムの第三の
実施の形態を示すものである。第一および第二の実施の
形態と同様に、その音声通信システムは送信端末と受信
端末からなり、その間は通信路で結ばれている。
【0099】本実施の形態では第二の実施の形態と異な
り、韻律生成部110と韻律データベース111が受信
端末ではなく送信端末に搭載されている。したがって、
言語解析部108の出力である音声表記情報は韻律生成
部110に直接入力され、韻律生成部110の出力であ
る韻律情報付き音声表記情報は、送信端末の多重化部1
04と送信部105を介して通信路に送信されている。
【0100】受信端末側では受信部106を介して受信
されたデータ系列は分離部107により音声符号系列と
韻律情報付き音声表記情報に分離され、音声符号系列は
合成部115に、韻律情報付き音声表記情報は韻律変形
部112に入力されている。
【0101】このように構成することにより、受信端末
側に韻律生成部110および韻律データベース111を
搭載する必要がなくなるため、受信端末の回路規模をさ
らに小さくすることができる。このことは受信側が携帯
型の端末であり、送信側がコンピュータサーバなどの大
型機器であるときに一層有利である。
【0102】また、韻律変形部112を受信端末側に搭
載しているので、ユーザが好みに応じて発話速度やピッ
チなど音声のパラメータを変化させることができる。
【0103】さらに、素片読み出し部113や素片デー
タベース114を受信端末側に搭載しているため、ユー
ザが好みに応じて男女の切り替えや話者の切り替えをで
きるようにすることや、機種毎に異なる話者の音声を搭
載することも可能である。
【0104】[実施の形態4]続いて本発明の音声通信
システムの第四の実施の形態について説明する。
【0105】図4は本発明の音声通信システムの第四の
実施の形態を示すものである。第一、第二、第三の実施
の形態とは異なり、その音声通信システムは送信端末と
受信端末に加えて中継器からなり、それらの間は互いに
通信路で結ばれている。
【0106】送信端末には、テキスト入力部100が備
えられその出力は多重化部104−aに接続されてい
る。また、音声入力部101が備えられ、その出力はA
D変換部102、音声符号化部103を経て多重化部1
04−aに接続されている。多重化部104−aの出力
は送信部105−aを介して通信路に送信されている。
【0107】中継器には受信部106−aが備えられ、
その出力は分離部107−aに接続されている。分離部
107−aの一方の出力は言語解析部108に接続さ
れ、その出力は多重化部104−bに接続されている。
また、言語解析部108には辞書109が接続されてい
る。分離部107−aのもう一方の出力は多重化部10
4−bに接続され、その出力は送信部105−bを介し
て通信路に送信されている。
【0108】受信端末には受信部106−bが備えら
れ、その出力は分離部107−bに接続されている。分
離部107−bの一方の出力は韻律生成部110に接続
されている。また、韻律生成部110には韻律データベ
ース111が接続されている。韻律生成部110の出力
は韻律変形部112に接続され、その出力は素片読み出
し部113に接続されている。素片読み出し部113に
は素片データベース114が接続されている。
【0109】韻律変形部112と素片読み出し部113
の出力はともに合成部115に接続されている。また、
合成部115の出力はDA変換部116を介して音声出
力部117に接続されている。また、パラメータ入力部
118が設けられ、韻律変形部112、素片読み出し部
113と接続されている。
【0110】このように構成された音声通信システムの
動作は送信端末に関しては本発明の第一の実施の形態と
同様である。また、受信端末に関しては本発明の第三の
実施の形態と同様である。中継器での動作は以下の通り
である。
【0111】受信部106は通信路より前述のデータ系
列を受信し、分離部107に出力する。分離部107は
データ系列を音声符号系列とテキスト情報に分離し、音
声符号系列を多重化部104−bに、テキスト情報を言
語解析部108に各々出力する。テキスト情報は他の実
施の形態と同様に処理され音声表記情報に変換され、多
重化部104−bに出力される。多重化部104−bは
音声符号系列と音声表記情報を多重化して一つのデータ
系列とし、送信部105−bを介して通信路に送信す
る。
【0112】このように構成することで、言語解析部1
08および辞書109を送信端末および受信端末のいず
れにも搭載する必要がなく、両者の回路規模を小さくす
ることが可能である。このことは送信側と受信側がとも
に携帯型の端末装置である場合に有利である。
【0113】また、韻律生成部110と韻律データベー
ス111は受信端末側に持つので、ユーザが複数の韻律
パターンから好みの物を選択することや、受信端末装置
の機種毎に異なる韻律を搭載することが可能である。
【0114】また、韻律変形部112を受信端末側に搭
載しているので、ユーザが好みに応じて発話速度やピッ
チなど音声のパラメータを変化させることができる。
【0115】さらに、素片読み出し部113や素片デー
タベース114を受信端末側に搭載しているため、ユー
ザが好みに応じて男女の切り替えや話者の切り替えをで
きるようにすることや、機種毎に異なる話者の音声を搭
載することも可能である。
【0116】[実施の形態5]続いて本発明の音声通信
システムの第五の実施の形態について説明する。
【0117】図5は本発明の音声通信システムの第五の
実施の形態を示すものである。第四の実施の形態と同様
に、その音声通信システムは送信端末と中継器と受信端
末からなり、それらの間は互いに通信路で結ばれてい
る。
【0118】本実施の形態では第四の実施の形態と異な
り、韻律生成部110と韻律データベース111が受信
端末ではなく中継器に搭載されている。したがって、言
語解析部108の出力である音声表記情報は韻律生成部
110に直接入力され、韻律生成部110の出力である
韻律情報付き音声表記情報は中継器の多重化部104−
bと送信部105−bを介して通信路に送信されてい
る。送信端末は本発明の第四の実施の形態と同様に動作
し、受信端末は本発明の第三の実施の形態と同様に動作
する。
【0119】このように構成することで言語解析部10
8および辞書109を送信端末および受信端末のいずれ
にも搭載する必要がなく、両者の回路規模をさらに小さ
くすることが可能である。このことは送信側と受信側が
ともに携帯型の端末装置である場合に一層有利である。
【0120】また、韻律変形部112を受信端末側に搭
載しているので、ユーザが好みに応じて発話速度やピッ
チなど音声のパラメータを変化させることができる。
【0121】さらに、素片読み出し部113や素片デー
タベース114を受信端末側に搭載しているため、ユー
ザが好みに応じて男女の切り替えや話者の切り替えをで
きるようにすることや、機種毎に異なる話者の音声を搭
載することも可能である。
【0122】また、この構成を用いることで複数の言語
に対応することが容易となる。例えば送信側では特定の
言語を入力可能としておき、中継器においては複数の言
語に対応した言語解析部と韻律生成部を用意しておく。
言語の種類は送信端末を識別することでデータベースと
照合することで特定することができる。あるいは送信端
末から毎回言語種類の情報を送信するようにしても良
い。
【0123】言語解析部108の出力である音声表記と
してたとえばIPA(International Phonetic Alphabe
t)などの体系を用いることで、複数の言語を同一の表
記で表現できる。さらに、韻律生成部110は韻律情報
としてToBI(Tones and BreakIndices, M.E. Beckman an
d G.M. Ayers, The ToBI Handbook, Tech. Rept. (Ohio
-State University, Columbus, U.S.A., 1993))などの
韻律情報記述手法あるいは音素時間長、ピッチ周波数、
振幅値などの物理量を用いることで言語に依存しない表
現が可能である。
【0124】このように言語間で共通の形式で表現され
た韻律情報付き音声表記情報を中継器から受信端末に送
信することが可能である。受信端末側では音声表記およ
び韻律情報に従って適切な周期と適切な振幅で音源波形
を生成し適切なコード番号を生成することにより、あら
ゆる言語の音声を共通の回路で合成することが可能であ
る。 [実施の形態6]続いて本発明の音声通信システムの第
六の実施の形態について説明する。
【0125】図6は本発明の音声通信システムの第六の
実施の形態を示すものである。第四、第五の実施の形態
と同様に、その音声通信システムは送信端末と中継器と
受信端末からなり、それらの間は互いに通信路で結ばれ
ている。
【0126】本実施の形態では第五の実施の形態と異な
り、言語解析部108と辞書109が中継器ではなく送
信端末に搭載されている。送信端末は本発明の第二の実
施の形態と同様に動作する。また、受信端末は本発明の
第三の実施の形態と同様に動作する。
【0127】また、中継器では受信部106−aを介し
て通信路から受信されたデータ系列は分離部107−a
で音声表記情報と音声符号系列に分離される。
【0128】音声表記情報は韻律生成部110で韻律デ
ータベース111を用いながら韻律情報付き音声表記情
報に変換され、多重化部104−bに入力される。ま
た、音声符号系列も多重化部104−bに入力され、韻
律情報付き音声表記情報と多重化されて一つのデータ系
列となり、送信部105−bを介して通信路に送信され
る。
【0129】このように構成することで受信端末は本発
明の第五の実施の形態と同様韻律生成部110と韻律デ
ータベース111を搭載する必要がなく、回路規模を小
さくできる。
【0130】また、韻律変形部112を受信端末側に搭
載しているので、ユーザが好みに応じて発話速度やピッ
チなど音声のパラメータを変化させることができる。
【0131】さらに、素片読み出し部113や素片デー
タベース114を受信端末側に搭載しているため、ユー
ザが好みに応じて男女の切り替えや話者の切り替えをで
きるようにすることや、機種毎に異なる話者の音声を搭
載することも可能である。
【0132】また、本発明の第5の実施の形態で述べた
ように、複数の言語に依存することが容易となる。即
ち、受信端末には言語解析部と韻律生成部を持たないた
め、言語に依存しないハードウェアが実現可能である。
一方、送信端末側は言語解析部を持つため特定の言語に
対応したものとなる。携帯電話システムなどのように交
換機により任意の相手先との接続が可能なシステムの場
合、受信側が言語非依存であれば必ず通信は成立する。
このような状況では送信側が言語依存性を有することが
許容できる。
【0133】なお、本発明の音声通信システムの全部ま
たは一部の手段の全部または一部の機能をコンピュータ
により実行させるためのプログラム及び/またはデータ
を担持した媒体であって、コンピュータにより処理可能
なことを特徴とする媒体も本発明に属する。
【0134】さらに、本発明の音声通信システムの全部
または一部の手段の全部または一部の機能をコンピュー
タにより実行させるためのプログラム及び/またはデー
タであることを特徴とする情報集合体も本発明に属す
る。
【0135】さらに、本発明のデータとは、データ構
造、データフォーマット、データの種類などを含む。ま
た、本発明の媒体とは、ROM等の記録媒体、インター
ネット等の伝送媒体、光・電波・音波等の伝送媒体を含
む。また、本発明の担持した媒体とは、例えば、プログ
ラム及び/またはデータを記録した記録媒体、やプログ
ラム及び/またはデータを伝送する伝送媒体等を含む。
また、本発明のコンピュータにより処理可能とは、例え
ば、ROMなどの記録媒体の場合であれば、コンピュー
タにより読みとり可能であることであり、伝送媒体の場
合であれば、伝送対象となるプログラム及び/またはデ
ータが伝送の結果として、コンピュータにより取り扱え
ることであることを含む。また、本発明の情報集合体と
は、例えば、プログラム及び/またはデータ等のソフト
ウエアを含むものである。
【0136】さらに、上記実施の形態の音声通信システ
ムの全部または一部の手段の全部または一部の機能をコ
ンピュータにより実行させるためのプログラム及び/ま
たはデータを記録したプログラム記録媒体は、コンピュ
ータにより読み取り可能であり、読み取られた前記プロ
グラム及び/またはデータが前記コンピュータと協動し
て前記機能を実行するプログラム記録媒体であっても良
い。
【0137】
【発明の効果】上記のように構成することにより、携帯
電話のように音声復号化部を内蔵しているような通信機
器においてわずかなソフトウェアとテーブルを追加する
だけで音声規則合成機能を追加することができる。テー
ブルの中でサイズが大きいのは素片テーブルであるが、
一般的な規則合成方式で用いられる波形素片を用いた場
合、百kB以上が必要になる。それに対し、コード番号
でテーブル化する場合は10kB前後で構成可能である。
また、当然ながら規則合成方式のような波形生成部のソ
フトウェアも不要である。従って、これら全ての機能が
1チップで実現可能である。
【0138】このことにより、従来の音声通信機能を維
持しながら発音記号テキストの受信による規則合成の機
能を付加することにより応用範囲が拡大する。例えば、
携帯電話でサーバーにアクセスすることにより最新のニ
ュース情報などを瞬時にダウンロードし、通信を終了し
てから音声に変換して内容を聞くことが可能である。ま
た、ページャー機能を内蔵した機器では文字の表示と共
に音声でも出力可能となる。
【0139】また、音声規則合成機能はパラメータの変
更によってピッチや速度を可変にでき、周囲の騒音に応
じて聞きやすい高さや速さを選べるという利点がある。
【0140】さらに、簡単なテキスト処理を内蔵するこ
とによって通信端末からテキストを入力し、これを発音
記号テキストに変換して転送することにより、相手側に
合成音声でメッセージを送信することも可能となる。
【0141】また、テキストを入力した端末側自身でも
合成音声に変換することが可能であり、ボイスメモ代わ
りに使用可能である。
【0142】また、高度なテキスト処理を内蔵すること
はソフトウェアが複雑になると共に大規模な辞書が必要
になるので、これを中継局に内蔵すれば同様の機能が低
いコストで実現可能になる。
【0143】さらに、言語解析部と韻律生成部を送信端
末あるいは中継局に内蔵するようにすれば、言語に依存
しない受信端末の実現が可能となる。
【図面の簡単な説明】
【図1】本発明の音声通信システムの第一の実施の形態
の構成図
【図2】本発明の音声通信システムの第二の実施の形態
の構成図
【図3】本発明の音声通信システムの第三の実施の形態
の構成図
【図4】本発明の音声通信システムの第四の実施の形態
の構成図
【図5】本発明の音声通信システムの第五の実施の形態
の構成図
【図6】本発明の音声通信システムの第五の実施の形態
の構成図
【図7】従来の音声符号化復号化システムの説明図
【図8】言語処理部の処理の説明図
【図9】韻律生成部、韻律変形部と合成部周辺の詳細の
構成図
【図10】韻律生成部のピッチテーブル
【図11】韻律生成部の時間長テーブル
【図12】韻律生成部の処理の説明図
【図13】韻律変形部の処理の説明図
【図14】韻律生成部が補間により連続的なピッチパタ
ーンを生成する様子の説明図
【符号の説明】
100 テキスト入力部 101 音声入力部 102 AD変換部 103 音声符号化部 104 多重化部 104−a 多重化部 104−b 多重化部 105 送信部 105−a 送信部 105−b 送信部 106 受信部 106−a 受信部 106−b 受信部 107 分離部 107−a 分離部 107−b 分離部 108 言語解析部 109 辞書 110 韻律生成部 111 韻律データベース 112 韻律変形部 113 素片読み出し部 113−1 素片選択部 113−2 データ読み出し部 114 素片データベース 115 合成部 115−1 適応符号帳 115−2 雑音符号帳 115−3 ゲイン符号帳 115−4 合成フィルタ 116 DA変換部 117 音声出力部 200 LPC分析部 201 LPCパラメータ量子化部 202 合成フィルタ 203 適応符号帳 204 雑音符号帳 205 ゲイン符号帳 206 聴覚重み付けフィルタ 207 歪計算部 208 適応符号帳 209 雑音符号帳 210 ゲイン符号帳 211 合成フィルタ

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】テキスト入力手段及び送信手段を有する送
    信部と、 受信手段、言語解析手段、韻律生成手段、素片データ記
    憶手段、素片読み出し手段及び、合成手段を有する受信
    部と、を備えた音声通信システムであって、 前記テキスト入力手段はテキスト情報を入力し、 前記送信手段は前記テキスト情報を通信路に送信し、 前記受信手段は前記通信路から前記テキスト情報を受信
    し、 前記言語解析手段は前記テキスト情報を解析して、前記
    テキスト情報を、音声表記情報に変換し、 前記韻律生成手段は、前記音声表記情報を、韻律情報が
    付加された韻律情報付き音声表記情報に変換し、 前記素片読み出し手段は、前記韻律情報付き音声表記情
    報に従って、前記素片データ記憶手段から素片データを
    読み出し、 前記合成手段は、前記韻律情報付き音声表記情報と、前
    記素片データを用いて音声を合成し、 前記素片データ記憶手段は、音源特性と声道伝達特性情
    報を記憶し、 前記合成手段は、 前記韻律情報に従った周期を有し、
    前記音源特性に従った特性を有する音源波形を生成する
    とともに、前記声道伝達特性情報に従って前記音源波形
    をフィルタ処理することによって音声を合成することを
    特徴とする音声通信システム。
  2. 【請求項2】前記送信部は音声入力手段と音声符号化手
    段と多重化手段を有し、 前記受信部は分離手段を有し、 前記音声入力手段は音声信号を入力し、 前記音声符号化手段は前記入力された音声信号のピッチ
    と音源特性と声道伝達特性を分析して符号化することに
    より音声符号系列に変換し、 前記多重化手段は前記テキスト情報と前記音声符号系列
    を多重化してひとつの符号系列に変換し、 前記分離手段は前記符号系列を前記テキスト情報と前記
    音声符号系列に分離し、 前記合成手段は前記音声符号系列を音声信号に変換する
    ことを特徴とする請求項1記載の音声通信システム。
  3. 【請求項3】テキスト入力手段、言語解析手段及び送信
    手段を有する送信部と、 受信手段、韻律生成手段、素片データ記憶手段、素片読
    み出し手段及び、合成手段を有する受信部とを備えた音
    声通信システムであって、 前記テキスト入力手段はテキスト情報を入力し、 前記言語解析手段は、前記テキスト情報を音声表記情報
    に変換し、 前記送信手段は前記音声表記情報を通信路に送信し、 前記受信手段は前記通信路から前記音声表記情報を受信
    し、 前記韻律生成手段は、前記音声表記情報を、韻律情報が
    付加された韻律情報付き音声表記情報に変換し、 前記素片読み出し手段は、前記韻律情報付き音声表記情
    報に従って前記素片データ記憶手段から素片データを読
    み出し、 前記合成手段は、前記韻律情報付き音声表記情報と前記
    素片データを用いて音声を合成し、 前記素片データ記憶手段は音源特性と声道伝達特性情報
    を記憶し、 前記合成手段は、前記韻律情報に従った周期を有し、前
    記音源特性に従った特性を有する音源波形を生成すると
    ともに、前記声道伝達特性情報に従って前記音源波形を
    フィルタ処理することによって音声を合成することを特
    徴とする音声通信システム。
  4. 【請求項4】前記送信部は音声入力手段と音声符号化手
    段と多重化手段を有し、 前記受信部は分離手段を有し、 前記音声入力手段は音声信号を入力し、 前記音声符号化手段は前記入力された音声信号のピッチ
    と音源特性と声道伝達特性を分析して符号化することに
    より音声符号系列に変換し、 前記多重化手段は前記音声表記情報と前記音声符号系列
    を多重化してひとつの符号系列に変換し、 前記分離手段は、前記符号系列を前記音声表記情報と前
    記音声符号系列に分離し、 前記合成手段は前記音声符号系列を音声信号に変換する
    ことを特徴とする請求項3記載の音声通信システム。
  5. 【請求項5】テキスト入力手段、言語解析手段、韻律生
    成手段及び、送信手段を有する送信部と、 受信手段、素片データ記憶手段、素片読み出し手段及び
    合成手段を有する受信部とを備えた音声通信システムで
    あって、 前記テキスト入力手段はテキスト情報を入力し、 前記言語解析手段は、前記テキスト情報を音声表記情報
    に変換し、 前記韻律生成手段は、前記音声表記情報を、韻律情報が
    付加された韻律情報付き音声表記情報に変換し、 前記送信手段は、前記韻律情報付き音声表記情報を通信
    路に送信し、 前記受信手段は、前記通信路から前記韻律情報付き音声
    表記情報を受信し、 前記素片読み出し手段は、前記韻律情報付き音声表記情
    報に従って前記素片データ記憶手段から素片データを読
    み出し、 前記合成手段は、前記韻律情報付き音声表記情報と前記
    素片データとを用いて音声を合成し、 前記素片データ記憶手段は音源特性と声道伝達特性情報
    を記憶し、 前記合成手段は、 前記韻律情報に従った周期を有し、
    前記音源特性に従った特性を有する音源波形 を生成す
    るとともに、 前記声道伝達特性情報に従って前記音源
    波形をフィルタ処理することによって音声を合成するこ
    とを特徴とする音声通信システム。
  6. 【請求項6】前記送信部は音声入力手段、音声符号化手
    段及び多重化手段を有し、 前記受信部は分離手段を有
    し、 前記音声入力手段は音声信号を入力し、 前記音声符号化手段は、前記音声信号のピッチと音源特
    性と声道伝達特性を分析して符号化することにより音声
    符号系列に変換し、 前記多重化手段は前記韻律情報付き音声表記情報と前記
    音声符号系列を多重化してひとつの符号系列に変換し、 前記分離手段は前記符号系列を前記韻律情報付き音声表
    記情報と前記音声符号系列に分離し、 前記合成手段は、前記音声符号系列を音声信号に変換す
    ることを特徴とする請求項5記載の音声通信システム。
  7. 【請求項7】テキスト入力手段及び第一の送信手段を有
    する送信部と、 第一の受信手段、言語解析手段及び第二の送信手段を有
    する中継部と、 第二の受信手段、韻律生成手段、素片データ記憶手段、
    素片読み出し手段及び、合成手段を有する受信部とを備
    えた音声通信システムであって、 前記テキスト入力手段はテキスト情報を入力し、 前記第一の送信手段は前記テキスト情報を第一の通信路
    に送信し、前記第一の受信手段は前記第一の通信路から
    前記テキスト情報を受信し、 前記言語解析手段は前記テキスト情報を音声表記情報に
    変換し、 前記第二の送信手段は前記音声表記情報を第二の通信路
    に送信し、 前記第二の受信手段は前記第二の通信路から前記音声表
    記情報を受信し、 前記韻律生成手段は、前記音声表記情報を、韻律情報が
    付加された韻律情報付き音声表記情報に変換し、 前記素片読み出し手段は前記韻律情報付き音声表記情報
    に従って前記素片データ記憶手段から素片データを読み
    出し、 前記合成手段は、前記韻律情報付き音声表記情報と前記
    素片データを用いて音声を合成し、 前記素片データ記憶手段は音源特性と声道伝達特性情報
    を記憶し、 前記合成手段は、前記韻律情報に従った周期を有し、前
    記音源特性に従った特性を有する音源波形 を生成する
    とともに、前記声道伝達特性情報に従って前記音源波形
    をフィルタ処理することによって音声を合成することを
    特徴とする音声通信システム。
  8. 【請求項8】前記送信部は音声入力手段と音声符号化手
    段と第一の多重化手段を有し、前記中継部は第一の分離
    手段と第二の多重化手段を有し、前記受信部は第二の分
    離手段を有し、 前記音声入力手段は音声信号を入力し、 前記音声符号化手段は前記音声信号のピッチと音源特性
    と声道伝達特性を分析して符号化することにより音声符
    号系列に変換し、 前記第一の多重化手段は前記テキスト情報と前記音声符
    号系列を多重化してひとつの符号系列に変換し、 前記第一の分離手段は前記符号系列を前記テキスト情報
    と前記音声符号系列に分離し、 前記第二の多重化手段は前記音声表記情報と前記音声符
    号系列を多重化してひとつの符号系列に変換し、 前記第二の分離手段は前記第二の多重化手段によって多
    重化された符号系列を前記音声表記情報と前記音声符号
    系列に分離し、 前記合成手段は前記音声符号系列を音声信号に変換する
    ことを特徴とする請求項7記載の音声通信システム。
  9. 【請求項9】テキスト入力手段と第一の送信手段を有す
    る送信部と、 第一の受信手段、言語解析手段、韻律生成手段及び第二
    の送信手段を有する中継部と、 第二の受信手段、素片データ記憶手段、素片読み出し手
    段及び合成手段を有する受信部とを備えた音声通信シス
    テムであって、 前記テキスト入力手段はテキスト情報を入力し、 前記第一の送信手段は前記テキスト情報を第一の通信路
    に送信し、 前記第一の受信手段は前記第一の通信路から前記テキス
    ト情報を受信し、 前記言語解析手段は前記テキスト情報を音声表記情報に
    変換し、 前記韻律生成手段は前記音声表記情報を、韻律情報が付
    加された韻律情報付き音声表記情報に変換し、 前記第二の送信手段は前記韻律情報付き音声表記情報を
    第二の通信路に送信し、 前記第二の受信手段は前記第二の通信路から前記韻律情
    報付き音声表記情報を受信し、 前記素片読み出し手段は前記韻律情報付き音声表記情報
    に従って前記素片データ記憶手段から素片データを読み
    出し、 前記合成手段は前記韻律情報付き音声表記情報と前記素
    片データとを用いて音声を合成し、 前記素片データ記憶手段は音源特性と声道伝達特性情報
    を記憶し、 前記合成手段は、前記韻律情報に従った周期を有し、前
    記音源特性に従った特性を有する音源波形 を生成する
    とともに、前記声道伝達特性情報に従って前記音源波形
    をフィルタ処理することによって音声を合成することを
    特徴とする音声通信システム。
  10. 【請求項10】前記送信部は音声入力手段、音声符号化
    手段及び、第一の多重化手段を有し、前記中継部は第一
    の分離手段と第二の多重化手段を有し、前記受信部は第
    二の分離手段を有し、 前記音声入力手段は音声信号を入力し、 前記音声符号化手段は前記音声信号のピッチと音源特性
    と声道伝達特性を分析して符号化することにより音声符
    号系列に変換し、 前記第一の多重化手段は前記テキスト情報と前記音声符
    号系列を多重化してひとつの符号系列に変換し、 前記第一の分離手段は前記符号系列を前記テキスト情報
    と前記音声符号系列に分離し、 前記第二の多重化手段は、前記韻律情報付き音声表記情
    報と前記音声符号系列を多重化してひとつの符号系列に
    変換し、 前記第二の分離手段は、前記第二の多重化手段によって
    多重化された前記符号系列を、前記音韻情報付き音声表
    記情報と前記音声符号系列に分離し、 前記合成手段は前記音声符号系列を音声信号に変換する
    ことを特徴とする請求項9記載の音声通信システム。
  11. 【請求項11】テキスト入力手段、言語解析手段及び、
    第一の送信手段を有する送信部と、第一の受信手段、韻
    律生成手段及び第二の送信手段を有する中継部と、第二
    の受信手段、素片データ記憶手段、素片読み出し手段及
    び合成手段を有する受信部とを備えた音声通信システム
    であって、 前記テキスト入力手段はテキスト情報を入力し、 前記言語解析手段は前記テキスト情報を音声表記情報に
    変換し、 前記第一の送信手段は前記音声表記情報を第一の通信路
    に送信し、前記第一の受信手段は前記第一の通信路から
    音声表記情報情報を受信し、前記韻律生成手段は、前記
    音声表記情報を、韻律情報が付加された韻律情報付き音
    声表記情報に変換し、 前記第二の送信手段は前記韻律情報付き音声表記情報を
    第二の通信路に送信し、 前記第二の受信手段は前記第二の通信路から前記韻律情
    報付き音声表記情報を受信し、 前記素片読み出し手段は前記韻律情報付き音声表記情報
    に従って前記素片データ記憶手段から素片データを読み
    出し、 前記合成手段は、前記韻律情報付き音声表記情報と前記
    素片データを用いて音声を合成し、 前記素片データ記憶手段は音源特性と声道伝達特性情報
    を記憶し、 前記合成手段は、前記韻律情報に従った周期を有し、前
    記音源特性に従った特性を有する音源波形 を生成する
    とともに、前記声道伝達特性情報に従って前記音源波形
    をフィルタ処理する、ことによって音声を合成すること
    を特徴とする音声通信システム。
  12. 【請求項12】前記送信部は音声入力手段、音声符号化
    手段及び第一の多重化手段を有し、前記中継部は第一の
    分離手段と第二の多重化手段を有し、前記受信部は第二
    の分離手段を有し、 前記音声入力手段は音声信号を入力し、 前記音声符号化手段は前記音声信号のピッチと音源特性
    と声道伝達特性を分析して符号化することにより音声符
    号系列に変換し、 前記第一の多重化手段は前記音声表記情報と前記音声符
    号系列を多重化してひとつの符号系列に変換し、 前記第一の分離手段は、前記符号系列を前記音声表記情
    報と前記音声符号系列に分離し、 前記第二の多重化手段は前記韻律情報付き音声表記情報
    と前記音声符号系列を多重化してひとつの符号系列に変
    換し、 前記第二の分離手段は、前記第二の多重化手段によって
    多重化された符号系列を前記音韻情報付き音声表記情報
    と前記音声符号系列に分離し、 前記合成手段は前記音声符号系列を音声信号に変換する
    ことを特徴とする請求項11記載の音声通信システム。
  13. 【請求項13】前記テキスト入力手段は、ユーザが任意
    のテキストを入力できるものであることを特徴とする請
    求項1、3,5,7,9又は11記載の音声通信システ
    ム。
  14. 【請求項14】前記テキスト入力手段は、記憶媒体、ネ
    ットワーク、あるいはデータベースからテキストを読み
    出すことにより入力することを特徴とする請求項1、
    3,5,7,9又は11記載の音声通信システム。
  15. 【請求項15】さらに、パラメータ入力手段を備え、前
    記パラメータ入力手段によってユーザは好みに応じて音
    声のパラメータ値を入力でき、前記韻律生成手段および
    前記素片読み出し手段は前記パラメータ値に応じて変更
    を加えた値を出力することを特徴とする請求項1、3,
    5,7,9又は11記載の音声通信システム。
  16. 【請求項16】前記テキスト入力手段はユーザが任意の
    テキストを入力できるものでることを特徴とする請求項
    2,4,6,8,10又は12記載の音声通信システ
    ム。
  17. 【請求項17】前記テキスト入力手段は、記憶媒体、ネ
    ットワーク、あるいはデータベースからテキストを読み
    出すことにより入力することを特徴とする請求項2,
    4,6,8,10又は12記載の音声通信システム。
  18. 【請求項18】パラメータ入力手段を更に有し、前記パ
    ラメータ入力手段はユーザが好みに応じて設定する音声
    のパラメータ値を入力し、韻律生成手段および素片読み
    出し手段は前記パラメータ値に応じて変更を加えた値を
    出力することを特徴とする請求項2,4,6,8,10
    又は12記載の音声通信システム。
  19. 【請求項19】 請求項1〜18のいずれかに記載の音
    声通信システムの全部または一部の手段の全部または一
    部の機能をコンピュータにより実行させるためのプログ
    ラム及び/またはデータを担持した媒体であって、コン
    ピュータにより処理可能なことを特徴とする媒体。
  20. 【請求項20】 請求項1〜18のいずれかに記載の本
    発明の全部または一部の手段の全部または一部の機能を
    コンピュータにより実行させるためのプログラム及び/
    またはデータであることを特徴とする情報集合体。
JP2000113350A 1999-04-16 2000-04-14 音声通信システム Withdrawn JP2000356995A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000113350A JP2000356995A (ja) 1999-04-16 2000-04-14 音声通信システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-109329 1999-04-16
JP10932999 1999-04-16
JP2000113350A JP2000356995A (ja) 1999-04-16 2000-04-14 音声通信システム

Publications (2)

Publication Number Publication Date
JP2000356995A true JP2000356995A (ja) 2000-12-26
JP2000356995A5 JP2000356995A5 (ja) 2007-05-24

Family

ID=26449101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000113350A Withdrawn JP2000356995A (ja) 1999-04-16 2000-04-14 音声通信システム

Country Status (1)

Country Link
JP (1) JP2000356995A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287784A (ja) * 2001-03-28 2002-10-04 Nec Corp 音声合成用圧縮素片作成装置、音声規則合成装置及びそれらに用いる方法並びにそのプログラム
GB2405066A (en) * 2003-05-13 2005-02-16 Intellprop Ltd Auditory assistance with language learning and pronunciation via a text to speech translation in a mobile communications device
JP2008545995A (ja) * 2005-03-28 2008-12-18 レサック テクノロジーズ、インコーポレーテッド ハイブリッド音声合成装置、方法および用途
JP2010224418A (ja) * 2009-03-25 2010-10-07 Kddi Corp 音声合成装置、方法およびプログラム
JP2010224419A (ja) * 2009-03-25 2010-10-07 Kddi Corp 音声合成装置、方法およびプログラム
JP2010237307A (ja) * 2009-03-30 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> 音声学習・合成システム及び音声学習・合成方法
JP2012048154A (ja) * 2010-08-30 2012-03-08 Toshiba Corp 音声合成装置、音声合成方法およびプログラム
KR101125859B1 (ko) 2011-09-27 2012-03-28 주식회사 스마트송 음원 벡터 인덱스를 이용한 음성 합성 시스템 및 방법
JP2013246742A (ja) * 2012-05-29 2013-12-09 Azone Co Ltd 受動型出力装置及び出力データ生成システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287784A (ja) * 2001-03-28 2002-10-04 Nec Corp 音声合成用圧縮素片作成装置、音声規則合成装置及びそれらに用いる方法並びにそのプログラム
GB2405066A (en) * 2003-05-13 2005-02-16 Intellprop Ltd Auditory assistance with language learning and pronunciation via a text to speech translation in a mobile communications device
JP2008545995A (ja) * 2005-03-28 2008-12-18 レサック テクノロジーズ、インコーポレーテッド ハイブリッド音声合成装置、方法および用途
JP2010224418A (ja) * 2009-03-25 2010-10-07 Kddi Corp 音声合成装置、方法およびプログラム
JP2010224419A (ja) * 2009-03-25 2010-10-07 Kddi Corp 音声合成装置、方法およびプログラム
JP2010237307A (ja) * 2009-03-30 2010-10-21 Nippon Telegr & Teleph Corp <Ntt> 音声学習・合成システム及び音声学習・合成方法
JP2012048154A (ja) * 2010-08-30 2012-03-08 Toshiba Corp 音声合成装置、音声合成方法およびプログラム
KR101125859B1 (ko) 2011-09-27 2012-03-28 주식회사 스마트송 음원 벡터 인덱스를 이용한 음성 합성 시스템 및 방법
JP2013246742A (ja) * 2012-05-29 2013-12-09 Azone Co Ltd 受動型出力装置及び出力データ生成システム

Similar Documents

Publication Publication Date Title
US6516298B1 (en) System and method for synthesizing multiplexed speech and text at a receiving terminal
US5940795A (en) Speech synthesis system
US5995923A (en) Method and apparatus for improving the voice quality of tandemed vocoders
JP3446764B2 (ja) 音声合成システム及び音声合成サーバ
US6810379B1 (en) Client/server architecture for text-to-speech synthesis
KR100427753B1 (ko) 음성신호재생방법및장치,음성복호화방법및장치,음성합성방법및장치와휴대용무선단말장치
JPH10260692A (ja) 音声の認識合成符号化/復号化方法及び音声符号化/復号化システム
JP2006099124A (ja) デジタル無線チャネル上の自動音声/話者認識
JP2007534278A (ja) ショートメッセージサービスを通じる音声
WO2004097796A1 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
CN101506876A (zh) 在具有不同语音帧速率的混合激励线性预测(melp)声码器之间进行代码转换的声码器和相关方法
JPH10307599A (ja) スプラインを使用する波形補間音声コーディング
JPS60206336A (ja) ベースバンド残留コーデイングを有するデイジタル音声コーダ
RU2333546C2 (ru) Устройство и способ речевой модуляции
JP2000356995A (ja) 音声通信システム
JP2000209663A (ja) 音声チャネル上で非音声情報を送信する方法
CN101668271B (zh) 能够修改在电话呼叫中传送的语音的通信终端
JP4578145B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JP4373693B2 (ja) 音響信号の階層符号化方法および階層復号化方法
JP2003029774A (ja) 音声波形辞書配信システム、音声波形辞書作成装置、及び音声合成端末装置
JPH03288898A (ja) 音声合成装置
JP2003202884A (ja) 音声合成システム
Lee Analysis by synthesis linear predictive coding
JP4230550B2 (ja) 音声符号化方法及び装置、並びに音声復号化方法及び装置
KR100606676B1 (ko) 이동 통신 시스템에서 음성 변환 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100421