JPH0277800A - 音声合成システム - Google Patents
音声合成システムInfo
- Publication number
- JPH0277800A JPH0277800A JP63230302A JP23030288A JPH0277800A JP H0277800 A JPH0277800 A JP H0277800A JP 63230302 A JP63230302 A JP 63230302A JP 23030288 A JP23030288 A JP 23030288A JP H0277800 A JPH0277800 A JP H0277800A
- Authority
- JP
- Japan
- Prior art keywords
- data
- timbre
- voice
- section
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 21
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 21
- 230000001364 causal effect Effects 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 abstract description 5
- 230000029058 respiratory gaseous exchange Effects 0.000 abstract description 5
- 210000003205 muscle Anatomy 0.000 abstract description 3
- 238000001228 spectrum Methods 0.000 abstract description 2
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 210000000214 mouth Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は肉体的発声機構つまり口および咽喉と置換でき
る人工の音声合成システムに関する。
る人工の音声合成システムに関する。
〔従来の技術]
従来、この種の音声合成システムとしては、首に外科的
に作られた呼吸口を出入する空気を利用するものかあっ
た。これは呼吸口を出入する空気を通すためのパイプを
くわえて、パイプを通る空気を口内に導き、導いた空気
によって振動する振動板から発生する音を口腔で共鳴さ
せるものである。
に作られた呼吸口を出入する空気を利用するものかあっ
た。これは呼吸口を出入する空気を通すためのパイプを
くわえて、パイプを通る空気を口内に導き、導いた空気
によって振動する振動板から発生する音を口腔で共鳴さ
せるものである。
[発明が解決しようとする課題]
上述した従来の音声合成システムは、振動板の音を共鳴
させるため、発生する音声が不明瞭、不自然であるとい
う欠点かあり、また、パイプをくわえて空気を導くため
、発声者は口を完全に閉しることかできないという欠点
もある。 ′[課題を解決するための手段] 本発明の音声合成システムは、特定の個人の各音声に対
応する個人音色データが予め格納されている音色データ
部と、音色データ部に格納されている個人音色データを
入力すると、入力した個人音色データに対応する音声を
音声合成する音声合成部と、特定の個人の音声に係わる
信号源の物理的変化に基づく信号をサンプリングし、サ
ンプリング信号を出力するデータ処理部と、特定の個人
の各音声に対応するサンプリング信号の標準パターンで
ある因果データが個人音色データに対応して予め格納さ
れている因果データ部と、データ処理部から出力された
サンプリング信号を因果データ部に格納されている因果
データと比較して、一致する因果データを検出し、検出
した因果データが対応する個人音色データを音色データ
部から音声合成部に出力させる推論処理部とを有する。
させるため、発生する音声が不明瞭、不自然であるとい
う欠点かあり、また、パイプをくわえて空気を導くため
、発声者は口を完全に閉しることかできないという欠点
もある。 ′[課題を解決するための手段] 本発明の音声合成システムは、特定の個人の各音声に対
応する個人音色データが予め格納されている音色データ
部と、音色データ部に格納されている個人音色データを
入力すると、入力した個人音色データに対応する音声を
音声合成する音声合成部と、特定の個人の音声に係わる
信号源の物理的変化に基づく信号をサンプリングし、サ
ンプリング信号を出力するデータ処理部と、特定の個人
の各音声に対応するサンプリング信号の標準パターンで
ある因果データが個人音色データに対応して予め格納さ
れている因果データ部と、データ処理部から出力された
サンプリング信号を因果データ部に格納されている因果
データと比較して、一致する因果データを検出し、検出
した因果データが対応する個人音色データを音色データ
部から音声合成部に出力させる推論処理部とを有する。
[作 用]
音声に係わる信号源の物理的変化に基ついて、個人の音
声の特徴を持った個人音色データに対応する音声合成を
するので明瞭かつ自然な音声を発生でき、また、音声に
係わる信号源の物理的変化を用いるので、当該個人から
の種々の信号源を使用でき、パイプをくわえる必要がな
い。
声の特徴を持った個人音色データに対応する音声合成を
するので明瞭かつ自然な音声を発生でき、また、音声に
係わる信号源の物理的変化を用いるので、当該個人から
の種々の信号源を使用でき、パイプをくわえる必要がな
い。
[実施イタ1月
次に、本発明の実施例について図面を参照しで説明する
。
。
第1図は本発明の?11声合成シスデムの一実施例を示
すブロック図である。
すブロック図である。
本実施例の音声合成システムは、音色データ部lと音声
合成部2とデータ処理部3と因果データ部4と推論処理
部5等から構成されている。
合成部2とデータ処理部3と因果データ部4と推論処理
部5等から構成されている。
音色データ部]には、予め発声者の肉声により作成され
た個人音色データが格納されている。個人音色データは
、発声する個人特有の音色を収めたものであり、発jn
省か発声の動作を行ない、それにより音声j合成を行な
うとき、予め発声者の肉声の音色を記憶しておき、でき
るかぎり本人の生の声に近いものを出力することを目的
としたもので、スペクトラムや発音の上下や速度等を考
慮したものである。音声合成部2は、音色データ部lに
格納されている個人音色データを入力すると、入力した
個人音色データに対応する音声を音声合成する。データ
処理部3は、入力したアナログ信号をサンプリングし、
有意性(特徴)の抽出を行ない、サンプリング信号を出
力する。データ処理部3に入力するアナログ信号は、発
声者の発声動作によって起る物理的変化に基づく信号で
ある。
た個人音色データが格納されている。個人音色データは
、発声する個人特有の音色を収めたものであり、発jn
省か発声の動作を行ない、それにより音声j合成を行な
うとき、予め発声者の肉声の音色を記憶しておき、でき
るかぎり本人の生の声に近いものを出力することを目的
としたもので、スペクトラムや発音の上下や速度等を考
慮したものである。音声合成部2は、音色データ部lに
格納されている個人音色データを入力すると、入力した
個人音色データに対応する音声を音声合成する。データ
処理部3は、入力したアナログ信号をサンプリングし、
有意性(特徴)の抽出を行ない、サンプリング信号を出
力する。データ処理部3に入力するアナログ信号は、発
声者の発声動作によって起る物理的変化に基づく信号で
ある。
このような信号としては、例えば、口や首周辺の筋肉の
動きに対応してストレンゲージや電極等(不図示)から
出力される信号や、呼吸気の変化に対応してマイクロフ
]ン等(不図示)から出力される信号が用いられる。デ
ータ処理部3で処理された発声動作によって起る物理的
変化は、ある音、例えば゛あ°′に対してあいまいさを
含むか一意的に定まる。因果データ部4には、データ処
理部3から出力されるサンプリング信号の標準パターン
である因果データが個人音色データに対応して格納され
ている。因果データは、各音(または音素)に対する物
理的変化との対応を定めたもので、推論処理部5が各音
(または音素)が何かと判断するデータである。また、
因果データは、予め学習等により作成されている。推論
処理部5は、データ処理部3から出力されたサンプリン
グ信号を因果データ部4に格納されている因果データと
比較して、一致する因果データを検出し、その因果デー
タか個人音色データのうちのどれに対応するかを判断す
ることにより、どのような内容の言葉かどのように発声
されたかを推論し、その結果を音色データ部1に与える
。さらに推論処理部5ば、対応すると判断した個人音色
データを音色データ部1から音声合成部2に出力させる
。
動きに対応してストレンゲージや電極等(不図示)から
出力される信号や、呼吸気の変化に対応してマイクロフ
]ン等(不図示)から出力される信号が用いられる。デ
ータ処理部3で処理された発声動作によって起る物理的
変化は、ある音、例えば゛あ°′に対してあいまいさを
含むか一意的に定まる。因果データ部4には、データ処
理部3から出力されるサンプリング信号の標準パターン
である因果データが個人音色データに対応して格納され
ている。因果データは、各音(または音素)に対する物
理的変化との対応を定めたもので、推論処理部5が各音
(または音素)が何かと判断するデータである。また、
因果データは、予め学習等により作成されている。推論
処理部5は、データ処理部3から出力されたサンプリン
グ信号を因果データ部4に格納されている因果データと
比較して、一致する因果データを検出し、その因果デー
タか個人音色データのうちのどれに対応するかを判断す
ることにより、どのような内容の言葉かどのように発声
されたかを推論し、その結果を音色データ部1に与える
。さらに推論処理部5ば、対応すると判断した個人音色
データを音色データ部1から音声合成部2に出力させる
。
以上により、発声者が実際に発声しないでも口や首周辺
の筋肉の動きや呼吸気の変化をとらえることによってあ
たかも発声者か発声したごとく合成音を発生させること
ができる。
の筋肉の動きや呼吸気の変化をとらえることによってあ
たかも発声者か発声したごとく合成音を発生させること
ができる。
〔発明の効果1
以上説明したように本発明は、音声に係わる信号源の物
理的変化に基ついて個人の音声の特徴を持った個人音色
データに対応する音声合成をすることにより、明瞭かつ
自然な音声を発声できる効果があり、また、音声に係わ
る信号源の物理的変化を用いることにより、種々の信号
源を使用でき、パイプをくわえる必要がないという効果
もある。
理的変化に基ついて個人の音声の特徴を持った個人音色
データに対応する音声合成をすることにより、明瞭かつ
自然な音声を発声できる効果があり、また、音声に係わ
る信号源の物理的変化を用いることにより、種々の信号
源を使用でき、パイプをくわえる必要がないという効果
もある。
第1図は本発明の音声合成システムの一実施例を示すブ
ロック図である。 1・・・・・・音色データ部、 2・・・・・・音声
合成部、3・・・・・・データ処理部、 4・・・・
・・因果データ部、5・・・・・・推論処理部。
ロック図である。 1・・・・・・音色データ部、 2・・・・・・音声
合成部、3・・・・・・データ処理部、 4・・・・
・・因果データ部、5・・・・・・推論処理部。
Claims (1)
- 【特許請求の範囲】 1、特定の個人の各音声に対応する個人音色データが予
め格納されている音色データ部と、 音色データ部に格納されている個人音色データを入力す
ると、入力した個人音色データに対応する音声を音声合
成する音声合成部と、 特定の個人の音声に係わる信号源の物理的変化に基づく
信号をサンプリングし、サンプリング信号を出力するデ
ータ処理部と、 特定の個人の各音声に対応するサンプリング信号の標準
パターンである因果データが個人音色データに対応して
予め格納されている因果データ部と、 データ処理部から出力されたサンプリング信号を因果デ
ータ部に格納されている因果データと比較して、一致す
る因果データを検出し、検出した因果データが対応する
個人音色データを音色データ部から音声合成部に出力さ
せる推論処理部とを有する音声合成システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63230302A JPH0277800A (ja) | 1988-09-13 | 1988-09-13 | 音声合成システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63230302A JPH0277800A (ja) | 1988-09-13 | 1988-09-13 | 音声合成システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0277800A true JPH0277800A (ja) | 1990-03-16 |
Family
ID=16905702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63230302A Pending JPH0277800A (ja) | 1988-09-13 | 1988-09-13 | 音声合成システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0277800A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05216499A (ja) * | 1992-02-07 | 1993-08-27 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | 音声合成方式 |
US7480616B2 (en) | 2002-02-28 | 2009-01-20 | Ntt Docomo, Inc. | Information recognition device and information recognition method |
-
1988
- 1988-09-13 JP JP63230302A patent/JPH0277800A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05216499A (ja) * | 1992-02-07 | 1993-08-27 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | 音声合成方式 |
US7480616B2 (en) | 2002-02-28 | 2009-01-20 | Ntt Docomo, Inc. | Information recognition device and information recognition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10490181B2 (en) | Technology for responding to remarks using speech synthesis | |
Rosen et al. | Automatic speech recognition and a review of its functioning with dysarthric speech | |
AU707355B2 (en) | Speech recognition | |
US5536171A (en) | Synthesis-based speech training system and method | |
Holmes | Speech synthesis and recognition | |
JP4363590B2 (ja) | 音声合成 | |
Olive et al. | Acoustics of American English speech: A dynamic approach | |
US6487531B1 (en) | Signal injection coupling into the human vocal tract for robust audible and inaudible voice recognition | |
US5340316A (en) | Synthesis-based speech training system | |
US5930755A (en) | Utilization of a recorded sound sample as a voice source in a speech synthesizer | |
CN108847215B (zh) | 基于用户音色进行语音合成的方法及装置 | |
JP2000504849A (ja) | 音響学および電磁波を用いた音声の符号化、再構成および認識 | |
US7072750B2 (en) | Method and apparatus for rejection of speech recognition results in accordance with confidence level | |
JP2844817B2 (ja) | 発声練習用音声合成方式 | |
JPH0277800A (ja) | 音声合成システム | |
Poedjosoedarmo | A phonetic description of voice quality in Javanese traditional female vocalists | |
KR0149622B1 (ko) | 언어 합성에 기초한 언어 훈련 시스템 | |
JP2908720B2 (ja) | 合成を基本とした会話訓練装置及び方法 | |
Jeyalakshmi et al. | Development of Speech Recognition System for Hearing Impaired in Native language | |
Thanh | A Study of Cerebellum-Like Spiking Neural Networks for the Prosody Generation of Robotic Speech | |
Inbanila et al. | Investigation of Speech Synthesis, Speech Processing Techniques and Challenges for Enhancements | |
JP3468389B2 (ja) | 音声認識対話装置および音声認識対話処理方法 | |
Madina González | Evaluation of STT technologies performance and database design for Spanish dysarthric speech | |
Minematsu et al. | Consideration of infants’ vocal imitation through modeling speech as timbre-based melody | |
JP2001228890A (ja) | 音声認識装置 |