JP3313310B2 - Speech synthesis apparatus and synthesis method - Google Patents

Speech synthesis apparatus and synthesis method

Info

Publication number
JP3313310B2
JP3313310B2 JP24169897A JP24169897A JP3313310B2 JP 3313310 B2 JP3313310 B2 JP 3313310B2 JP 24169897 A JP24169897 A JP 24169897A JP 24169897 A JP24169897 A JP 24169897A JP 3313310 B2 JP3313310 B2 JP 3313310B2
Authority
JP
Japan
Prior art keywords
speech
unit
prosody
speech unit
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24169897A
Other languages
Japanese (ja)
Other versions
JPH1165596A (en
Inventor
利光 蓑輪
康彦 新居
洋文 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP24169897A priority Critical patent/JP3313310B2/en
Publication of JPH1165596A publication Critical patent/JPH1165596A/en
Application granted granted Critical
Publication of JP3313310B2 publication Critical patent/JP3313310B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device and a method of voice compositing which allows a small capacity of memory for storing a data base by maintaining a high- quality sound of composited voices even when a small number of voice elements are stored in the data base. SOLUTION: Inputted characters are converted into phonetic notation (means 101). The rhythms of synthesized voice are calculated by the converted phonetic notation (means 102), and based on the converted phonetic notation, voice elements including at least one of two syllables in the heading of word which sharpen human hearing sense, the voice elements of high-pitch frequencies upto the accent kernel, the voice elements including the endings of words and other voice elements are selected (means 103) from a memory 104. The variations of the rhythms of these voice elements are executed (means 105) in the conditions that the fine structures of the rhythm at the time of recording voice elements are left with respect to the voice elements including at least one of the two heating syllables of words, high-pitch frequencies up to the accent kernel and endings of words and the variation of the rhythm of the other voice elements is executed by making the use of the fine structures of the rhythms at the time of recording or using calculated rhythms.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、入力した文字を規
則に基づき変換して音声となしうるよう合成する音声合
成装置および合成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech synthesizing apparatus and a synthesizing method for converting input characters based on rules and synthesizing them so that they can be converted into speech.

【0002】[0002]

【従来の技術】従来、この種の音声合成装置としては、
特開平6−95692「音声合成装置」に開示されてい
るようなものがあった。以下、図10を参照して、従来
の音声合成装置について説明する。図10は上記従来の
音声合成装置の構成を示すブロック図である。
2. Description of the Related Art Conventionally, as this kind of speech synthesizer,
There is an apparatus disclosed in Japanese Patent Application Laid-Open No. 6-95592 "Speech synthesis apparatus". Hereinafter, a conventional speech synthesizer will be described with reference to FIG. FIG. 10 is a block diagram showing the configuration of the above-mentioned conventional speech synthesizer.

【0003】図10において、501は文字列及びその
韻律情報などを入力して音声表記に変換する入力部、5
02は韻律規則辞書503に基づき入力部501からの
音声表記に対し韻律パラメータを生成する韻律パラメー
タ生成部、504は多くの音声単位を含む大容量音声単
位データベース505から音声単位セット選択部506
により選択した音声単位セット507の中から韻律パラ
メータを用い音声単位の接続点におけるスペクトル変化
が滑らかになるような音声単位を選択する音声単位選択
部、508は選択した音声単位を接続して音声を合成す
る音声合成器、509は合成した音声を出力する出力部
である。
In FIG. 10, reference numeral 501 denotes an input unit for inputting a character string and its prosody information and converting it into a phonetic notation.
02 is a prosody parameter generation unit that generates prosody parameters for the phonetic notation from the input unit 501 based on the prosody rule dictionary 503, and 504 is a speech unit set selection unit 506 from a large-capacity speech unit database 505 containing many speech units.
A voice unit selection unit for selecting a voice unit from the selected voice unit set 507 using the prosodic parameters so that the spectrum change at the connection point of the voice unit is smooth, and a voice unit selection unit 508 connects the selected voice units to generate voice. An audio synthesizer 509 is an output unit that outputs synthesized audio.

【0004】次に、図10を参照して、上記従来の音声
合成装置の動作を説明する。まず、入力した文字列は入
力部501において音声表記に変換され、韻律パラメー
タ生成部502において、韻律規則辞書503に基づき
韻律パラメータが生成される。音声単位選択部におい
て、多くの音声単位(以下、音声素片という)を含む大
容量音声単位データベース505から音声単位セット選
択部506により選択した音声単位セット507の中か
ら韻律パラメータを用いて音声素片の接続点におけるス
ペクトル変化が滑らかになるような音声素片を選択す
る。選択された音声単位は音声合成器508で接続され
連続した音声として合成されて、出力部509から出力
する。このようにして、従来の音声合成装置でも高音質
の合成音声を提供することができる。
Next, the operation of the above-mentioned conventional speech synthesizer will be described with reference to FIG. First, an input character string is converted into a phonetic notation in an input unit 501, and a prosody parameter generation unit 502 generates a prosody parameter based on a prosody rule dictionary 503. The speech unit selection unit uses a prosodic parameter from the speech unit set 507 selected by the speech unit set selection unit 506 from a large-capacity speech unit database 505 containing a large number of speech units (hereinafter referred to as speech units). A speech unit is selected such that the spectrum change at the connection point of the segments becomes smooth. The selected voice unit is connected by the voice synthesizer 508 and synthesized as continuous voice, and output from the output unit 509. In this way, a conventional voice synthesizer can provide a high-quality synthesized voice.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の音声合成装置においては、音声素片の接続点におけ
るスペクトル変化が滑らかになるような音声素片を確保
するためには、さまざまなスペクトルを持つ大量の音声
素片を用意しなければならず、そのように大量の音声素
片を格納するためには、大容量のメモリーを用意しなけ
ればならないという問題があった。
However, in the above-mentioned conventional speech synthesizer, in order to secure a speech unit in which a spectrum change at a connection point of the speech unit becomes smooth, various speech spectrums are required. There is a problem that a large number of speech units must be prepared, and a large-capacity memory must be prepared to store such a large number of speech units.

【0006】本発明は、上記従来の問題を解決するため
になされたもので、データベースに保有される音声素片
が少なくても合成された音声の音質を高く維持するよう
にして、音声素片データベースを記憶するメモリーを小
容量になしうることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems, and is intended to maintain a high quality of synthesized speech even if the number of speech units stored in the database is small, so that the speech unit is improved. An object of the present invention is to make a memory for storing a database small.

【0007】[0007]

【課題を解決するための手段】本発明による音声合成装
置及び合成方法は、入力した文字列及び韻律情報から発
音表記に変換し、変換された発音表記により合成音声の
韻律を計算し、変換された発音表記に基づきメモリーか
ら人間の聴覚が鋭敏になる語頭2音節の少なくとも一方
を含む音声素片とアクセント核までの高いピッチ周波数
の音声素片と語尾を含む音声素片と、またはそれ以外用
の音声素片とを選択し、これらの音声素片の韻律の変形
は人間の聴覚が鋭敏になる部分である語頭2音節の少な
くとも一方を含む音声素片とアクセント核までの高いピ
ッチ周波数の音声素片と語尾を含む音声素片については
音声素片録音時の韻律の微細構造を残したままで行い、
それ以外用の音声素片の韻律の変形は録音時の韻律の微
細構造を利用するか、または計算した韻律を使用して行
うようにしたものである。
A speech synthesizing apparatus and a synthesizing method according to the present invention convert an input character string and prosody information into a phonetic notation, calculate a prosody of the synthesized speech based on the converted phonetic notation, and convert the speech. A speech unit containing at least one of the first two syllables, a speech unit having a high pitch frequency up to the accent nucleus, and a speech unit containing the ending, or a speech unit containing at least one of the two syllables at which the human auditory sense is sharpened from the memory based on the phonetic transcription Of the speech unit, and the prosodic transformation of these speech units is such that a speech unit including at least one of the first two syllables, which is a part where human hearing is sharp, and a high pitch frequency speech up to the accent nucleus. For the speech unit including the unit and the ending, it is performed while keeping the fine structure of the prosody at the time of recording the speech unit,
The modification of the prosody of the speech unit for other uses the fine structure of the prosody at the time of recording or uses the calculated prosody.

【0008】本発明は、合成音声の音質の維持に特に重
要な語頭2音節、アクセント核までのピッチ周波数の高
いもの、または語尾の音声素片の韻律の変形に、大量の
記憶容量を必要としない音声素片録音時の韻律の微細構
造を利用し、合成音声の音質にあまり影響しないそれ以
外用の音声素片の韻律の変形は音声素片録音時の韻律の
微細構造を利用するか、または計算により行うようにし
たことにより、合成音声の音質を高く維持しながら、デ
ータベースに格納する音声素片を少なくして、音声素片
データベースを記憶するメモリーの容量を小さくするこ
とができる音声合成装置及び合成方法が得られる。
According to the present invention, a large amount of storage capacity is required for two syllables at the beginning, particularly those having a high pitch frequency up to the accent nucleus, or deformation of the prosody of the speech unit at the end of the word, which are particularly important for maintaining the sound quality of the synthesized speech. Use the fine structure of the prosody at the time of voice unit recording, and use the fine structure of the prosody at the time of the voice unit recording to transform the prosody of the other voice unit that does not significantly affect the sound quality of the synthesized speech. Or, by performing calculations, speech synthesis can reduce the number of speech units stored in the database and reduce the capacity of the memory for storing the speech unit database, while maintaining high quality of synthesized speech. An apparatus and a synthesis method are obtained.

【0009】[0009]

【発明の実施の形態】本発明の請求項1に記載の発明
は、入力した漢字仮名混じり文字列または読み仮名と韻
律情報とからこれを発音表記に変換する入力文字列変換
手段と、変換された発音表記により合成音声の韻律を計
算する韻律計算手段と、語頭2音節の少なくとも一方を
含む音声素片とアクセント核までの高いピッチ周波数の
音声素片と語尾を含む音声素片とこれらの音声素片以外
音声素片とを少なくとも格納したメモリーと、前記発
音表記に従い前記メモリーから該当する音声素片を選択
する音声素片選択手段と、音声素片録音時の韻律の微細
構造を残したままで前記選択された音声素片の韻律の変
形を行う音声素片変形手段と、前記変形された音声素片
を接続する音声素片接続手段と、接続された合成音声を
出力する合成音声出力手段とを備えるようにしたもので
あり、合成音声の音質の維持に特に重要な語頭2音節、
アクセント核までのピッチ周波数の高いもの、語尾の各
音声素片、またはそれ以外用の音声素片の韻律の変形
は、大量の記憶容量を必要としない音声素片録音時の韻
律の微細構造を利用して行うようにしたことにより、合
成音声の音質を高く維持しながら、データベースに格納
する音声素片を少なくして、それを記憶するメモリーの
容量を小さくすることができるという作用を有する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention comprises input character string conversion means for converting an input character string mixed with kanji kana or a reading kana and prosodic information into phonetic notation, and Prosody calculation means for calculating the prosody of the synthesized speech using the phonetic notation, a speech unit containing at least one of the first two syllables, a speech unit having a high pitch frequency up to the accent nucleus, and a speech unit containing the ending, and these speeches Other than a fragment
A memory that stores at least the speech unit, the selection while remaining the speech unit selection means for selecting a speech unit corresponding from the memory, the prosody of the microstructure during the speech unit recorded in accordance with the phonetic Speech unit transformation means for transforming the prosody of the transformed speech unit, speech unit connection means for connecting the transformed speech unit, and synthesized speech output means for outputting the connected synthesized speech. The first two syllables, which are particularly important for maintaining the sound quality of synthesized speech,
Deformation of the prosody of a pitch unit with a high pitch frequency up to the accent nucleus, each speech unit at the end, or a speech unit for other uses, changes the fine structure of the prosody when recording speech units that does not require a large amount of storage capacity. By using this method, it is possible to reduce the number of speech units stored in the database and to reduce the capacity of the memory for storing the speech units while maintaining high sound quality of the synthesized speech.

【0010】本発明の請求項2に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換する入力文字列変換手段と、変
換された発音表記により合成音声の韻律を計算する韻律
計算手段と、語頭2音節の少なくとも一方を含む音声素
片とアクセント核までの高いピッチ周波数の音声素片と
語尾を含む音声素片とこれらの音声素片以外の音声素片
とを少なくとも格納したメモリーと、前記発音表記に従
い前記メモリーから該当する音声素片を選択する音声素
片選択手段と、録音時の韻律の微細構造を残したままで
前記選択された語頭2音節の少なくとも一方を含む音声
素片とアクセント核までのピッチ周波数の高い音声素片
と語尾を含む音声素片の韻律の変形を行い、これらの音
声素片以外の音声素片の韻律の変形は音声素片録音時の
韻律の微細構造を利用せず前記計算した韻律を用いて行
う音声素片変形手段と、前記変形された音声素片を接続
する音声素片接続手段と、接続された合成音声を出力す
る合成音声出力手段とを備えるようにしたものであり、
合成音声の音質の維持に特に重要な語頭2音節、アクセ
ント核までのピッチ周波数の高いもの、または語尾の音
声素片の韻律の変形は、大量の記憶容量を必要としない
音声素片録音時の韻律の微細構造を利用し、合成音声の
音質にあまり影響しないそれ以外用の音声素片の韻律の
変形は録音時の韻律の微細構造を使用せず計算したもの
を使用するようにしたことにより、合成音声の音質を高
く維持しながら、データベースに格納する音声素片を少
なくして、それを記憶するメモリーの容量を小さくする
ことができるという作用を有する。
According to a second aspect of the present invention, there is provided an input character string converting means for converting an input kanji kana mixed character string or a reading kana and prosody information into a phonetic notation, and using the converted phonetic notation. A prosody calculating means for calculating the prosody of the synthesized speech, a speech unit including at least one of the first two syllables, a speech unit having a high pitch frequency up to the accent nucleus, a speech unit including the ending and a speech unit other than these speech units A memory for storing at least a speech unit, a speech unit selection means for selecting a corresponding speech unit from the memory according to the phonetic notation, and the selected beginning 2 while retaining the fine structure of the prosody at the time of recording. syllables perform prosody modification of speech units including speech segment and ending high pitch frequencies up speech unit and accent core containing at least one, these sounds
Deformation of a prosody of a voice unit other than a voice unit is performed using the calculated prosody without using the fine structure of the prosody at the time of the voice unit recording, and Speech unit connection means to be connected, and synthesized speech output means for outputting the connected synthesized speech,
The first two syllables that are particularly important for maintaining the sound quality of synthesized speech, those with a high pitch frequency up to the accent nucleus, or the deformation of the prosody of the speech unit at the end of the word, can be used when recording speech units that do not require a large amount of storage capacity. By using the fine structure of the prosody, the prosody deformation of the other speech unit that does not significantly affect the sound quality of the synthesized speech is calculated without using the fine structure of the prosody at the time of recording In addition, while maintaining high quality of synthesized speech, the number of speech units stored in the database can be reduced, and the capacity of the memory for storing the speech segments can be reduced.

【0011】本発明の請求項3に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換する入力文字列変換手段と、変
換された発音表記により合成音声の韻律を計算する韻律
計算手段と、語頭2音節の少なくとも一方を含む音声素
片と語尾を含む音声素片とこれらの音声素片以外の音声
素片とを少なくとも格納したメモリーと、前記発音表記
に従い前記メモリーから該当する音声素片を選択する音
声素片選択手段と、音声素片録音時の韻律の微細構造を
残したままで前記選択された音声素片の韻律の変形を行
う音声素片変形手段と、前記変形された音声素片を接続
する音声素片接続手段と、接続された合成音声を出力す
る合成音声出力手段とを備えるようにしたものであり、
合成音声の音質の維持に特に重要な語頭2音節、語尾の
各音声素片、またはそれ以外用の音声素片の韻律の変形
は、大量の記憶容量を必要としない音声素片録音時の韻
律の微細構造を利用して行うようにしたことにより、合
成音声の音質を高く維持しながら、データベースに格納
する音声素片を少なくして、それを記憶するメモリーの
容量を小さくすることができるという作用を有する。
According to a third aspect of the present invention, there is provided an input character string converting means for converting an input character string mixed with kanji kana or a reading kana and prosodic information into a phonetic notation, and a converted phonetic notation. A prosody calculating means for calculating a prosody of the synthesized speech; a memory storing at least a speech unit including at least one of the first two syllables, a speech unit including the ending, and a speech unit other than these speech units ; Voice unit selection means for selecting a corresponding voice unit from the memory according to phonetic notation, and a voice unit for transforming the prosody of the selected voice unit while retaining the fine structure of the prosody at the time of voice unit recording One-side transforming means, a speech unit connecting means for connecting the transformed speech unit, and a synthesized speech output means for outputting the connected synthesized speech,
Modification of the prosody of two syllables at the beginning, each speech unit at the end, or a speech unit for other purposes, which is particularly important for maintaining the sound quality of synthesized speech, is a prosody at the time of speech unit recording that does not require a large amount of storage capacity. By using the microstructure of the above, it is possible to reduce the number of speech units stored in the database and the memory capacity for storing it while maintaining high sound quality of synthesized speech. Has an action.

【0012】本発明の請求項4に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換する入力文字列変換手段と、変
換された発音表記により合成音声の韻律を計算する韻律
計算手段と、語頭2音節の少なくとも一方を含む音声素
片と語尾を含む音声素片とこれらの音声素片以外の音声
素片とを少なくとも格納したメモリーと、前記発音表記
に従い前記メモリーから該当する音声素片を選択する音
声素片選択手段と、録音時の韻律の微細構造を残したま
まで前記選択された語頭2音節の少なくとも一方を含む
音声素片と語尾を含む音声素片の韻律の変形を行い、
れらの音声素片以外の音声素片の韻律の変形は音声素片
録音時の韻律の微細構造を利用せず前記計算した韻律を
用いて行う音声素片変形手段と、前記変形された音声素
片を接続する音声素片接続手段と、接続された合成音声
を出力する合成音声出力手段とを備えるようにしたもの
であり、合成音声の音質の維持に特に重要な語頭2音
節、または語尾の音声素片の韻律の変形は、大量の記憶
容量を必要としない音声素片録音時の韻律の微細構造を
利用し、合成音声の音質にあまり影響しないそれ以外用
の音声素片の韻律の変形は録音時の韻律の微細構造を使
用せず計算したものを使用するようにしたことにより、
合成音声の音質を高く維持しながら、データベースに格
納する音声素片を少なくして、それを記憶するメモリー
の容量を小さくすることができるという作用を有する。
According to a fourth aspect of the present invention, there is provided an input character string converting means for converting an input character string mixed with kanji kana or a reading kana and prosodic information into a phonetic notation, and using the converted phonetic notation. A prosody calculating means for calculating a prosody of the synthesized speech; a memory storing at least a speech unit including at least one of the first two syllables, a speech unit including the ending, and a speech unit other than these speech units ; A speech unit selecting means for selecting a corresponding speech unit from the memory according to the phonetic notation, and a speech unit and ending which include at least one of the selected two-syllables at the beginning while leaving the fine structure of the prosody at the time of recording. It performs a prosody of the deformation of the speech segment, including, this
The speech unit deformation means for performing the transformation of the prosody of the speech unit other than these speech units using the calculated prosody without using the fine structure of the prosody at the time of the speech unit recording; and A speech unit connecting means for connecting the speech units; and a synthesized speech output means for outputting the connected synthesized speech, wherein two initial syllables or endings particularly important for maintaining the sound quality of the synthesized speech. The prosody transformation of the speech unit uses the fine structure of the prosody at the time of speech unit recording that does not require a large amount of storage capacity, and the prosody of the other speech unit that does not significantly affect the sound quality of the synthesized speech. By using the one calculated without using the fine structure of the prosody at the time of recording,
While maintaining high sound quality of the synthesized speech, there is an effect that the number of speech units stored in the database can be reduced and the capacity of a memory for storing the speech segments can be reduced.

【0013】本発明の請求項5に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換し、前記変換された発音表記に
基づきメモリーから語頭2音節の少なくとも一方を含む
音声素片とアクセント核までの高いピッチ周波数の音声
素片と語尾を含む音声素片とこれらの音声素片以外の
声素片とから前記発音表記に該当する音声素片を選択
し、音声素片録音時の韻律の微細構造を残したままで前
記選択された音声素片の韻律の変形を行い、前記変形さ
れた音声素片を接続し合成音声として出力するようにし
たものであり、合成音声の音質の維持に特に重要な語頭
2音節、アクセント核までのピッチ周波数の高いもの、
語尾の各音声素片、またはそれ以外用の音声素片の韻律
の変形は、大量の記憶容量を必要としない音声素片録音
時の韻律の微細構造を利用して行うようにしたことによ
り、合成音声の音質を高く維持しながら、データベース
に格納する音声素片を少なくして、それを記憶するメモ
リーの容量を小さくすることができるという作用を有す
る。
[0013] According to a fifth aspect of the present invention, a kanji kana-mixed character string or a reading kana and prosodic information are converted into phonetic notations, and based on the converted phonetic notations, the first two words are read from a memory. the phonetic from the speech unit and the sound <br/> Koemotohen other than those speech segments including speech unit and endings of high pitch frequencies up speech unit and accent core containing at least one syllable Select the corresponding speech unit, perform the prosody modification of the selected speech unit while leaving the fine structure of the prosody at the time of speech unit recording, connect the transformed speech unit as synthetic speech The first two syllables that are particularly important for maintaining the sound quality of synthesized speech, those with a high pitch frequency up to the accent nucleus,
By modifying the prosody of each speech unit at the end, or the speech unit for the rest, by using the fine structure of the prosody at the time of speech unit recording that does not require a large amount of storage capacity, While maintaining high sound quality of the synthesized speech, there is an effect that the number of speech units stored in the database can be reduced and the capacity of a memory for storing the speech segments can be reduced.

【0014】本発明の請求項6に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換し、前記変換された発音表記に
より合成音声の韻律を計算し、前記変換された発音表記
に基づきメモリーから語頭2音節の少なくとも一方を含
む音声素片とアクセント核までの高いピッチ周波数の音
声素片と語尾を含む音声素片とこれらの音声素片以外の
音声素片とから前記発音表記に該当する音声素片を選択
し、音声素片録音時の韻律の微細構造を残したままで前
記選択された語頭2音節の少なくとも一方を含む音声素
片とアクセント核までの高いピッチ周波数の音声素片と
語尾を含む音声素片との韻律の変形を行い、これらの音
声素片以外の音声素片の韻律の変形は録音時の韻律の微
細構造を利用せず前記計算した韻律を使用して行い、前
記変形された音声素片を接続し合成音声として出力する
ようにしたものであり、合成音声の音質の維持に特に重
要な語頭2音節、アクセント核までのピッチ周波数の高
いもの、または語尾の音声素片の韻律の変形は、大量の
記憶容量を必要としない音声素片録音時の韻律の微細構
造を利用し、合成音声の音質にあまり影響しないそれ以
外用の音声素片の韻律の変形は録音時の韻律の微細構造
を使用せず計算したものを使用するようにしたことによ
り、合成音声の音質を高く維持しながら、データベース
に格納する音声素片を少なくして、それを記憶するメモ
リーの容量を小さくすることができるという作用を有す
る。
According to a sixth aspect of the present invention, a kanji kana mixed character string or a reading kana and prosody information are converted into phonetic notations, and the converted phonetic notation is used to convert the prosody of the synthesized speech. Calculated, based on the converted phonetic notation, a speech unit containing at least one of the first two syllables from the memory, a speech unit having a high pitch frequency up to the accent nucleus, a speech unit containing the ending, and other than these speech units A speech unit corresponding to the phonetic notation is selected from the speech units, and a speech including at least one of the selected two-syllables at the beginning while leaving the fine structure of the prosody at the time of recording the speech unit. performs a prosody of the deformation of the speech segment, including the speech segment and endings of high pitch frequency of up to fragment and the accent nucleus, these sounds
Modification of the prosody of the speech unit other than the voice unit is performed using the calculated prosody without using the fine structure of the prosody at the time of recording, and the transformed speech unit is connected and output as a synthesized speech. The first two syllables that are particularly important for maintaining the sound quality of the synthesized speech, those with a high pitch frequency up to the accent nucleus, or the prosodic transformation of the speech unit at the end do not require a large amount of storage capacity. Utilizes the fine structure of the prosody at the time of speech unit recording, and uses the one calculated without using the fine structure of the prosody at the time of recording to modify the prosody of the other speech unit that does not significantly affect the sound quality of the synthesized speech By doing so, it is possible to reduce the number of speech units stored in the database and to reduce the capacity of the memory for storing the speech units while maintaining high sound quality of the synthesized speech.

【0015】本発明の請求項7に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換し、前記変換された発音表記に
基づきメモリーから語頭2音節の少なくとも一方を含む
音声素片と語尾を含む音声素片とこれらの音声素片以外
音声素片とから前記発音表記に該当する音声素片を
択し、音声素片録音時の韻律の微細構造を残したままで
前記選択された音声素片の韻律の変形を行い、前記変形
された音声素片を接続し合成音声として出力するように
したものであり、合成音声の音質の維持に特に重要な語
頭2音節、語尾の各音声素片、またはそれ以外用の音声
素片の韻律の変形は、大量の記憶容量を必要としない音
声素片録音時の韻律の微細構造を利用して行うようにし
たことにより、合成音声の音質を高く維持しながら、デ
ータベースに格納する音声素片を少なくして、それを記
憶するメモリーの容量を小さくすることができるという
作用を有する。
According to a seventh aspect of the present invention, a kanji kana mixed character string or a reading kana and prosody information are converted into phonetic notations, and based on the converted phonetic notations, the first two words are read from a memory. Speech units containing at least one of syllables, speech units containing endings, and other than these speech units
A speech unit corresponding to the phonetic transcription is selected from the speech units, and the prosody transformation of the selected speech unit is performed while leaving the fine structure of the prosody at the time of recording the speech unit. The modified speech units are connected to be output as a synthesized speech, and are particularly important for maintaining the sound quality of the synthesized speech. The prosodic transformation of speech units is performed using the fine structure of the prosody at the time of speech unit recording, which does not require a large amount of storage capacity. This has the effect that the number of speech units to be stored can be reduced and the capacity of the memory for storing the same can be reduced.

【0016】本発明の請求項8に記載の発明は、入力し
た漢字仮名混じり文字列または読み仮名と韻律情報とか
らこれを発音表記に変換し、前記変換された発音表記に
より合成音声の韻律を計算し、前記変換された発音表記
に基づきメモリーから語頭2音節の少なくとも一方を含
む音声素片と語尾を含む音声素片とこれらの音声素片以
外の音声素片とから前記発音表記に該当する音声素片を
選択し、音声素片録音時の韻律の微細構造を残したまま
で前記選択された語頭2音節の少なくとも一方を含む音
声素片と語尾を含む音声素片との韻律の変形を行い、
れらの音声素片以外の音声素片の韻律の変形は録音時の
韻律の微細構造を利用せず前記計算した韻律を使用して
行い、前記変形された音声素片を接続し合成音声として
出力するようにしたものであり、合成音声の音質の維持
に特に重要な語頭2音節、または語尾の音声素片の韻律
の変形は、大量の記憶容量を必要としない音声素片録音
時の韻律の微細構造を利用し、合成音声の音質にあまり
影響しないそれ以外用の音声素片の韻律の変形は録音時
の韻律の微細構造を使用せず計算したものを使用するよ
うにしたことにより、合成音声の音質を高く維持しなが
ら、データベースに格納する音声素片を少なくして、そ
れを記憶するメモリーの容量を小さくすることができる
という作用を有する。
The invention according to claim 8 of the present invention converts the input kanji kana mixed character string or the reading kana and the prosody information into phonetic notation, and converts the prosody of the synthesized speech by the converted phonetic notation. Based on the converted phonetic notation, a speech unit including at least one of the first two syllables, a speech unit including the ending, and a speech unit including these words are calculated based on the converted phonetic notation.
A speech unit corresponding to the phonetic notation is selected from outside speech units and includes at least one of the selected two-syllables at the beginning while keeping the fine structure of the prosody at the time of recording the speech unit. It performs a prosody of the deformation of the speech segment, including the speech segment and endings, this
The transformation of the prosody of the speech unit other than these speech units is performed using the calculated prosody without using the fine structure of the prosody at the time of recording, and the transformed speech unit is connected as a synthesized speech. The prosodic transformation of the first two syllables or the ending speech unit, which is particularly important for maintaining the sound quality of the synthesized speech, is performed when the speech unit recording that does not require a large amount of storage capacity. By using the fine structure of, the deformation of the prosody of the other speech unit that does not significantly affect the sound quality of the synthesized speech uses the one calculated without using the fine structure of the prosody at the time of recording, While maintaining high sound quality of the synthesized speech, there is an effect that the number of speech units stored in the database can be reduced and the capacity of a memory for storing the speech segments can be reduced.

【0017】以下、添付図面、図1乃至図9に基づき、
本発明の実施の形態を詳細に説明する。図1は本発明の
第1の実施の形態における音声合成装置の構成を示すブ
ロック図、図2は本発明の第2の実施の形態における音
声合成装置の構成を示すブロック図、図3は本発明の第
3の実施の形態における音声合成装置の構成を示すブロ
ック図、図4は本発明の第4の実施の形態における音声
合成装置の構成を示すブロック図、図5は図1に示す音
声合成装置において入力が漢字文字列の場合の発音表記
への変換の様子を説明する図、図6は本発明の第5の実
施の形態における音声合成方法を示すフローチャート、
図7は本発明の第6の実施の形態における音声合成方法
を示すフローチャート、図8は本発明の第7の実施の形
態における音声合成方法を示すフローチャート、図9は
本発明の第8の実施の形態における音声合成方法を示す
フローチャートである。
Hereinafter, based on the attached drawings, FIGS. 1 to 9,
An embodiment of the present invention will be described in detail. FIG. 1 is a block diagram illustrating a configuration of a speech synthesis device according to a first embodiment of the present invention, FIG. 2 is a block diagram illustrating a configuration of a speech synthesis device according to a second embodiment of the present invention, and FIG. FIG. 4 is a block diagram illustrating a configuration of a speech synthesizer according to a third embodiment of the present invention. FIG. 4 is a block diagram illustrating a configuration of a speech synthesizer according to a fourth embodiment of the present invention. FIG. 6 is a view for explaining how the synthesizer converts kanji character strings into phonetic notations when the input is performed. FIG. 6 is a flowchart showing a speech synthesis method according to a fifth embodiment of the present invention.
FIG. 7 is a flowchart showing a speech synthesis method according to the sixth embodiment of the present invention, FIG. 8 is a flowchart showing a speech synthesis method according to the seventh embodiment of the present invention, and FIG. 9 is an eighth embodiment of the present invention. 9 is a flowchart showing a speech synthesis method according to the embodiment.

【0018】まず、図1を参照して、本発明の第1の実
施の形態における音声合成装置の構成を説明する。図1
において、101は漢字仮名混じり文字列または読み仮
名と韻律情報を入力して発音表記に変換する入力文字列
変換手段、102は発音表記に基づき合成音声全体の韻
律(ピッチ周波数)を計算する韻律計算手段、104は
語頭2音節の少なくとも一方を含む音声素片とアクセン
ト核までの音声素片と語尾を含む音声素片とそれ以外用
の音声素片とを含むデータベースを格納したメモリー、
103は入力文字列変換手段101から出力された発音
表記をCVまたはVCV単位の音声素片表記に変換し、
メモリー104を検索してそれぞれに該当する音声素片
を選択する音声素片選択手段である。
First, with reference to FIG. 1, the configuration of a speech synthesizer according to a first embodiment of the present invention will be described. FIG.
101, input character string conversion means for inputting a character string mixed with kanji or kana or reading kana and prosodic information and converting them into phonetic transcription, and 102, a prosody calculation for calculating the prosody (pitch frequency) of the whole synthesized speech based on the phonetic transcription Means 104, a memory storing a database including a speech unit including at least one of the first two syllables, a speech unit up to an accent nucleus, a speech unit including a ending, and a speech unit for other use;
103 converts the phonetic notation output from the input character string converting means 101 into a speech unit notation in CV or VCV units,
This is a speech unit selection unit that searches the memory 104 and selects a corresponding speech unit.

【0019】また、105は選択された語頭2音節の少
なくとも一方を含む音声素片とアクセント核までのピッ
チ周波数の高い音声素片と語尾を含む音声素片とそれ以
外用の音声素片とを録音時の韻律の微細構造を残したま
まで、式(1−1)または(1−2)(後述する)に従
い、その韻律(ピッチ周波数)を変形する音声素片変形
手段、106は変形された音声素片を加算平均により接
続する音声素片接続手段、107は音声素片が接続され
た合成音声を出力する合成音声出力手段である。
Reference numeral 105 designates a speech unit including at least one of the selected two initial syllables, a speech unit having a high pitch frequency up to the accent nucleus, a speech unit including the ending, and a speech unit for the other. While retaining the fine structure of the prosody at the time of recording, the speech unit transforming means 106 for transforming the prosody (pitch frequency) according to the formula (1-1) or (1-2) (described later) is transformed. Speech unit connection means 107 for connecting speech units by averaging, and 107 a synthesized speech output unit for outputting a synthesized speech to which speech units are connected.

【0020】次に、図1を参照して、本発明の第1の実
施の形態における音声合成装置の動作を説明する。入力
文字列変換手段101は入力した漢字仮名混じり文字列
または読み仮名と韻律情報を発音表記に変換する。この
変換の例は図5を参照して後述する。次に、変換された
発音表記に基づき韻律計算手段102で合成音声全体の
韻律(ピッチ周波数)が計算される。また、入力文字列
変換手段101から出力された発音表記は、音声素片選
択手段103においてCVまたはVCV単位の音声素片
表記に変換され、語頭2音節の少なくとも一方を含む音
声素片と、アクセント核までの音声素片と、語尾を含む
音声素片と、それ以外用の音声素片とを格納したメモリ
ー104のデータベースを検索して、それぞれ該当する
音声素片を選択する。
Next, the operation of the voice synthesizing apparatus according to the first embodiment of the present invention will be described with reference to FIG. The input character string conversion means 101 converts the input character string mixed with kanji kana or the reading kana and prosodic information into phonetic notation. An example of this conversion will be described later with reference to FIG. Next, the prosody (pitch frequency) of the entire synthesized speech is calculated by the prosody calculation means 102 based on the converted phonetic notation. The phonetic notation output from the input character string conversion means 101 is converted into a speech unit notation in units of CV or VCV by the speech unit selection means 103, and a speech unit including at least one of the two syllables at the beginning and an accent. A database in the memory 104 storing the speech unit up to the nucleus, the speech unit including the ending, and the speech unit for the other is searched, and the corresponding speech unit is selected.

【0021】次に、これらの音声素片は音声素片変形手
段105に送られ、語頭2音節の少なくとも一方を含む
音声素片と、アクセント核までのピッチ周波数の高い音
声素片と、語尾を含む音声素片と、それ以外用の音声素
片とは、録音時の韻律の微細構造を残したままで、式
(1−1)または(1−2)(後述する)に従い、合成
音声のモデルピッチ周波数の母音開始部及び母音定常部
ピッチ周波数と一致するように韻律(ピッチ周波数)が
変形される。これら変形された音声素片は音声素片接続
手段106において1ピッチ程度の範囲で加算平均によ
り接続され、接続された合成音声は合成音声出力手段1
07から出力される。また、記憶音声素片は語頭2音
節、アクセント核前までのピッチ周波数の高いもの、語
尾を含む音声素片ほど録音時の音声素片波形に近くな
り、総音声素片量が小であるにもかかわらず、合成音声
が高音質になるという特徴を有する。
Next, these speech segments are sent to speech segment transformation means 105, and a speech segment containing at least one of the two syllables at the beginning, a speech segment having a high pitch frequency up to the accent nucleus, and an ending are added. The speech unit to be included and the speech unit for the other are modeled for the synthesized speech in accordance with the formula (1-1) or (1-2) (described later) while keeping the fine structure of the prosody at the time of recording. The prosody (pitch frequency) is modified so that it matches the vowel start part and the vowel stationary part pitch frequency of the pitch frequency. These deformed speech units are connected by averaging in a range of about one pitch in the speech unit connection means 106, and the connected synthesized speech is output by the synthesized speech output means 1.
07. Also, the stored speech units have two syllables at the beginning, those with a higher pitch frequency up to the accent nucleus, and those with the endings are closer to the speech unit waveform at the time of recording, and the total speech unit amount is smaller. Nevertheless, it has the feature that the synthesized speech has high sound quality.

【0022】次に、図2を参照して、本発明の第2の実
施の形態における音声合成装置の構成を説明する。図2
において、201は漢字仮名混じり文字列または読み仮
名と韻律情報を入力して発音表記に変換する入力文字列
変換手段、202は変換された発音表記に基づき合成音
声全体の韻律(ピッチ周波数)を計算する韻律計算手
段、204は語頭2音節の少なくとも一方を含む音声素
片とアクセント核までの音声素片と語尾を含む音声素片
とそれ以外用の音声素片とを含むデータベースを格納し
たメモリー、203は入力文字列変換手段201から出
力された発音表記をCVまたはVCV単位の音声素片表
記に変換し、メモリー204を検索してそれぞれに該当
する音声素片を選択する音声素片選択手段である。
Next, the configuration of a speech synthesizer according to a second embodiment of the present invention will be described with reference to FIG. FIG.
, 201 is an input character string conversion means for inputting a character string mixed with kanji kana or reading kana and prosody information and converting it into phonetic notation, and 202 calculates a prosody (pitch frequency) of the entire synthesized speech based on the converted phonetic notation. A memory storing a database including a speech unit including at least one of the first two syllables, a speech unit up to the accent nucleus, a speech unit including the ending, and a speech unit for the other, Reference numeral 203 denotes a speech unit selection unit that converts the phonetic notation output from the input character string conversion unit 201 into a speech unit notation in CV or VCV units, searches the memory 204, and selects a corresponding speech unit. is there.

【0023】また、205は選択された語頭2音節の少
なくとも一方を含む音声素片とアクセント核までのピッ
チ周波数の高い音声素片と語尾を含む音声素片とを録音
時の韻律の微細構造を残したままで、式(2−1)また
は(2−2)(後述する)に従いその韻律(ピッチ周波
数)を変形し、それ以外用の音声素片の変形は音声素片
録音時の韻律の微細構造を利用せず、先に韻律計算手段
202で計算した韻律を用いて変形する音声素片変形手
段、206は変形された音声素片を加算平均により接続
する音声素片接続手段、207は音声素片が接続された
合成音声を出力する合成音声出力手段である。
Reference numeral 205 denotes the fine structure of the prosody at the time of recording the selected speech unit including at least one of the first two syllables, the speech unit having a high pitch frequency up to the accent nucleus, and the speech unit including the ending. As it is, the prosody (pitch frequency) is transformed according to the formula (2-1) or (2-2) (described later), and the deformation of the speech unit for the other is performed by refining the prosody at the time of recording the speech unit. Speech unit transformation means for transforming using the prosody calculated by the prosody calculation means 202 without using the structure, speech unit connection means 206 for connecting the transformed speech units by averaging, This is a synthesized voice output unit that outputs a synthesized voice to which the segments are connected.

【0024】次に、図2を参照して、本発明の第2の実
施の形態における音声合成装置の動作を説明する。入力
文字列変換手段201は入力した漢字仮名混じり文字列
または読み仮名と韻律情報を発音表記に変換する。この
変換の例は図5を参照して後述する。次に、変換された
発音表記に基づき韻律計算手段202で合成音声全体の
韻律(ピッチ周波数)が計算される。また、入力文字列
変換手段201から出力された発音表記は、音声素片選
択手段203においてCVまたはVCV単位の音声素片
表記に変換され、語頭2音節の少なくとも一方を含む音
声素片と、アクセント核までの音声素片と、語尾を含む
音声素片と、それ以外用の音声素片とを格納したメモリ
ー204のデータベースを検索して、それぞれ該当する
音声素片を選択する。
Next, the operation of the speech synthesizer according to the second embodiment of the present invention will be described with reference to FIG. The input character string conversion means 201 converts the input character string mixed with kanji kana or the reading kana and prosodic information into phonetic notation. An example of this conversion will be described later with reference to FIG. Next, the prosody (pitch frequency) of the entire synthesized speech is calculated by the prosody calculation means 202 based on the converted phonetic notation. The phonetic notation output from the input character string converting means 201 is converted into a phonemic unit notation in CV or VCV units by the voice unit selecting means 203, and a phoneme unit including at least one of the first two syllables and an accent The database in the memory 204 storing the speech unit up to the nucleus, the speech unit including the ending, and the speech unit for the others is searched, and the corresponding speech unit is selected.

【0025】次に、これらの音声素片は音声素片変形手
段205に送られ、語頭2音節の少なくとも一方を含む
音声素片と、アクセント核までのピッチ周波数の高い音
声素片と、語尾を含む音声素片とは、録音時の韻律の微
細構造を残したままで、式(2−1)または(2−2)
(後述する)に従い、合成音声のモデルピッチ周波数の
母音開始部及び母音定常部ピッチ周波数と一致するよう
に韻律(ピッチ周波数)が変形され、それ以外用の音声
素片の変形は音声素片録音時の韻律の微細構造を利用せ
ず、先に韻律計算手段202で計算した韻律を用いて変
形する。これら変形された音声素片は音声素片接続手段
206において1ピッチ程度の範囲で加算平均により接
続され、接続された合成音声は合成音声出力手段207
から出力される。
Next, these speech segments are sent to speech segment transformation means 205, and a speech segment including at least one of the two syllables at the beginning, a speech segment having a high pitch frequency up to the accent nucleus, and an ending are added. The speech unit to be included is the expression (2-1) or (2-2) while keeping the fine structure of the prosody at the time of recording.
In accordance with (described later), the prosody (pitch frequency) is transformed so as to match the vowel start part and the vowel stationary part pitch frequency of the model pitch frequency of the synthesized speech, and the speech unit for the other is transformed by the speech unit recording. Instead of using the fine structure of the prosody at the time, the prosody is transformed using the prosody calculated by the prosody calculation means 202 first. These deformed speech units are connected by averaging in a range of about one pitch in the speech unit connection unit 206, and the connected synthesized speech is output to the synthesized speech output unit 207.
Output from

【0026】次に、図3を参照して、本発明の第3の実
施の形態における音声合成装置の構成を説明する。図3
において、301は漢字仮名混じり文字列または読み仮
名と韻律情報を入力して発音表記に変換する入力文字列
変換手段、302は発音表記に基づき合成音声全体の韻
律(ピッチ周波数)を計算する韻律計算手段、304は
語頭2音節の少なくとも一方を含む音声素片と語尾を含
む音声素片とそれ以外用の音声素片とを含むデータベー
スを格納したメモリー、303は入力文字列変換手段3
01から出力された発音表記をCVまたはVCV単位の
音声素片表記に変換し、メモリー304を検索してそれ
ぞれに該当する音声素片を選択する音声素片選択手段で
ある。
Next, with reference to FIG. 3, the configuration of a speech synthesizing apparatus according to a third embodiment of the present invention will be described. FIG.
, 301 is an input character string conversion means for inputting a character string mixed with kanji or kana or reading kana and prosody information and converting it into phonetic notation, and 302 is a prosody calculation for calculating the prosody (pitch frequency) of the whole synthesized speech based on the phonetic notation. Means 304, a memory storing a database including a speech unit including at least one of the first two syllables, a speech unit including the ending, and a speech unit for other words; 303, an input character string conversion unit 3;
This is a speech unit selection unit that converts the phonetic notation output from No. 01 into a speech unit notation in CV or VCV units, searches the memory 304 and selects a corresponding speech unit.

【0027】また、305は選択された語頭2音節の少
なくとも一方を含む音声素片と語尾とを含む音声素片
と、それ以外用の音声素片とを録音時の韻律の微細構造
を残したままで、式(3−1)または(3−2)(後述
する)に従いその韻律(ピッチ周波数)を変形する音声
素片変形手段、306は変形された音声素片を加算平均
により接続する音声素片接続手段、307は音声素片が
接続された合成音声を出力する合成音声出力手段であ
る。
Reference numeral 305 denotes a speech unit including at least one of the selected two initial syllables and a speech unit including the ending and a speech unit for the other words, while retaining the fine structure of the prosody at the time of recording. The speech unit transforming means 306 transforms the prosody (pitch frequency) according to the formula (3-1) or (3-2) (to be described later). A speech unit 306 connects the transformed speech units by averaging. One-side connecting means 307 is a synthesized voice output means for outputting a synthesized voice to which a voice unit is connected.

【0028】次に、図3を参照して、本発明の第3の実
施の形態における音声合成装置の動作を説明する。入力
文字列変換手段301は入力した漢字仮名混じり文字列
または読み仮名と韻律情報を発音表記に変換する。この
変換の例は図5を参照して後述する。次に、変換された
発音表記に基づき韻律計算手段302で合成音声全体の
韻律(ピッチ周波数)が計算される。また、入力文字列
変換手段301から出力された発音表記は、音声素片選
択手段303においてCVまたはVCV単位の音声素片
表記に変換され、語頭2音節の少なくとも一方を含む音
声素片と、語尾を含む音声素片と、それ以外用の音声素
片とを格納したメモリー304のデータベースを検索し
て、それぞれ該当する音声素片を選択する。
Next, the operation of the speech synthesizer according to the third embodiment of the present invention will be described with reference to FIG. The input character string conversion means 301 converts the input character string mixed with kanji kana or the reading kana and prosodic information into phonetic notation. An example of this conversion will be described later with reference to FIG. Next, the prosody (pitch frequency) of the entire synthesized speech is calculated by the prosody calculation means 302 based on the converted phonetic notation. The phonetic notation output from the input character string conversion means 301 is converted into a speech unit notation in units of CV or VCV by the speech unit selection means 303, and a speech unit including at least one of the first two syllables and a suffix are added. Is searched in the database of the memory 304 in which the speech unit including the above and the other speech units are stored, and the corresponding speech unit is selected.

【0029】次に、これらの音声素片は音声素片変形手
段305に送られ、語頭2音節の少なくとも一方を含む
音声素片と語尾とを含む音声素片と、それ以外用の音声
素片とは、録音時の韻律の微細構造を残したままで、式
(3−1)または(3−2)(後述する)に従い、合成
音声のモデルピッチ周波数の母音開始部及び母音定常部
ピッチ周波数と一致するように韻律(ピッチ周波数)が
変形される。これら変形された音声素片は音声素片接続
手段306において1ピッチ程度の範囲で加算平均によ
り接続され、接続された合成音声は合成音声出力手段3
07から出力される。
Next, these speech units are sent to speech unit transformation means 305, and a speech unit including at least one of the first two syllables and a speech unit including the ending and a speech unit for the other are used. Means the vowel start part and the vowel stationary part pitch frequency of the model pitch frequency of the synthesized voice according to the equation (3-1) or (3-2) (described later) while keeping the fine structure of the prosody at the time of recording. The prosody (pitch frequency) is modified to match. These deformed speech units are connected by averaging in a range of about one pitch in the speech unit connection unit 306, and the connected synthesized speech is output by the synthesized speech output unit 3.
07.

【0030】次に、図4を参照して、本発明の第4の実
施の形態における音声合成装置の構成を説明する。図4
において、401は漢字仮名混じり文字列または読み仮
名と韻律情報を入力して発音表記に変換する入力文字列
変換手段、402は変換された発音表記に基づき合成音
声全体の韻律(ピッチ周波数)を計算する韻律計算手
段、404は語頭2音節の少なくとも一方を含む音声素
片と語尾を含む音声素片とそれ以外用の音声素片とを含
むデータベースを格納したメモリー、403は入力文字
列変換手段401から出力された発音表記をCVまたは
VCV単位の音声素片表記に変換し、メモリー404を
検索してそれぞれに該当する音声素片を選択する音声素
片選択手段である。
Next, with reference to FIG. 4, a configuration of a speech synthesizing apparatus according to a fourth embodiment of the present invention will be described. FIG.
, 401 is an input character string conversion means for inputting a character string mixed with kanji kana or reading kana and prosody information and converting it into a phonetic transcription, and 402 calculates a prosody (pitch frequency) of the whole synthesized speech based on the converted phonetic transcription. 404 is a memory storing a database including a speech unit including at least one of the first two syllables, a speech unit including the ending, and a speech unit for other words, and 403 is an input character string conversion unit 401. Is a speech unit selection unit that converts the phonetic notation output from the unit into a speech unit notation in CV or VCV units, searches the memory 404 and selects a corresponding speech unit.

【0031】また、405は選択された語頭2音節の少
なくとも一方を含む音声素片と語尾を含む音声素片とを
録音時の韻律の微細構造を残したままで、式(4−1)
または(4−2)(後述する)に従いその韻律(ピッチ
周波数)を変形し、それ以外用の音声素片の韻律の変形
は音声素片録音時の韻律の微細構造を利用せず、先に韻
律計算手段402で計算した韻律を用いて変形する音声
素片変形手段、406は変形された音声素片を加算平均
により接続する音声素片接続手段、407は音声素片が
接続された合成音声を出力する合成音声出力手段であ
る。
Further, reference numeral 405 denotes an expression (4-1) in which the speech unit including at least one of the selected two syllables at the beginning and the speech unit including the ending are retained with the fine structure of the prosody at the time of recording.
Alternatively, the prosody (pitch frequency) is transformed in accordance with (4-2) (to be described later), and the prosody of the speech unit for the other is transformed without using the fine structure of the prosody at the time of recording the speech unit. Speech unit transformation means for transforming using the prosody calculated by the prosody calculation means 402, speech unit connection means 406 for connecting the transformed speech units by averaging, and 407 a synthesized speech to which speech units are connected. Is output as synthesized voice output means.

【0032】次に、図4を参照して、本発明の第4の実
施の形態における音声合成装置の動作を説明する。入力
文字列変換手段401は入力した漢字仮名混じり文字列
または読み仮名と韻律情報を発音表記に変換する。この
変換の例は図5を参照して後述する。次に、変換された
発音表記に基づき韻律計算手段402で合成音声全体の
韻律(ピッチ周波数)が計算される。また、入力文字列
変換手段401から出力された発音表記は、音声素片選
択手段403においてCVまたはVCV単位の音声素片
表記に変換され、語頭2音節の少なくとも一方を含む音
声素片と語尾を含む音声素片と、それ以外用の音声素片
とを格納したメモリー404のデータベースを検索し
て、それぞれ該当する音声素片を選択する。
Next, the operation of the speech synthesizer according to the fourth embodiment of the present invention will be described with reference to FIG. The input character string conversion means 401 converts the input character string mixed with kanji kana or the reading kana and prosodic information into phonetic notation. An example of this conversion will be described later with reference to FIG. Next, the prosody calculation unit 402 calculates the prosody (pitch frequency) of the entire synthesized speech based on the converted phonetic notation. The phonetic notation output from the input character string conversion means 401 is converted into a speech unit notation in CV or VCV units by the speech unit selection means 403, and the phoneme unit including at least one of the first two syllables and the ending are added. The database in the memory 404 storing the speech units including the speech units and the speech units for other speech units is searched, and the corresponding speech units are selected.

【0033】次に、これらの音声素片は音声素片変形手
段405に送られ、語頭2音節の少なくとも一方を含む
音声素片と語尾を含む音声素片とは、録音時の韻律の微
細構造を残したままで、式(4−1)または(4−2)
(後述する)に従い、合成音声のモデルピッチ周波数の
母音開始部及び母音定常部ピッチ周波数と一致するよう
に韻律(ピッチ周波数)が変形され、それ以外用の音声
素片の変形は音声素片録音時の韻律の微細構造を利用せ
ず、先に韻律計算手段402で計算した韻律を用いて変
形する。これら変形された音声素片は、音声素片接続手
段406において1ピッチ程度の範囲で加算平均により
接続され、接続された合成音声は合成音声出力手段40
7から出力される。
Next, these speech units are sent to the speech unit transformation unit 405, and the speech unit including at least one of the first two syllables and the speech unit including the ending are combined with the fine structure of the prosody at the time of recording. (4-1) or (4-2)
In accordance with (described later), the prosody (pitch frequency) is transformed so as to match the vowel start part and the vowel stationary part pitch frequency of the model pitch frequency of the synthesized speech, and the speech unit for the other is transformed by the speech unit recording. Instead of using the fine structure of the prosody at the time, the prosody is transformed using the prosody calculated by the prosody calculation means 402 first. These transformed speech units are connected by averaging in a range of about one pitch in the speech unit connection unit 406, and the connected synthesized speech is output by the synthesized speech output unit 40.
7 is output.

【0034】次に、図6のフローチャートを参照して、
本発明の第5の実施の形態における音声合成方法の流れ
を説明する。ステップ110において、入力された漢字
仮名まじり表記またはその読み仮名等の文字列から発音
表記が決定され、更にこの発音表記がCVまたはVCV
単位(Cは子音、Vは母音を意味する)に分解される。
次に、ステップ111に進み、藤崎モデルなどに基づ
き、合成しようとする単語の漢字仮名まじり表記または
その読み仮名とアクセント情報などの情報から、合成す
べき単語の韻律(特にピッチ周波数)を計算する(以
後、モデルピッチ周波数という)。
Next, referring to the flowchart of FIG.
The flow of the speech synthesis method according to the fifth embodiment of the present invention will be described. In step 110, a phonetic notation is determined from a character string such as the input kanji kana spelling notation or its reading kana, and the phonetic notation is further converted to CV or VCV.
It is decomposed into units (C means consonant, V means vowel).
Next, proceeding to step 111, based on the Fujisaki model or the like, the prosody (particularly pitch frequency) of the word to be synthesized is calculated from information such as the kanji kana spelling of the word to be synthesized or its reading kana and accent information. (Hereinafter referred to as model pitch frequency).

【0035】次に、ステップ112において、音声素片
カウンタを初期化し、ステップ113において、各音声
素片について、それらが合成音声の語頭2音節のいずれ
か1つか、アクセント核までのピッチ周波数の高いもの
か、語尾を含むものか、またはこれら以外のものとして
語頭から順に選択され、音声素片が合成音声の語頭2音
節のいずれか1つか、アクセント核までのピッチ周波数
の高いものか、語尾を含むものの場合はこれらのために
録音された音声素片から発音表記が同じCVまたはVC
V音声素片が選択され(ステップ114)、これら以外
の部分に用いらる音声素片は平板音声された音声素片で
あり、同様に発音表記の同じCVまたはVCV音声素片
が選択される(ステップ115)。
Next, in step 112, a speech unit counter is initialized, and in step 113, for each speech unit, one of the first two syllables of the synthesized speech, or the pitch frequency of the pitch pitch up to the accent nucleus is high. Are selected in order from the beginning of the word, including the end of the word, or those other than these, and the speech unit is one of the first two syllables of the synthesized speech, the one with a high pitch frequency to the accent nucleus, or the end of the word. If they contain CV or VC with the same phonetic notation from the speech units recorded for them
The V speech unit is selected (step 114), and the speech unit used for the other parts is a flat speech unit, and a CV or VCV speech unit having the same phonetic notation is also selected. (Step 115).

【0036】図5は文字列「横須賀市」を例に、「横須
賀市」を合成する場合について例示する。図5におい
て、その文字列表記は「横須賀市」であり、それを発音
表記に変換すると「yo ko sxu ka1 sh
i」となり、それに対応する合成音声素片または合成素
片は「yo(S) ko(S) osxu xuka
(A) ashi i(E)」であることを示す。
FIG. 5 illustrates a case where "Yokosuka City" is synthesized using the character string "Yokosuka City" as an example. In FIG. 5, the character string notation is “Yokosuka City”, which is converted into a phonetic notation “yo ko sxu ka1 sh”.
i ”, and the corresponding synthesized speech unit or synthesized unit is“ yo (S) ko (S) osxu xuka
(A) ashi i (E) ".

【0037】ステップ114及びステップ115におい
て選択された語頭2音節のいずれか1つの音声素片かア
クセント核までのピッチ周波数の高い音声素片か語尾を
含む音声素片かこれら以外の音声素片は、ステップ11
6において、合成音声の韻律(ピッチ周波数)に合わせ
て変形される。すなわち、下記の式〔1−1〕または
〔1−2〕により、合成音声のモデルピッチ周波数の母
音開始部および母音定常部ピッチ周波数と一致するよう
に音声素片のピッチ周波数を変形する。ピッチ周波数の
変形は、ピッチ波形の重畳によって実現される。
Any one of the two initial syllables selected in step 114 and step 115, the speech unit having a high pitch frequency up to the accent nucleus, the speech unit including the ending, or the other speech unit is , Step 11
In step 6, it is deformed according to the prosody (pitch frequency) of the synthesized speech. That is, the pitch frequency of the speech unit is modified by the following equation [1-1] or [1-2] so as to match the vowel start part and the vowel stationary part pitch frequency of the model pitch frequency of the synthesized speech. The deformation of the pitch frequency is realized by superimposition of a pitch waveform.

【0038】CV音声素片の場合 : p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔1−1〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の母音開始部ピッチ周波数 p02 : 変形前の音声素片の母音定常部ピッチ周波数 p1: 素片の母音開始部に相当する位置のモデルピッ
チ周波数 p2: 素片の母音定常部に相当する位置のモデルピッ
チ周波数 t : 母音開始時点を原点とする時刻 t1: 母音定常部時刻(原点は母音開始部の時刻)
In the case of a CV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (1-1) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: Vowel start pitch frequency of speech unit before deformation p02: Vowel steady part pitch frequency of speech unit before deformation p1 : Model pitch frequency at the position corresponding to the vowel start part of the unit p2: Model pitch frequency at the position corresponding to the vowel stationary part of the unit t: Time from the start of the vowel as the origin t1: Time of the vowel stationary part (the origin is Vowel start time)

【0039】VCV音声素片の場合: p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔1−2〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の第1母音定常部ピッチ周波
数 p02 : 変形前の音声素片の第2母音定常部ピッチ周波
数 p1: 素片の第1母音定常部に相当する位置のモデル
ピッチ周波数 p2: 素片の第2母音定常部に相当する位置のモデル
ピッチ周波数 t : 第1母音定常部時点を原点とする時刻 t1: 第2母音定常部時刻(原点は母音開始部の時
刻)
In the case of a VCV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (1-2) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: First vowel stationary part pitch frequency of speech unit before deformation p02: Second vowel stationary state of speech unit before deformation Part pitch frequency p1: Model pitch frequency at the position corresponding to the first vowel stationary part of the unit p2: Model pitch frequency at the position corresponding to the second vowel stationary part of the unit t: The origin is the time of the first vowel stationary part Time t1: the second vowel steady part time (the origin is the time of the vowel start part)

【0040】以上のような音声素片変形の後、先行する
音声素片の第2母音定常部と、当該音声素片の第1母音
の定常部のピッチ波形どうしを加算平均して接続を行う
(ステップ117)。接続終了後、次の音声素片の有無
を判断して(ステップ118)、ある場合は次の音声素
片の選択を行う(ステップ113)。このようにして、
音声素片を変形しては接続してゆくことにより合成音声
が作成される。
After the above speech unit deformation, the pitch waveforms of the second steady part of the second vowel of the preceding speech unit and the steady part of the first vowel of the first speech unit are averaged and connected. (Step 117). After the connection is completed, the presence or absence of the next speech unit is determined (step 118), and if so, the next speech unit is selected (step 113). In this way,
A synthesized speech is created by deforming and connecting the speech units.

【0041】尚、このような音声合成方法は単語ばかり
でなく、句や文節あるいは文などの合成音声の作成にも
同様に適用されることは言うまでもない。また、CVや
VCVの形式以外の音声素片、例えば、VCVやVVな
ど他の形式または種類の音声素片を使用しても、同様に
処理が可能であることは言うまでもない。
It goes without saying that such a speech synthesizing method is similarly applied not only to the creation of words but also to the production of synthesized speech such as phrases, phrases or sentences. Also, it goes without saying that the same processing can be performed by using a speech unit other than the CV or VCV format, for example, a speech unit of another format or type such as VCV or VV.

【0042】次に、図7のフローチャートを参照して、
本発明の第6の実施の形態における音声合成方法の流れ
を説明する。ステップ120において、入力された漢字
仮名まじり表記またはその読み仮名等の文字列から発音
表記が決定され、更にこの発音表記がCVまたはVCV
単位(Cは子音、Vは母音を意味する)に分解される。
次に、ステップ121に進み、藤崎モデルなどに基づ
き、合成しようとする単語の漢字仮名まじり表記または
その読み仮名とアクセント情報などの情報から、合成す
べき単語の韻律(特にピッチ周波数)を計算する(以
後、モデルピッチ周波数という)。
Next, referring to the flowchart of FIG.
The flow of the speech synthesis method according to the sixth embodiment of the present invention will be described. In step 120, a phonetic notation is determined from a character string such as the input kanji kana spelling or the reading kana, and the phonetic notation is converted to CV or VCV.
It is decomposed into units (C means consonant, V means vowel).
Next, proceeding to step 121, based on the Fujisaki model or the like, the prosody (particularly pitch frequency) of the word to be synthesized is calculated from information such as the kanji kana spelling of the word to be synthesized or its reading kana and accent information. (Hereinafter referred to as model pitch frequency).

【0043】次に、ステップ122において、音声素片
カウンタを初期化し、ステップ123において、各音声
素片について、それらが合成音声の語頭2音節のいずれ
か1つか、アクセント核までのピッチ周波数の高いもの
か、語尾を含むものか、またはこれら以外のものとして
語頭から順に選択され、音声素片が合成音声の語頭2音
節のいずれか1つか、アクセント核までのピッチ周波数
の高いものか、語尾を含むものの場合はこれらのために
録音された音声素片から発音表記が同じCVまたはVC
V音声素片が選択され(ステップ124)、これら以外
の部分に用いらる音声素片は平板音声された音声素片で
あり、同様に発音表記の同じCVまたはVCV音声素片
が選択される(ステップ126)。
Next, in step 122, a speech unit counter is initialized, and in step 123, for each speech unit, one of the two syllables at the beginning of the synthesized speech, or the pitch frequency up to the accent nucleus is high. Are selected in order from the beginning of the word, including the end of the word, or those other than these, and the speech unit is one of the first two syllables of the synthesized speech, the one with a high pitch frequency to the accent nucleus, or the end of the word. If they contain CV or VC with the same phonetic notation from the speech units recorded for them
A V-speech unit is selected (step 124), and speech units used for other parts are flat-speech-based speech units, and similarly, a CV or VCV speech unit having the same phonetic notation is selected. (Step 126).

【0044】図5は文字列「横須賀市」を例に、「横須
賀市」を合成する場合について例示する。図5におい
て、その文字列表記は「横須賀市」であり、それを発音
表記に変換すると「yo ko sxu ka1 sh
i」となり、それに対応する合成音声素片または合成素
片は「yo(S) ko(S) osxu xuka
(A) ashi i(E)」であることを示す。
FIG. 5 illustrates a case where "Yokosuka City" is synthesized using the character string "Yokosuka City" as an example. In FIG. 5, the character string notation is “Yokosuka City”, which is converted into a phonetic notation “yo ko sxu ka1 sh”.
i ”, and the corresponding synthesized speech unit or synthesized unit is“ yo (S) ko (S) osxu xuka
(A) ashi i (E) ".

【0045】ステップ124において選択された語頭2
音節のいずれか1つの音声素片かアクセント核までのピ
ッチ周波数の高い音声素片か語尾を含む音声素片は、ス
テップ125において、合成音声の韻律(ピッチ周波
数)に合わせて変形される。すなわち、下記の式〔2−
1〕または〔2−2〕により、合成音声のモデルピッチ
周波数の母音開始部および母音定常部ピッチ周波数と一
致するように音声素片のピッチ周波数を変形する。ピッ
チ周波数の変形は、ピッチ波形の重畳によって実現され
る。
Initial 2 selected in step 124
At step 125, any one of the syllables or a speech unit having a high pitch frequency up to the accent nucleus or a speech unit including the ending is deformed according to the prosody (pitch frequency) of the synthesized speech. That is, the following formula [2-
According to [1] or [2-2], the pitch frequency of the speech unit is changed so as to match the vowel start portion and the vowel stationary portion pitch frequency of the model pitch frequency of the synthesized speech. The deformation of the pitch frequency is realized by superimposition of a pitch waveform.

【0046】CV音声素片の場合 : p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔2−1〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の母音開始部ピッチ周波数 p02 : 変形前の音声素片の母音定常部ピッチ周波数 p1: 素片の母音開始部に相当する位置のモデルピッ
チ周波数 p2: 素片の母音定常部に相当する位置のモデルピッ
チ周波数 t : 母音開始時点を原点とする時刻 t1: 母音定常部時刻(原点は母音開始部の時刻)
In the case of a CV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (2-1) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: Vowel start pitch frequency of speech unit before deformation p02: Vowel steady part pitch frequency of speech unit before deformation p1 : Model pitch frequency at the position corresponding to the vowel start part of the unit p2: Model pitch frequency at the position corresponding to the vowel stationary part of the unit t: Time from the start of the vowel as the origin t1: Time of the vowel stationary part (the origin is Vowel start time)

【0047】VCV音声素片の場合: p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔2−2〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の第1母音定常部ピッチ周波
数 p02 : 変形前の音声素片の第2母音定常部ピッチ周波
数 p1: 素片の第1母音定常部に相当する位置のモデル
ピッチ周波数 p2: 素片の第2母音定常部に相当する位置のモデル
ピッチ周波数 t : 第1母音定常部時点を原点とする時刻 t1: 第2母音定常部時刻(原点は母音開始部の時
刻)
In the case of the VCV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (2-2) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: First vowel stationary part pitch frequency of speech unit before deformation p02: Second vowel stationary state of speech unit before deformation Part pitch frequency p1: Model pitch frequency at the position corresponding to the first vowel stationary part of the unit p2: Model pitch frequency at the position corresponding to the second vowel stationary part of the unit t: The origin is the time of the first vowel stationary part Time t1: the second vowel steady part time (the origin is the time of the vowel start part)

【0048】一方、語頭2音節のいずれか1つの音声素
片か語尾を含む音声素片以外のそれ以外用の音声素片
は、ステップ127において、合成音声のモデルピッチ
周波数によって定められる各時刻のピッチ周期に合わせ
てピッチ波形単位で重畳することにより変形される。
On the other hand, any other speech unit other than the speech unit including any one of the first two syllables or the speech ending at the end of the word is determined at step 127 at each time determined by the model pitch frequency of the synthesized speech. It is deformed by superimposing in units of pitch waveforms in accordance with the pitch cycle.

【0049】以上のような音声素片変形の後、先行する
音声素片の第2母音定常部と、当該音声素片の第1母音
の定常部のピッチ波形どうしを加算平均して接続を行う
(ステップ128)。接続終了後、次の音声素片の有無
を判断して(ステップ129)、ある場合は次の音声素
片の選択を行う(ステップ123)。このようにして、
音声素片を変形しては接続してゆくことにより合成音声
が作成される。
After the above speech unit deformation, the pitch waveforms of the second stationary part of the preceding vowel and the stationary part of the first vowel of the preceding speech unit are averaged and connected. (Step 128). After the connection is completed, the presence or absence of the next speech unit is determined (step 129), and if there is, the next speech unit is selected (step 123). In this way,
A synthesized speech is created by deforming and connecting the speech units.

【0050】尚、このような音声合成方法は単語ばかり
でなく、句や文節あるいは文などの合成音声の作成にも
同様に適用されることは言うまでもない。また、CVや
VCVの形式以外の音声素片、例えば、VCVやVVな
ど他の形式または種類の音声素片を使用しても、同様に
処理が可能であることは言うまでもない。
It is needless to say that such a speech synthesizing method is similarly applied not only to the creation of words but also to the production of synthesized speech such as phrases, phrases or sentences. Also, it goes without saying that the same processing can be performed by using a speech unit other than the CV or VCV format, for example, a speech unit of another format or type such as VCV or VV.

【0051】次に、図8のフローチャートを参照して、
本発明の第7の実施の形態における音声合成方法の流れ
を説明する。ステップ130において、入力された漢字
仮名まじり表記またはその読み仮名等の文字列から発音
表記が決定され、更にこの発音表記がCVまたはVCV
単位(Cは子音、Vは母音を意味する)に分解される。
次に、ステップ131に進み、藤崎モデルなどに基づ
き、合成しようとする単語の漢字仮名まじり表記または
その読み仮名とアクセント情報などの情報から、合成す
べき単語の韻律(特にピッチ周波数)を計算する(以
後、モデルピッチ周波数という)。
Next, referring to the flowchart of FIG.
The flow of the speech synthesis method according to the seventh embodiment of the present invention will be described. In step 130, the phonetic notation is determined from the character string such as the input kanji kana spelling notation or its reading kana, and the phonetic notation is further converted to CV or VCV.
It is decomposed into units (C means consonant, V means vowel).
Next, proceeding to step 131, based on the Fujisaki model or the like, the prosody (particularly pitch frequency) of the word to be synthesized is calculated from the information such as the kanji kana spelling of the word to be synthesized or its reading kana and accent information. (Hereinafter referred to as model pitch frequency).

【0052】次に、ステップ132において、音声素片
カウンタを初期化し、ステップ133において、各音声
素片について、それらが合成音声の語頭2音節のいずれ
か1つか、語尾を含むものか、またはこれら以外のもの
として語頭から順に選択され、音声素片が合成音声の語
頭2音節のいずれか1つか語尾を含むものの場合はこれ
らのために録音された音声素片から発音表記が同じCV
またはVCV音声素片が選択され(ステップ134)、
これら以外の部分に用いらる音声素片は平板音声された
音声素片であり、同様に発音表記の同じCVまたはVC
V音声素片が選択される(ステップ135)。
Next, in step 132, a speech unit counter is initialized, and in step 133, for each speech unit, whether they include any one of the first two syllables of the synthesized speech, the ending of the syllable, or the like. If the speech unit includes any one of the first two syllables or the end of the synthesized speech, the phonetic notation is the same from the speech unit recorded for them.
Alternatively, a VCV speech unit is selected (step 134),
Speech units used for other parts are plate-speech-based speech units, and also have the same phonetic notation of CV or VC.
A V speech unit is selected (step 135).

【0053】図5は文字列「横須賀市」を例に、「横須
賀市」を合成する場合について例示する。図5におい
て、その文字列表記は「横須賀市」であり、それを発音
表記に変換すると「yo ko sxu ka1 sh
i」となり、それに対応する合成音声素片または合成素
片は「yo(S) ko(S) osxu xuka
(A) ashi i(E)」であることを示す。
FIG. 5 illustrates a case where the character string "Yokosuka City" is used as an example and "Yokosuka City" is synthesized. In FIG. 5, the character string notation is “Yokosuka City”, which is converted into a phonetic notation “yo ko sxu ka1 sh”.
i ”, and the corresponding synthesized speech unit or synthesized unit is“ yo (S) ko (S) osxu xuka
(A) ashi i (E) ".

【0054】ステップ134及びステップ135におい
て選択された語頭2音節のいずれか1つの音声素片か語
尾を含む音声素片かこれら以外の音声素片は、ステップ
136において、合成音声の韻律(ピッチ周波数)に合
わせて変形される。すなわち、下記の式〔3−1〕また
は〔3−2〕により、合成音声のモデルピッチ周波数の
母音開始部および母音定常部ピッチ周波数と一致するよ
うに音声素片のピッチ周波数を変形する。ピッチ周波数
の変形は、ピッチ波形の重畳によって実現される。
In step 136, any one of the first two syllables selected in steps 134 and 135, the speech unit including the ending, or the other speech unit is processed in step 136 by the prosody (pitch frequency) of the synthesized speech. ). That is, the pitch frequency of the speech unit is modified by the following equation [3-1] or [3-2] so as to match the vowel start portion and the vowel stationary portion pitch frequency of the model pitch frequency of the synthesized speech. The deformation of the pitch frequency is realized by superimposition of a pitch waveform.

【0055】CV音声素片の場合 : p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔3−1〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の母音開始部ピッチ周波数 p02 : 変形前の音声素片の母音定常部ピッチ周波数 p1: 素片の母音開始部に相当する位置のモデルピッ
チ周波数 p2: 素片の母音定常部に相当する位置のモデルピッ
チ周波数 t : 母音開始時点を原点とする時刻 t1: 母音定常部時刻(原点は母音開始部の時刻)
In the case of a CV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (3-1) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: Vowel start pitch frequency of speech unit before deformation p02: Vowel steady part pitch frequency of speech unit before deformation p1 : Model pitch frequency at the position corresponding to the vowel start part of the unit p2: Model pitch frequency at the position corresponding to the vowel stationary part of the unit t: Time from the start of the vowel as the origin t1: Time of the vowel stationary part (the origin is Vowel start time)

【0056】VCV音声素片の場合: p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔3−2〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の第1母音定常部ピッチ周波
数 p02 : 変形前の音声素片の第2母音定常部ピッチ周波
数 p1: 素片の第1母音定常部に相当する位置のモデル
ピッチ周波数 p2: 素片の第2母音定常部に相当する位置のモデル
ピッチ周波数 t : 第1母音定常部時点を原点とする時刻 t1: 第2母音定常部時刻(原点は母音開始部の時
刻)
In the case of a VCV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (3-2) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: First vowel stationary part pitch frequency of speech unit before deformation p02: Second vowel stationary state of speech unit before deformation Part pitch frequency p1: Model pitch frequency at the position corresponding to the first vowel stationary part of the unit p2: Model pitch frequency at the position corresponding to the second vowel stationary part of the unit t: The origin is the time of the first vowel stationary part Time t1: the second vowel steady part time (the origin is the time of the vowel start part)

【0057】以上のような音声素片変形の後、先行する
音声素片の第2母音定常部と、当該音声素片の第1母音
の定常部のピッチ波形どうしを加算平均して接続を行う
(ステップ137)。接続終了後、次の音声素片の有無
を判断して(ステップ138)、ある場合は次の音声素
片の選択を行う(ステップ133)。このようにして、
音声素片を変形しては接続してゆくことにより合成音声
が作成される。
After the above speech unit deformation, the pitch waveforms of the second steady part of the second vowel of the preceding speech unit and the steady part of the first vowel of the first speech unit are averaged and connected. (Step 137). After the connection is completed, the presence or absence of the next speech unit is determined (step 138), and if there is, the next speech unit is selected (step 133). In this way,
A synthesized speech is created by deforming and connecting the speech units.

【0058】尚、このような音声合成方法は単語ばかり
でなく、句や文節あるいは文などの合成音声の作成にも
同様に適用されることは言うまでもない。また、CVや
VCVの形式以外の音声素片、例えば、VCVやVVな
ど他の形式または種類の音声素片を使用しても、同様に
処理が可能であることは言うまでもない。
It is needless to say that such a speech synthesizing method is similarly applied not only to the production of words but also to the production of synthesized speech such as phrases, phrases or sentences. Also, it goes without saying that the same processing can be performed by using a speech unit other than the CV or VCV format, for example, a speech unit of another format or type such as VCV or VV.

【0059】次に、図9のフローチャートを参照して、
本発明の第8の実施の形態における音声合成方法の流れ
を説明する。ステップ140において、入力された漢字
仮名まじり表記またはその読み仮名等の文字列から発音
表記が決定され、更にこの発音表記がCVまたはVCV
単位(Cは子音、Vは母音を意味する)に分解される。
次に、ステップ141に進み、藤崎モデルなどに基づ
き、合成しようとする単語の漢字仮名まじり表記または
その読み仮名とアクセント情報などの情報から、合成す
べき単語の韻律(特にピッチ周波数)を計算する(以
後、モデルピッチ周波数という)。
Next, referring to the flowchart of FIG.
The flow of the speech synthesis method according to the eighth embodiment of the present invention will be described. In step 140, a phonetic notation is determined from a character string such as the input kanji kana spelling notation or its reading kana, and the phonetic notation is further converted to CV or VCV.
It is decomposed into units (C means consonant, V means vowel).
Next, proceeding to step 141, based on the Fujisaki model or the like, the prosody (particularly pitch frequency) of the word to be synthesized is calculated from information such as the kanji kana spelling of the word to be synthesized or its reading kana and accent information. (Hereinafter referred to as model pitch frequency).

【0060】次に、ステップ142において、音声素片
カウンタを初期化し、ステップ143において、各音声
素片について、それらが合成音声の語頭2音節のいずれ
か1つか、語尾を含むものか、またはこれら以外のもの
として語頭から順に選択され、音声素片が合成音声の語
頭2音節のいずれか1つか語尾を含むものの場合はこれ
らのために録音された音声素片から発音表記が同じCV
またはVCV音声素片が選択され(ステップ144)、
これら以外の部分に用いらる音声素片は平板音声された
音声素片であり、同様に発音表記の同じCVまたはVC
V音声素片が選択される(ステップ146)。
Next, in step 142, a speech unit counter is initialized, and in step 143, for each speech unit, whether they include any one of the first two syllables of the synthesized speech, the end of the syllable, or the like. If the speech unit includes any one of the first two syllables or the end of the synthesized speech, the phonetic notation is the same from the speech unit recorded for them.
Alternatively, a VCV speech unit is selected (step 144),
Speech units used for other parts are plate-speech-based speech units, and also have the same phonetic notation of CV or VC.
A V speech unit is selected (step 146).

【0061】図5は文字列「横須賀市」を例に、「横須
賀市」を合成する場合について例示する。図5におい
て、その文字列表記は「横須賀市」であり、それを発音
表記に変換すると「yo ko sxu ka1 sh
i」となり、それに対応する合成音声素片または合成素
片は「yo(S) ko(S) osxu xuka
(A) ashi i(E)」であることを示す。
FIG. 5 illustrates a case where "Yokosuka City" is synthesized using the character string "Yokosuka City" as an example. In FIG. 5, the character string notation is “Yokosuka City”, which is converted into a phonetic notation “yo ko sxu ka1 sh”.
i ”, and the corresponding synthesized speech unit or synthesized unit is“ yo (S) ko (S) osxu xuka
(A) ashi i (E) ".

【0062】ステップ144において選択された語頭2
音節のいずれか1つの音声素片か語尾を含む音声素片
は、ステップ145において、合成音声の韻律(ピッチ
周波数)に合わせて変形される。すなわち、下記の式
〔4−1〕または〔4−2〕により、合成音声のモデル
ピッチ周波数の母音開始部および母音定常部ピッチ周波
数と一致するように音声素片のピッチ周波数を変形す
る。ピッチ周波数の変形は、ピッチ波形の重畳によって
実現される。
The head 2 selected in step 144
In step 145, any one of the syllable speech units or the speech unit including the ending is deformed according to the prosody (pitch frequency) of the synthesized speech. That is, the pitch frequency of the speech unit is modified by the following equation [4-1] or [4-2] so as to match the vowel start part and the vowel stationary part pitch frequency of the model pitch frequency of the synthesized speech. The deformation of the pitch frequency is realized by superimposition of a pitch waveform.

【0063】CV音声素片の場合 : p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔4−1〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の母音開始部ピッチ周波数 p02 : 変形前の音声素片の母音定常部ピッチ周波数 p1: 素片の母音開始部に相当する位置のモデルピッ
チ周波数 p2: 素片の母音定常部に相当する位置のモデルピッ
チ周波数 t : 母音開始時点を原点とする時刻 t1: 母音定常部時刻(原点は母音開始部の時刻)
In the case of the CV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (4-1) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: Vowel start pitch frequency of speech unit before deformation p02: Vowel steady part pitch frequency of speech unit before deformation p1 : Model pitch frequency at the position corresponding to the vowel start part of the unit p2: Model pitch frequency at the position corresponding to the vowel stationary part of the unit t: Time from the start of the vowel as the origin t1: Time of the vowel stationary part (the origin is Vowel start time)

【0064】VCV音声素片の場合: p(t) = p0(t){p1/p01+(P2/p02-p1/p01)t/t1} ・・・ 〔4−2〕 ただし p(t): 変形後の音声素片ピッチ周波数 p0(t): 変形前の音声素片ピッチ周波数 p01 : 変形前の音声素片の第1母音定常部ピッチ周波
数 p02 : 変形前の音声素片の第2母音定常部ピッチ周波
数 p1: 素片の第1母音定常部に相当する位置のモデル
ピッチ周波数 p2: 素片の第2母音定常部に相当する位置のモデル
ピッチ周波数 t : 第1母音定常部時点を原点とする時刻 t1: 第2母音定常部時刻(原点は母音開始部の時
刻)
In the case of a VCV speech unit: p (t) = p0 (t) {p1 / p01 + (P2 / p02-p1 / p01) t / t1} (4-2) where p (t): Speech unit pitch frequency after deformation p0 (t): Speech unit pitch frequency before deformation p01: First vowel stationary part pitch frequency of speech unit before deformation p02: Second vowel stationary state of speech unit before deformation Part pitch frequency p1: Model pitch frequency at the position corresponding to the first vowel stationary part of the unit p2: Model pitch frequency at the position corresponding to the second vowel stationary part of the unit t: The origin is the time of the first vowel stationary part Time t1: the second vowel steady part time (the origin is the time of the vowel start part)

【0065】一方、語頭2音節のいずれか1つの音声素
片か語尾を含む音声素片以外のそれ以外用の音声素片
は、ステップ147において、合成音声のモデルピッチ
周波数によって定められる各時刻のピッチ周期に合わせ
てピッチ波形単位で重畳することにより変形される。
On the other hand, in step 147, a speech unit other than any one speech unit of the first two syllables or a speech unit including the ending is added at step 147 at each time determined by the model pitch frequency of the synthesized speech. It is deformed by superimposing in units of pitch waveforms in accordance with the pitch cycle.

【0066】以上のような音声素片変形の後、先行する
音声素片の第2母音定常部と、当該音声素片の第1母音
の定常部のピッチ波形どうしを加算平均して接続を行う
(ステップ148)。接続終了後、次の音声素片の有無
を判断して(ステップ149)、ある場合は次の音声素
片の選択を行う(ステップ143)。このようにして、
音声素片を変形しては接続してゆくことにより合成音声
が作成される。
After the above speech unit deformation, the pitch waveforms of the second steady part of the second vowel of the preceding speech unit and the steady part of the first vowel of the first speech unit are averaged and connected. (Step 148). After the connection is completed, the presence or absence of the next speech unit is determined (step 149). If there is, the next speech unit is selected (step 143). In this way,
A synthesized speech is created by deforming and connecting the speech units.

【0067】尚、このような音声合成方法は単語ばかり
でなく、句や文節あるいは文などの合成音声の作成にも
同様に適用されることは言うまでもない。また、CVや
VCVの形式以外の音声素片、例えば、VCVやVVな
ど他の形式または種類の音声素片を使用しても、同様に
処理が可能であることは言うまでもない。
It is needless to say that such a speech synthesizing method is similarly applied not only to the production of words but also to the production of synthesized speech such as phrases, phrases or sentences. Also, it goes without saying that the same processing can be performed by using a speech unit other than the CV or VCV format, for example, a speech unit of another format or type such as VCV or VV.

【0068】[0068]

【発明の効果】本発明は、以上のように構成し、特に、
従来技術におけるような大記憶容量を必要とするスペク
トル変換を使用する代わりに、合成音声の音質の維持に
特に重要な語頭2音節、アクセント核までのピッチ周波
数の高いもの、または語尾の音声素片の(韻律の)変形
に、スペクトル変換を使用する場合ほど記憶容量を必要
としない音声素片録音時の韻律の微細構造を利用し、合
成音声の音質にあまり影響しないそれ以外用の音声素片
の(韻律の)変形は音声素片録音時の韻律の微細構造を
利用せず計算により行うようにしたことにより、合成音
声の音質を高く維持しながら、データベースに格納する
音声素片を少なくして、音声素片データベースを記憶す
るメモリーの容量を小さくすることができる。
The present invention is configured as described above, and in particular,
Instead of using spectral transformations that require large storage capacity as in the prior art, two initial syllables, one with a high pitch frequency up to the accent nucleus, or a speech unit at the end, which are particularly important for maintaining the sound quality of the synthesized speech Uses the fine structure of prosody at the time of recording speech units that do not require as much storage capacity as the case of using spectrum conversion to transform (prosody), and uses other speech units that do not significantly affect the sound quality of synthesized speech The (prosody) transformation is performed by calculation without using the fine structure of the prosody at the time of speech unit recording, so that the speech units stored in the database can be reduced while maintaining the high quality of synthesized speech. Thus, the capacity of the memory for storing the speech unit database can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態における音声合成装
置の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a speech synthesizer according to a first embodiment of the present invention.

【図2】本発明の第2の実施の形態における音声合成装
置の構成を示すブロック図
FIG. 2 is a block diagram illustrating a configuration of a speech synthesizer according to a second embodiment of the present invention;

【図3】本発明の第3の実施の形態における音声合成装
置の構成を示すブロック図
FIG. 3 is a block diagram showing a configuration of a speech synthesizer according to a third embodiment of the present invention.

【図4】本発明の第4の実施の形態における音声合成装
置の構成を示すブロック図
FIG. 4 is a block diagram showing a configuration of a speech synthesizer according to a fourth embodiment of the present invention.

【図5】図1に示す音声合成装置において入力が漢字文
字列の場合の発音表記への変換の様子を説明する図
FIG. 5 is a view for explaining a state of conversion into phonetic notation when an input is a kanji character string in the speech synthesizer shown in FIG. 1;

【図6】本発明の第5の実施の形態における音声合成方
法を示すフローチャート
FIG. 6 is a flowchart illustrating a speech synthesis method according to a fifth embodiment of the present invention.

【図7】本発明の第6の実施の形態における音声合成方
法を示すフローチャート
FIG. 7 is a flowchart illustrating a speech synthesis method according to a sixth embodiment of the present invention.

【図8】本発明の第7の実施の形態における音声合成方
法を示すフローチャート
FIG. 8 is a flowchart showing a speech synthesis method according to a seventh embodiment of the present invention.

【図9】本発明の第8の実施の形態における音声合成方
法を示すフローチャート
FIG. 9 is a flowchart illustrating a speech synthesis method according to an eighth embodiment of the present invention.

【図10】従来の音声合成装置の構成を示すブロック図FIG. 10 is a block diagram showing the configuration of a conventional speech synthesizer.

【符号の説明】[Explanation of symbols]

101、201 入力文字列変換手段 102、202 韻律計算手段 103、203 音声素片選択手段 301、401 入力文字列変換手段 302、402 韻律計算手段 303、403 音声素片選択手段 104、204 メモリー(語頭、アクセント核までの
ピッチ周波数の高いもの、語尾、及びその他用の音声素
片データベース格納) 105、205 音声素片変形手段 106、206 音声素片接続手段 107、207 合成音声出力手段 305、405 音声素片変形手段 306、406 音声素片接続手段 307、407 合成音声出力手段 304、404 メモリー(語頭、語尾、及びその他用
の音声素片データベース格納) 501 入力部 502 韻律パラメータ生成部 503 韻律規則辞書 504 音声単位選択部 505 大容量音声単位データベース(DB) 506 音声単位セット選択部 507 音声単位セット 508 音声合成器 509 出力部
101, 201 input character string conversion means 102, 202 prosody calculation means 103, 203 speech unit selection means 301, 401 input character string conversion means 302, 402 prosody calculation means 303, 403 speech unit selection means 104, 204 105, 205 Speech unit transformation means 106, 206 Speech unit connection means 107, 207 Synthetic speech output means 305, 405 Speech unit database for speech units with high pitch frequencies up to accent nuclei, endings, etc. Unit transforming means 306, 406 Speech unit connecting means 307, 407 Synthetic speech output means 304, 404 Memory (stores speech prefix, ending, and other speech unit databases for other uses) 501 Input unit 502 Prosodic parameter generation unit 503 Prosodic rule dictionary 504 Audio unit selection unit 505 Large capacity audio Unit database (DB) 506 Speech unit set selection unit 507 Speech unit set 508 Speech synthesizer 509 Output unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−95692(JP,A) 特開 平4−281495(JP,A) 特開 平1−284898(JP,A) 特開 平2−238497(JP,A) 特開 平7−181995(JP,A) 特開 平7−56597(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 13/06 G10L 13/08 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-6-95692 (JP, A) JP-A-4-281495 (JP, A) JP-A 1-284898 (JP, A) JP-A-2- 238497 (JP, A) JP-A-7-181995 (JP, A) JP-A-7-56597 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 13/06 G10L 13 / 08

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換する入力文
字列変換手段と、変換された発音表記により合成音声の
韻律を計算する韻律計算手段と、語頭2音節の少なくと
も一方を含む音声素片とアクセント核までの高いピッチ
周波数の音声素片と語尾を含む音声素片とこれらの音声
素片以外の音声素片とを少なくとも格納したメモリー
と、前記発音表記に従い前記メモリーから該当する音声
素片を選択する音声素片選択手段と、音声素片録音時の
韻律の微細構造を残したままで前記選択された音声素片
の韻律の変形を行う音声素片変形手段と、前記変形され
た音声素片を接続する音声素片接続手段と、接続された
合成音声を出力する合成音声出力手段とを備えた音声合
成装置。
An input character string converting means for converting an input kanji kana mixed character string or a reading kana and prosody information into a phonetic notation, and a prosody calculating means for calculating a prosody of a synthesized speech based on the converted phonetic notation. If, prefix 2 syllables of speech units and these audio including speech unit and endings of high pitch frequencies up speech unit and accent core containing at least one
A memory storing at least speech units other than the speech unit, a speech unit selection unit for selecting a corresponding speech unit from the memory according to the phonetic notation, and a fine structure of the prosody at the time of the speech unit recording. Speech unit transforming means for transforming the prosody of the selected speech unit, speech unit connecting means for connecting the transformed speech unit, and synthesized speech output means for outputting the connected synthesized speech. A speech synthesizer comprising:
【請求項2】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換する入力文
字列変換手段と、変換された発音表記により合成音声の
韻律を計算する韻律計算手段と、語頭2音節の少なくと
も一方を含む音声素片とアクセント核までの高いピッチ
周波数の音声素片と語尾を含む音声素片とこれらの音声
素片以外の音声素片とを少なくとも格納したメモリー
と、前記発音表記に従い前記メモリーから該当する音声
素片を選択する音声素片選択手段と、録音時の韻律の微
細構造を残したままで前記選択された語頭2音節の少な
くとも一方を含む音声素片とアクセント核までのピッチ
周波数の高い音声素片と語尾を含む音声素片の韻律の変
形を行い、これらの音声素片以外の音声素片の韻律の変
形は音声素片録音時の韻律の微細構造を利用せず前記計
算した韻律を用いて行う音声素片変形手段と、前記変形
された音声素片を接続する音声素片接続手段と、接続さ
れた合成音声を出力する合成音声出力手段とを備えた音
声合成装置。
2. An input character string converting means for converting an input character string mixed with kanji kana or a reading kana and prosodic information into a phonetic notation, and a prosody calculating means for calculating a prosody of a synthesized speech based on the converted phonetic notation. If, prefix 2 syllables of speech units and these audio including speech unit and endings of high pitch frequencies up speech unit and accent core containing at least one
A memory storing at least a speech unit other than a unit, a speech unit selection unit for selecting a corresponding speech unit from the memory according to the phonetic notation, and the selection while retaining the fine structure of the prosody at the time of recording. been prefixes perform prosody modification of speech units including speech segment and ending high pitch frequencies up speech unit and accent nucleus containing 2 syllables least one of, speech units other than those of speech units Transformation of the prosody is performed using the calculated prosody without using the fine structure of the prosody at the time of the speech unit recording, a speech unit transformation unit, and a speech unit connection unit that connects the transformed speech unit, A speech synthesizer comprising a connected synthesized speech output unit for outputting the synthesized speech.
【請求項3】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換する入力文
字列変換手段と、変換された発音表記により合成音声の
韻律を計算する韻律計算手段と、語頭2音節の少なくと
も一方を含む音声素片と語尾を含む音声素片とこれらの
音声素片以外の音声素片とを少なくとも格納したメモリ
ーと、前記発音表記に従い前記メモリーから該当する音
声素片を選択する音声素片選択手段と、音声素片録音時
の韻律の微細構造を残したままで前記選択された音声素
片の韻律の変形を行う音声素片変形手段と、前記変形さ
れた音声素片を接続する音声素片接続手段と、接続され
た合成音声を出力する合成音声出力手段とを備えた音声
合成装置。
3. An input character string converting means for converting an input character string mixed with kanji kana or a reading kana and prosodic information into a phonetic notation, and a prosody calculating means for calculating a prosody of a synthesized speech based on the converted phonetic notation. When, the prefix 2 syllables speech unit and of including speech unit and endings including at least one
A memory storing at least a speech unit other than the speech unit, a speech unit selection means for selecting a corresponding speech unit from the memory according to the phonetic notation, and a fine structure of a prosody at the time of speech unit recording. Speech unit transformation means for transforming the prosody of the selected speech unit as it is, speech unit connection means for connecting the transformed speech unit, and synthesized speech output for outputting the connected synthesized speech And a voice synthesizing device.
【請求項4】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換する入力文
字列変換手段と、変換された発音表記により合成音声の
韻律を計算する韻律計算手段と、語頭2音節の少なくと
も一方を含む音声素片と語尾を含む音声素片とこれらの
音声素片以外の音声素片とを少なくとも格納したメモリ
ーと、前記発音表記に従い前記メモリーから該当する音
声素片を選択する音声素片選択手段と、録音時の韻律の
微細構造を残したままで前記選択された語頭2音節の少
なくとも一方を含む音声素片と語尾を含む音声素片の韻
律の変形を行い、これらの音声素片以外の音声素片の韻
律の変形は音声素片録音時の韻律の微細構造を利用せず
前記計算した韻律を用いて行う音声素片変形手段と、前
記変形された音声素片を接続する音声素片接続手段と、
接続された合成音声を出力する合成音声出力手段とを備
えた音声合成装置。
4. An input character string converting means for converting an input character string mixed with kanji kana or a reading kana and prosodic information into a phonetic notation, and a prosody calculating means for calculating a prosody of a synthesized speech based on the converted phonetic notation. When, the prefix 2 syllables speech unit and of including speech unit and endings including at least one
A memory storing at least a speech unit other than the speech unit, a speech unit selection means for selecting a corresponding speech unit from the memory according to the phonetic notation, and the fine structure of the prosody at the time of recording is retained. The prosody of the speech unit including at least one of the selected two initial syllables and the speech unit including the ending is modified, and the prosody of the speech unit other than these speech units is modified according to the prosody at the time of recording the speech unit. Speech unit deformation means for performing using the calculated prosody without using the fine structure of, speech unit connection means for connecting the deformed speech unit,
A speech synthesizer comprising a connected synthesized speech output unit for outputting the synthesized speech.
【請求項5】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換し、前記変
換された発音表記に基づきメモリーから語頭2音節の少
なくとも一方を含む音声素片とアクセント核までの高い
ピッチ周波数の音声素片と語尾を含む音声素片とこれら
の音声素片以外の音声素片とから前記発音表記に該当す
る音声素片を選択し、音声素片録音時の韻律の微細構造
を残したままで前記選択された音声素片の韻律の変形を
行い、前記変形された音声素片を接続し合成音声として
出力する各工程からなることを特徴とする音声合成方
法。
5. A speech unit including at least one of the first two syllables from a memory based on the input kanji kana mixed character string or reading kana and prosodic information and converted into phonetic notation based on the converted phonetic notation. Speech units with high pitch frequency up to the accent nucleus and speech units including endings and these
Be applicable from the speech segment of the non-voice segment in the phonetic transcription
The speech unit is selected, the prosody of the selected speech unit is transformed while the fine structure of the prosody at the time of recording the speech unit is left, and the transformed speech unit is connected and output as a synthesized speech. A speech synthesis method comprising the steps of:
【請求項6】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換し、前記変
換された発音表記により合成音声の韻律を計算し、前記
変換された発音表記に基づきメモリーから語頭2音節の
少なくとも一方を含む音声素片とアクセント核までの高
いピッチ周波数の音声素片と語尾を含む音声素片とこれ
らの音声素片以外の音声素片とから前記発音表記に該当
する音声素片を選択し、音声素片録音時の韻律の微細構
造を残したままで前記選択された語頭2音節の少なくと
も一方を含む音声素片とアクセント核までの高いピッチ
周波数の音声素片と語尾を含む音声素片との韻律の変形
を行い、これらの音声素片 以外の音声素片の韻律の変形
は録音時の韻律の微細構造を利用せず前記計算した韻律
を使用して行い、前記変形された音声素片を接続し合成
音声として出力する各工程からなることを特徴とする音
声合成方法。
6. Converting the input kanji kana mixed character string or reading kana and prosodic information into a phonetic notation, calculating the prosody of the synthesized speech based on the converted phonetic notation, and converting the phonetic notation into the converted phonetic notation. This and speech units from based memory containing speech unit and endings of high pitch frequencies up speech unit and accent core containing at least one of the prefix 2 syllables
The above phonetic notation from speech units other than these speech units
And a speech unit including at least one of the selected two syllables and a speech unit having a high pitch frequency up to the accent nucleus while retaining the fine structure of the prosody at the time of recording the speech unit. Transform the prosody with the speech unit including the ending, and perform the transformation of the prosody of the speech unit other than these speech units using the calculated prosody without using the fine structure of the prosody at the time of recording, A speech synthesis method comprising the steps of connecting the transformed speech units and outputting the speech as synthesized speech.
【請求項7】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換し、前記変
換された発音表記に基づきメモリーから語頭2音節の少
なくとも一方を含む音声素片と語尾を含む音声素片と
れらの音声素片以外の音声素片とから前記発音表記に該
当する音声素片を選択し、音声素片録音時の韻律の微細
構造を残したままで前記選択された音声素片の韻律の変
形を行い、前記変形された音声素片を接続し合成音声と
して出力する各工程からなることを特徴とする音声合成
方法。
7. A speech unit including at least one of the first two syllables from a memory based on the input kanji kana mixed character string or reading kana and prosodic information and converted into phonetic notation based on the converted phonetic notation. this and the speech segment, including the endings
The phonetic unit other than these phonemic units is used as the phonetic notation.
Select the speech unit equivalent to perform the deformation of prosody of the selected speech unit while leaving the prosody of the microstructure during the speech unit recording, as synthesized speech by connecting the modified speech unit A speech synthesis method comprising the steps of outputting.
【請求項8】入力した漢字仮名混じり文字列または読み
仮名と韻律情報とからこれを発音表記に変換し、前記変
換された発音表記により合成音声の韻律を計算し、前記
変換された発音表記に基づきメモリーから語頭2音節の
少なくとも一方を含む音声素片と語尾を含む音声素片と
これらの音声素片以外の音声素片とから前記発音表記に
該当する音声素片を選択し、音声素片録音時の韻律の微
細構造を残したままで前記選択された語頭2音節の少な
くとも一方を含む音声素片と語尾を含む音声素片との韻
律の変形を行い、これらの音声素片以外の音声素片の韻
律の変形は録音時の韻律の微細構造を利用せず前記計算
した韻律を使用して行い、前記変形された音声素片を接
続し合成音声として出力する各工程からなることを特徴
とする音声合成方法。
8. Converting the input kanji kana mixed character string or reading kana and prosodic information into a phonetic notation, calculating the prosody of the synthesized speech based on the converted phonetic notation, and converting the phonetic notation into the converted phonetic notation. A speech unit containing at least one of the first two syllables from the memory and a speech unit containing the ending
From these speech units other than these speech units ,
Selecting a corresponding speech unit and transforming the prosody between the speech unit including at least one of the selected two initial syllables and the speech unit including the ending while retaining the fine structure of the prosody at the time of recording the speech unit. The prosody modification of the speech units other than these speech units is performed using the calculated prosody without using the fine structure of the prosody at the time of recording, and the transformed speech units are connected and synthesized. A speech synthesis method comprising the steps of outputting as speech.
JP24169897A 1997-08-25 1997-08-25 Speech synthesis apparatus and synthesis method Expired - Fee Related JP3313310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24169897A JP3313310B2 (en) 1997-08-25 1997-08-25 Speech synthesis apparatus and synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24169897A JP3313310B2 (en) 1997-08-25 1997-08-25 Speech synthesis apparatus and synthesis method

Publications (2)

Publication Number Publication Date
JPH1165596A JPH1165596A (en) 1999-03-09
JP3313310B2 true JP3313310B2 (en) 2002-08-12

Family

ID=17078203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24169897A Expired - Fee Related JP3313310B2 (en) 1997-08-25 1997-08-25 Speech synthesis apparatus and synthesis method

Country Status (1)

Country Link
JP (1) JP3313310B2 (en)

Also Published As

Publication number Publication date
JPH1165596A (en) 1999-03-09

Similar Documents

Publication Publication Date Title
JP3361066B2 (en) Voice synthesis method and apparatus
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
US6470316B1 (en) Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing
JP3587048B2 (en) Prosody control method and speech synthesizer
JPS62160495A (en) Voice synthesization system
JPH1039895A (en) Speech synthesising method and apparatus therefor
JPH01284898A (en) Voice synthesizing device
JP3313310B2 (en) Speech synthesis apparatus and synthesis method
JP3109778B2 (en) Voice rule synthesizer
JPH08335096A (en) Text voice synthesizer
JP2894447B2 (en) Speech synthesizer using complex speech units
JPS5972494A (en) Rule snthesization system
JPH1165597A (en) Voice compositing device, outputting device of voice compositing and cg synthesis, and conversation device
JP3113101B2 (en) Speech synthesizer
JPS6097396A (en) Voice synthesizer
JPH11249676A (en) Voice synthesizer
JP3235747B2 (en) Voice synthesis device and voice synthesis method
JP3308875B2 (en) Voice synthesis method and apparatus
JP3023957B2 (en) Speech synthesizer
JP2000172286A (en) Simultaneous articulation processor for chinese voice synthesis
JP3310217B2 (en) Speech synthesis method and apparatus
JPH08160983A (en) Speech synthesizing device
JPH04149500A (en) Text voice synthesizer
Nukaga et al. Unit selection using pitch synchronous cross correlation for Japanese concatenative speech synthesis
JP2004206144A (en) Fundamental frequency pattern generating method and program recording medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090531

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees