WO2004097792A1 - 音声合成システム - Google Patents

音声合成システム Download PDF

Info

Publication number
WO2004097792A1
WO2004097792A1 PCT/JP2003/005492 JP0305492W WO2004097792A1 WO 2004097792 A1 WO2004097792 A1 WO 2004097792A1 JP 0305492 W JP0305492 W JP 0305492W WO 2004097792 A1 WO2004097792 A1 WO 2004097792A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
speech
data
combination
synthesis
Prior art date
Application number
PCT/JP2003/005492
Other languages
English (en)
French (fr)
Inventor
Nobuyuki Katae
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP2003/005492 priority Critical patent/WO2004097792A1/ja
Priority to JP2004571300A priority patent/JP4130190B2/ja
Publication of WO2004097792A1 publication Critical patent/WO2004097792A1/ja
Priority to US11/070,301 priority patent/US7143038B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules

Definitions

  • the present invention relates to a speech synthesis system that searches for an optimal combination of speech unit data based on parameters to be synthesized from accumulated speech unit data, and connects these to generate a speech waveform.
  • Speech synthesis technology is being put to practical use in fields such as voice portal services and car navigation systems.
  • speech synthesis technology it is common to accumulate speech waveforms and data called speech segment data obtained by parameterizing the speech waveforms, and connect these as needed to obtain a desired synthesized speech. It is.
  • the unit for performing this concatenation is called a synthesis unit, and in the old speech synthesis technology, a method of using a fixed-length synthesis unit as the synthesis unit is mainly used.
  • the synthesis units for the composite sentence “Yamato” will be “ ⁇ ”, “ ⁇ ”, and “ ⁇ ”.
  • VCV vowel-consonant-vowel sequence
  • Fig. 1 shows the configuration of the conventional example.
  • the segment storage unit 13 stores a large number of speech units, such as sentences and words uttered by humans, as a speech waveform or a parameterized form of the speech waveform. In addition, the segment storage unit 13 also stores index information for searching the stored speech unit data.
  • Synthetic parameters such as a speech unit sequence (synthesized phoneme sequence), pitch frequency pattern, time length of each speech unit (phoneme time length), and power fluctuation pattern obtained by analyzing text information such as text data Input to selection section 1 1.
  • the unit selection unit 11 selects an optimal combination of speech unit data from the unit storage unit 13 based on the input synthesis parameters.
  • the speech synthesis unit 12 generates and outputs a speech waveform corresponding to the synthesis parameter using the combination of the speech unit data selected by the unit selection unit 11.
  • 1 is a combination of four phonemes + two phonemes
  • 2 is a combination of two phonemes + four phonemes, which are equivalent in terms of the length of the synthesis unit. is there.
  • the connection point between the synthesis units is between [a] and Ct]
  • the connection point between the synthesis units is between [a] and [m].
  • There is a silent part in the unvoiced plosive [t] and if such an unvoiced plosive is used as a connection point, the sense of discontinuity in the synthesized speech is unlikely to occur. Therefore, in this case, the combination of 1 where [t] exists at the connection point of the synthesis unit is suitable.
  • each selected speech unit data it is necessary for each selected speech unit data to realize a pitch frequency pattern and a phoneme time length based on the input synthesis parameters.
  • pitch frequency conversion or phoneme duration conversion generally speaking, the larger the amount of conversion, the more the sound quality is degraded. It is preferable to select speech unit data close to the frequency and the phoneme time length.
  • the evaluation function is created taking into account multiple factors such as the length of the speech unit data to be selected, the properties of the phonemes, the surrounding phoneme environment, the pitch frequency, and the phoneme time length.
  • An object of the present invention is to provide a speech synthesis system capable of improving sound quality by selecting an optimal combination of speech unit data for a synthesized speech unit sequence.
  • the speech synthesis system is configured to input a synthesis parameter required for speech synthesis, select a combination of speech unit data according to the synthesis parameter from accumulated speech unit data, and A speech synthesis system that generates and outputs a speech waveform corresponding to a synthesized parameter by synthesizing a speech unit.
  • a speech unit storage unit that stores speech unit data, and a speech unit storage unit for an arbitrary speech unit sequence.
  • a unit selection information storage unit that stores a combination of speech unit data composed of speech unit data stored in the unit and unit selection information including information on the suitability of the unit, and is stored in the unit selection information storage unit.
  • the unit selection unit selects the combination of speech unit data that is optimal for the synthesis parameter from the unit storage unit, and the unit selection unit selects And a speech synthesis unit that generates ⁇ outputs sound waveform data based on the combination of the voice segment data.
  • the data amount of the speech unit data stored in the unit storage unit can be increased. It is possible to generate synthesized speech with good sound quality.
  • a speech synthesis system is the speech synthesis system according to the first aspect, wherein the unit selection unit includes a speech unit sequence that matches a synthesized speech unit sequence included in an input synthesis parameter. If the unit selection information storage unit contains the unit selection information that makes the combination of the unit speech data optimal, the corresponding combination of unit speech data is selected and the input synthesis is performed. If the unit selection information storage unit that matches the synthesized speech unit string included in the parameter and is the optimum combination of the speech unit data is not included in the unit for storing unit selection information, the unit is stored using predetermined selection means. From this part, a candidate for a combination of speech unit data is created.
  • a speech synthesis system is the speech synthesis system according to the second aspect, wherein the speech synthesis system determines whether or not a user is appropriate for a combination candidate of speech unit data created by the unit selection unit.
  • the unit for accepting pass / fail judgment and the unit selection information including the combination of speech unit data created by the unit selection unit based on the acceptability judgment from the user accepted by the unit for accepting pass / fail and information on the suitability thereof.
  • a unit selection information editing unit that stores the unit selection information in the unit selection information storage unit.
  • a speech synthesis method is characterized in that a combination of speech unit data according to a synthesis parameter is selected from stored speech unit data by inputting synthesis parameters required for speech synthesis.
  • a speech synthesis method is the speech synthesis method according to the fourth aspect, wherein a speech unit configured using accumulated speech unit data for an arbitrary speech unit sequence. Creating a candidate for the data combination; accepting the user's suitability determination for the created combination of speech unit data; and combining the speech unit data combination and its suitability information based on the user's suitability determination. And storing as segment selection information.
  • the program according to claim 6 of the present invention is characterized in that a synthesis parameter required for speech synthesis is input, and a combination of speech unit data according to the synthesis parameter is selected from the stored speech unit data and synthesized.
  • a voice synthesis method program for generating a voice waveform for a synthesis parameter comprising the steps of storing voice unit data; and a voice configured using stored voice unit data for an arbitrary voice unit sequence. Storing the unit selection information including the combination of the unit data and the propriety information thereof; and, based on the unit selection information, determining the combination of the speech unit data that is optimal for the synthesis parameter. Selecting from the segment data, and generating speech waveform data based on a combination of the speech segment data Equipped with a.
  • the optimal combination of speech unit data is stored as unit selection information for each speech unit column, so that the sound quality can be improved without increasing the amount of stored speech unit data. It is possible to generate synthesized speech and use this program to make a normal personal computer or other computer system function as a speech synthesis system.
  • FIG. 1 is a simplified block diagram showing a schematic configuration of a conventional example.
  • FIG. 2 is a schematic configuration diagram illustrating the first principle of the present invention.
  • FIG. 3 is a schematic configuration diagram illustrating the second principle of the present invention.
  • FIG. 4 is a control block diagram of a speech synthesis system to which one embodiment of the present invention is applied.
  • FIG. 5 is an explanatory diagram showing the relationship between accumulated speech unit data and unit selection information.
  • FIG. 6 is an explanatory diagram showing an example of unit selection information.
  • FIG. 7 is a control flowchart of one embodiment of the present invention.
  • FIG. 8 is an explanatory diagram of a recording medium that stores the program of the present invention.
  • Fig. 2 shows a schematic configuration diagram based on the first principle of the present invention.
  • a speech waveform or a segment storage unit 13 that stores a large number of speech segment data in a form in which this is parameterized, and a synthesized input
  • the unit selection unit 21 selects the combination of speech unit data from the unit storage unit 13 based on the parameters, and the combination of the speech unit data selected by the unit selection unit 21 is used. To generate a voice waveform corresponding to the synthesis parameter.
  • a unit selection information storage unit 24 for storing unit selection information including a combination of speech unit data stored in the unit storage unit 13 and information on the suitability of the speech unit data for an arbitrary phoneme sequence is provided. ing.
  • the unit selection unit 21 searches for whether or not the unit selection information of the same phoneme sequence exists in the unit selection information storage unit 24. Execute, and if there is unit selection information of the same phoneme string, select the combination of the speech unit data. If the unit selection information storage unit 24 does not include the unit selection information of the same synthesized phoneme sequence, the speech unit that is optimal by using the evaluation function from the unit storage unit 13 as before is used. Select a data combination. If there is inappropriate segment selection information, the optimal function is selected from combinations of speech units that are not inappropriate by the evaluation function.
  • the unit selection unit 21 For the matching part, a combination of speech segment data stored as segment selection information is used, and for the other part, the optimal speech is obtained from the segment storage unit 13 using the predetermined selection means as before. Select a combination of segment data .
  • the predetermined selection means may be an evaluation function or an evaluation table, but is not particularly limited.
  • the unit selection information stored in the unit selection information storage unit 24 has, for example, a configuration as shown in FIG.
  • FIG. 5 shows speech unit data stored in the unit storage unit 13, where X (row) indicates a sentence number and Y (column) indicates a phoneme number.
  • “(3 ⁇ 4)” represents silence.
  • the synthesized phoneme strings on the first and second lines shown in Fig. 5 differ only in the presence or absence of “wA (wa)”, but rt owa (and Since there is a continuous phoneme sequence “ha)”, it can be seen that the speech unit data that is optimized for the “to (and)” part also changes.
  • the speech unit It can be configured to use a combination of data. For example, as shown in FIG.
  • the evaluation function is tuned so that the optimal speech unit data is selected for a certain synthesized phoneme sequence, there is a possibility that it will have a bad effect when selecting speech unit data for another synthesized phoneme sequence.
  • valid segment selection information is registered only for a specific synthesized phoneme sequence, there is no influence when selecting a combination of speech unit data for another synthesized phoneme sequence.
  • FIG. 1 A schematic configuration diagram based on the second principle of the present invention is shown in FIG.
  • FIG. 2 is a schematic configuration diagram based on the first principle
  • a pass / fail judgment input unit 27 for accepting a user's suitability judgment on the synthesized speech output from the speech synthesis unit 12 and a pass / fail judgment input unit 27
  • a unit selection information collection unit 26 for storing unit selection information on a combination of speech unit data in the unit selection information storage unit 24 based on the accepted user's suitability determination is further added.
  • the unit selection unit 2 In 1 when selecting a combination of speech unit data based on input synthesis parameters, if there is no unit selection information that matches a synthesized phoneme string included in the synthesis parameters, the unit selection unit 2 In 1, the speech unit data in the segment storage unit 13 Create a candidate for the combination.
  • the user listens to the synthesized voice output via the voice synthesis unit 12 and inputs a propriety determination as to whether or not it is appropriate via a pass / fail determination input unit 27.
  • the unit selection information editing unit 26 adds the unit selection information in the unit selection information storage unit 24 based on the suitability judgment by the user input from the pass / fail judgment input unit 27.
  • the combination of speech units selected by the unit selection unit 21 can be adapted to the user's settings, and a synthesized speech system with better sound quality can be constructed. It becomes possible.
  • FIG. 4 shows a control block diagram of a speech synthesis system employing one embodiment of the present invention.
  • This speech synthesis system is embodied on a personal computer or other computer system, and each control unit is controlled by a control unit 31 including a CPU, a ROM, a RAM, and various interfaces.
  • a unit storage unit 13 that stores a large number of speech unit data and a unit selection information storage unit 24 that stores unit selection information are hard disks (HDDs) built in or external to the computer system. It can be set in a predetermined area such as a magneto-optical disk (MO), other recording media, or a recording medium managed by another server connected via a network.
  • HDDs hard disks
  • the language analysis unit 33, the prosody generation unit 34, the unit selection unit 21, the unit selection information editing unit 26, etc. can be realized as functional units by application software developed on the computer memory. .
  • the user interface section 40 includes a synthesized character string input section 32, a speech synthesis section 12, and a pass / fail judgment input section 27.
  • the synthetic character string input unit 32 receives character string information, and is, for example, text data input from a keyboard, an OCR (Optical Character Reader), or another input device, or recorded on a recording medium. The input of the input text data is accepted.
  • the voice synthesizer 12 outputs the generated voice waveform, and can be configured with various speakers and software for voice output.
  • Pass / fail judgment input The unit 27 accepts a user's suitability judgment input for the combination of speech unit data, displays suitability selection items on a monitor, and suitability information selected by a keyboard, mouse, or other pointing device. Configuration to obtain
  • the linguistic analysis unit 33 performs a process of adding readings and accents to the kanji kana text input from the synthesized character string input unit 32, and synthesizes it by morphological analysis, dependency analysis, or the like. Generate a speech unit sequence (synthesized phoneme sequence).
  • the prosody generation unit 34 generates intonation and rhythm when generating synthesized speech for the synthesized phoneme sequence.For example, the pitch frequency pattern, the time length of each voice unit, the power fluctuation pattern, etc. create.
  • the unit selection unit 21 stores speech unit data suitable for synthesis parameters such as a synthesized phoneme sequence, a pitch frequency pattern, a unit time length of each voice, and a power fluctuation pattern. Select from Part 13 At this time, when a combination of speech unit data suitable for the synthesis parameter is stored in the unit selection information storage unit 24, this combination of speech unit data is preferentially selected. You. If the appropriate segment selection information corresponding to the synthesized phoneme sequence is not stored in the unit selection information storage unit 24, the unit selection unit 21 dynamically determines the optimal speech unit by the evaluation function. Select a combination of single data. However, here, a case is assumed where inappropriate unit selection information is not registered in the unit selection information storage unit 24.
  • the speech synthesis unit 12 generates and outputs a speech waveform based on a combination of the speech unit data selected by the unit selection unit 21.
  • each speech waveform is output via the speech synthesis unit 12 and the pass / fail judgment input unit 2
  • the system is configured to receive the user's suitability determination via 7.
  • the propriety information of the user received via the pass / fail judgment input unit 27 is reflected on the unit selection information stored in the unit selection information storage unit 24 via the unit selection information editing unit 26.
  • step S11 text data input via the composite character string input unit 32 is accepted.
  • step S12 the input text data is analyzed by the language analysis unit 33 to generate a synthesized phoneme sequence.
  • step S 13 the prosody generation unit 34 generates prosody information such as a pitch frequency pattern, a unit time length of each voice, and a power fluctuation pattern for the generated synthesized phoneme sequence.
  • step S14 it is determined whether or not the unit selection information of the phoneme sequence that matches the synthesized phoneme sequence is stored in the unit selection information storage unit 24. If it is determined that there is segment selection information of the phoneme string that matches the synthesized phoneme string, the process proceeds to step S16, and if not, the process proceeds to step S15.
  • step S16 a combination of speech unit data stored in the unit storage unit 13 is selected based on the unit selection information stored in the unit selection information storage unit 24. Shift to S28.
  • step S15 it is determined whether or not the unit selection information of the phoneme sequence that matches a part of the synthesized phoneme sequence is stored in the unit selection information storage unit 24. If it is determined that there is segment selection information of a phoneme string that matches a part of the synthesized phoneme string, the process proceeds to step S1F, and if not, the process proceeds to step S18.
  • step S17 n candidate combinations of speech unit data are selected from the unit selection information of the phoneme sequence including a part of the synthesized phoneme sequence, and the process proceeds to step S19.
  • step S18 n candidates for a combination of speech unit data for generating a synthesized phoneme string are selected based on the evaluation function (waveform dictionary), and the process proceeds to step S19. —
  • step S 19 a variable i for performing the appropriateness determination for the selected combination of speech unit data is set to an initial value 1.
  • step S20 a speech waveform is generated by the i-th combination of speech unit data.
  • step S21 a synthesized speech based on the generated speech waveform is output via the speech synthesis unit 12.
  • step S22 a determination as to whether the synthesized speech output via the speech synthesis unit 12 is appropriate is accepted from the user. If the propriety judgment information input by the user via the pass / fail judgment input section 27 is “appropriate”, the flow shifts to step S23. Otherwise, the flow shifts to step S24.
  • step S23 the combination of the currently selected i-th speech unit data is determined to be "optimal", and the flow proceeds to step S27.
  • step S24 the variable! Is incremented.
  • step S25 it is determined whether the value of the variable i has exceeded n. If the value of the variable i is equal to or less than n, the process proceeds to step S20 to repeat the same operation. If it is determined that the value of the variable i has exceeded n, the process proceeds to step S26.
  • step S26 the best one is selected from the n candidates.
  • n candidates are displayed on the monitor and the user is allowed to select them, and the optimal combination of speech unit data is selected based on the evaluation function and other parameters. It is also possible to configure.
  • step S27 the combination of speech unit data determined to be optimal is stored in the unit selection information storage unit 24 as unit selection information of the synthesized phoneme sequence.
  • step S28 a speech waveform is generated based on the selected combination of speech unit data.
  • step S29 it is determined whether or not the combined character string has been completed. If it is determined that the input of the composite character string has not been completed, the process proceeds to step S11, and the same operation is repeatedly performed. If not, the routine ends.
  • a program for realizing the speech synthesis system and the speech synthesis method according to the embodiment of the present invention includes a portable recording medium 51 such as a CD-ROM 52 or a flexible disk 53,
  • the program may be recorded on any of the other recording device 55 provided at the end of the line and the recording medium 54 such as a hard disk or RAM of the computer 50, and may be stored on the main memory of the computer 50 when the program is executed. It is dictated and executed.
  • various data generated by the speech synthesis system according to the present invention are not limited to a portable recording medium 51 such as a CD-ROM 52 or a flexible disk 53, as well as a communication line. May be stored in any of the other recording device 55 provided ahead of the storage device, the recording medium 54 such as a hard disk or a RAM of the computer 50, and uses the speech synthesis system of the present invention. At this time, it is read and used by the computer 50.
  • a speech synthesis system in which speech unit data is selected from speech data of a sentence or a word uttered by a human, and the speech unit data is connected, expansion of the data amount of the speech unit data is suppressed, and synthesis is performed.
  • the quality of voice can be improved.

Abstract

本発明では、合成音声単位列に対して最適な音声素片データの組み合わせを選択することで、音質を向上させることが可能な音声合成システムの提供を目的とする。このような目的を解決するために、音声合成システムは、音声素片データを格納する素片蓄積部と、任意の音声単位列に対し、素片蓄積部に蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよびその適否情報を含む素片選択情報を格納する素片選択情報蓄積部と、素片選択情報蓄積に格納されている素片選択情報に基づいて、合成パラメータに対して最適となる音声素片データの組み合わせを素片蓄積部から選択する素片選択部と、素片選択部で選択された音声素片データの組み合わせに基づいて音声波形データを生成する波形生成部とを備える。

Description

明 細 書 音声合成システム (技術分野)
本発明は、 蓄積された音声素片データから合成するパラメータに基づいて最適 な音声素片データの組み合わせを検索し、 これを連結することによって音声波形 を生成する音声合成システムに関する。
(背景技術)
音声合成技術は、 音声ポ一タルサ一ビスやカーナビゲ一ションシステムなどの 分野で実用化が進んでいる。 音声合成技術では、 音声波形やこれをパラメータ化 した音声素片データと呼ばれるデータを蓄積しておき、 これらを適宜連結して加 ェし所望の合成音声を取得するようにしているのが一般的である。 この連結を行 う単位を合成単位と呼び、 古くからの音声合成技術では、 この合成単位として固 定長の合成単位を使用する方法が主である。
たとえば、 音節を合成単位とする場合には、 「山と」 という合成文に対する合成 単位は、 「ャ」、 「マ」、 「卜」 となる。 また、 母音一子音一母音の連続 (一般に VCVと略す) を合成単位とする場合には、 母音中心部で連結することを想定して おり、 「山と (yamato)」 に する合成単位は、 「Qya」、 「ama」、 「ato」、 「oQj と なる。 ただし、 「Q」 は無音であることを示す。
これに対して現在では、 人が発音した文章や単語などの音声デ一タを多数蓄積 しておき、 合成する入力文章に応じてできるだけ長い区間が一致する音声素片デ —タ、 また連結したときに不連続が生じ難い音声素片データを検索して、 これを 連結する方法が主流となっている (たとえば、 特許文献 1参照)。 この場合、 合成 単位は入力文章と蓄積された音声データに応じて、 適切なものが動的に決定され ることとなる。 このような方式は総称してコーパスベース方式と呼ばれている。 同じ音節であっても、 前後の音によってその音響的な性質が異なってくるため 、 ある音を合成する際に、 より広い範囲で前後の音が一致する音声素片データを 使用する方が、 より自然な合成音声を生成することができる。 また、 合成単位間 の連結を滑らかに接続するために補間区間を設けるのが一般的であるが、 このよ うな補間区間では、 本来存在しない音声素片データを人工的に作成することから 、 音質劣化が生じることとなる。 合成単位を長くすれば、 より適切な音声素片を 使用できるようになリ、 音質劣化の原因となる補間区間を縮小することができ、 合成音声の音質向上を図ることが可能となる。 しかしながら、 長い合成単位のも のを全て用意することはデーダ数が膨大になることから合成単位を固定長にする ことは困難であり、 前述したようなコ一パスベース方式が用いられることが一般 的である。
図 1に従来例の構成を示す。
素片蓄積部 1 3には、 人間が発声した文章や単語などの音声データが、 音声波 形あるいはこれをパラメータ化した形式の音声素片データとして多数格納されて いる。 また、 素片蓄積部 1 3には、 蓄積されている音声素片データを検索するた めのインデックス情報も格納されている。
テキス卜データなどの文字情報を解析した結果得られる音声単位列 (合成音素 列)、 ピッチ周波数パターン、 各音声単位の時間長 (音素時間長)、 パワー変動パ ターンなどの合成パラメータが、 素片選択部 1 1に入力される。 素片選択部 1 1 では、 入力される合成パラメータに基づいて、 素片蓄積部 1 3から最適となる音 声素片データの組み合わせを選択する。 音声合成部 1 2では、 素片選択部 1 1で 選択された音声素片データの組み合わせを使用して合成パラメ一タに対応する音 声波形を生成,出力する。
〔特許文献 1〕
特開平 9-123822号公報 前述したようなコーパスベース方式においては、 素片蓄積部 1 3に格納されて いる音声素片データから最適な音声素片データの組み合わせを選択するための評 価関数を設定している。
たとえば、 合成音素列 「山と (yamato) j に対して、 これを満足する音声素片 データの組み合わせとして、 以下の 2種類のものが選択することをできたと仮定 する。
① ryama」 + 「to」
②「yaj + 「matoJ
この 2種類の音声素片データの組み合わせにおいて、 ①は 4音素 + 2音素の組 み合わせであり、 ②は 2音素 + 4音素の組み合わせとなっており、 合成単位の長 さという点では同等である。 しかし、 ①の場合、 合成単位同士の接続点は、 [a] - Ct] 間であり、 ②の場合、 合成単位同士の接続点は、 [a] - [m] 間である。 無 声破裂音である [t] には無音部分が存在し、 このような無声破裂音を接続点にす ると、 合成音声の不連続感が生じ難くなる。 したがって、 この場合、 合成単位の 接続点に [t] が存在する①の組み合わせが適していることとなる。
①の 「yama」 + 「to」 の音声素片の組み合わせを選択するとき、 素片蓄積部 1 3に複数個の 「to」 の音声素片が存在する場合、 直前に 「a」 の音声素片が存在す るようなものを選択する方が合成する音素列に適している。
選択された各音声素片データは、 入力された合成パラメータに基づいたピッチ 周波数パターン、 音素時間長を実現する必要がある。 ピッチ周波数変換や音素時 間長変換を行う場合、 一般的にその変換量が大きいほど音質劣化を生じることか ら、 素片蓄積部 1 3から選択される音声素片データは、 ターゲットとするピッチ 周波数や音素時間長に近い音声素片データを選択することが好ましい。
このように、 選択される音声素片データの長さや音素の性質、 前後の音素環境、 ピッチ周波数、 音素時間長など複数の要素を加味して評価関数は作成されている。 しかしながら、 すべての合成文字列に適した評価関数を作成することは困難であ リ、 その結果、 複数個存在する音声素片データの組み合わせの候補から、 必ずし も最適なものが選択されない場合が生じ、 合成音声の音質劣化の原因となってい る。
本発明では、 合成音声単位列に対して最適な音声素片データの組み合わせを選 択することで、 音質を向上させることが可能な音声合成システムの提供を目的と する。 (発明の開示)
本発明の請求項 1に係る音声合成システムは、 音声合成に必要となる合成パラ メータを入力として、 蓄積された音声素片データから合成パラメータに応じた音 声素片データの組み合わせを選択して合成することによって、 合成パラメ一夕に 対する音声波形を生成■出力する音声合成システムであって、 音声素片データを 格納する素片蓄積部と、 任意の音声単位列に対し、 素片蓄積部に蓄積された音声 素片データを用いて構成される音声素片データの組み合わせおよびその適否情報 を含む素片選択情報を格納する素片選択情報蓄積部と、 素片選択情報蓄積部に格 納されている素片選択情報に基づいて、 合成パラメータに対して最適となる音声 素片データの組み合わせを素片蓄積部から選択する素片選択部と、 素片選択部で 選択された音声素片データの組み合わせに基づいて音声波形データを生成■出力 する音声合成部とを備える。
この場合、 合成音声単位列ごとに最適となる音声素片データの組み合わせを素 片選択情報として蓄積することにより、 素片蓄積部に格納される音声素片データ のデータ量を大きくすることなく、 音質の良好な合成音声を生成することが可能 となる。
本発明の請求項 2に係る音声合成システムは請求項 1に記載の音声合成システ ムであって、 素片選択部は、 入力される合成パラメータに含まれる合成音声単位 列と一致する音声単位列であってその音声素片データの組み合わせが最適である ような素片選択情報が素片選択情報蓄積部に含まれている場合、 該当する音声素 片データの組み合わせを選択し、 入力される合成パラメータに含まれる合成音声 単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が素 片選択情報蓄積部に含まれていない場合、 所定の選択手段を用いて素片蓄積部か ら音声素片データの組み合わせの候補を作成する。
この場合、 素片選択情報蓄積部に格納された素片選択情報に基づいて選択され る音声素片データの組み合わせにより、 該当する合成音声単位列に対して音質の 良好な合成音声を生成することが可能になり、 素片選択情報蓄積部に格納されて いない合成音声単位列に対しては、 音声素片データの組み合わせの候補を作成し てユーザに最適なものを選択させるように構成できる。 本発明の請求項 3に係る音声合成システムは請求項 2に記載の音声合成システ ムであって、 素片選択部で作成された音声素片データの組み合わせの候補に対す るユーザの適否判定を受け付ける合否判定受付部と、 合否判定受付部で受け付け たユーザからの適否判定に基づいて素片選択部で作成された音声素片データの組 み合わせとその適否情報とを含む素片選択情報を素片選択情報蓄積部に格納する 素片選択情報編集部とをさらに備える。
この場合、 素片選択部で生成された音声素片データの組み合わせの候補に対し てユーザが適切であるか否かの判定を行うように構成することが可能となリ、 ュ 一ザの好みに応じた合成音声を生成することが可能となる。
本発明の請求項 4に係る音声合成方法は、 音声合成に必要となる合成パラメ一 タを入力として、 蓄積された音声素片データから合成パラメータに応じた音声素 片データの組み合わせを選択して合成することによって、 合成パラメータに対す る音声波形を生成する音声合成方法であって、 音声素片データを格納する段階と、 任意の音声単位列に対し、 蓄積された音声素片データを用いて構成される音声素 片データの組み合わせおよびその適否情報を含む素片選択情報を格納する段階と、 素片選択情報に基づいて、 合成パラメータに対して最適となる音声素片データの 組み合わせを、 蓄積された音声素片データから選択する段階と、 音声素片データ の組み合わせに基づいて音声波形データを生成する段階とを備える。
この場合、 音声単位列ごとに最適となる音声素片デ一タの組み合わせを素片選 択情報として蓄積することにより、 格納されている音声素片データのデータ量を 大きくすることなく、 音質の良好な合成音声を生成することが可能となる。
本発明の請求項 5に係る音声合成方法は請求項 4に記載の音声合成方法であつ て、 任意の音声単位列に対し、 蓄積された音声素片データを用いて構成される音 声素片データの組み合わせの候補を作成する段階と、 作成された音声素片データ の組み合わせに対してユーザの適否判定を受け付ける段階と、 ユーザの適否判定 に基づいて音声素片データの組み合わせおよびその適否情報を素片選択情報とし て格納する段階とをさらに備える。
この場合、 格納されている素片選択情報に基づいて選択される音声素片データ の組み合わせにより、 該当する合成音声単位列に対して音質の良好な合成音声を 生成することが可能になり、 格納されていない音声単位列に対しては、 音声素片 データの組み合わせの候補を作成してユーザに最適なものを選択させるように構 成できる。
本発明の請求項 6に係るプログラムは、 音声合成に必要となる合成パラメータ を入力として、 蓄積された音声素片データから合成パラメータに応じた音声素片 データの組み合わせを選択して合成することによって、 合成パラメータに対する 音声波形を生成する音声合成方法のプログラムであって、 音声素片データを格納 するステップと、 任意の音声単位列に対し、 蓄積された音声素片データを用いて 構成される音声素片データの組み合わせおよびその適否情報を含む素片選択情報 を格納するステップと、 素片選択情報に基づいて、 合成パラメータに対して最適 となる音声素片データの組み合わせを、 蓄積された音声素片データから選択する ステップと、 音声素片データの組み合わせに基づいて音声波形データを生成する ステップとを備える。
この場合、 音声単位列ごとに最適となる音声素片データの組み合わせを素片選 択情報として蓄積することにより、 格納されている音声素片データのデータ量を 大きくすることなく、 音質の良好な合成音声を生成することが可能となり、 この プログラムを用いて通常のパーソナルコンピュータやその他のコンピュータシス テムを音声合成システムとして機能させることが可能となる。
(図面の簡単な説明)
図 1は、 従来例の概略構成を示す簡略ブロック図である。
図 2は、 本発明の第 1の原理を示す概略構成図である。
図 3は、 本発明の第 2の原理を示す概略構成図である。
図 4は、 本発明の 1実施形態が採用される音声合成システムの制御ブロック図 である。
図 5は、 蓄積された音声素片データと素片選択情報の関係を示す説明図である 図 6は、 素片選択情報の 1例を示す説明図である。 図 7は、 本発明の 1実施形態の制御フローチヤ一トである。
図 8は、 本発明のプログラムを格納する記録媒体の説明図である。
(発明を実施するための最良の形態)
〈概要構成〉
①本発明の第 1の原理に基づく概略構成図を図 2に示す。
ここでは、 人間が発声した文章や単語などの音声データに基づいて音声波形あ るいはこれをパラメータ化した形式の音声素片データが多数格納された素片蓄積 部 1 3と、 入力される合成パラメータに基づいて素片蓄積部 1 3から音声素片デ ータの組み合わせを選択する素片選択部 2 1と、 素片選択部 2 1で選択された音 声素片データの組み合わせを使用して合成パラメータに対応する音声波形を生成 ■出力する音声合成部 1 2とを備えている。
また、 任意の音素列に対し、 素片蓄積部 1 3に格納されている音声素片データ の組み合わせとその適否情報とを含む素片選択情報を格納する素片選択情報蓄積 部 2 4を備えている。
下記は適切な素片選択情報のみ存在する場合の説明である。
素片選択部 2 1は、 入力される合成パラメータに含まれる合成音素列に基づい て、 素片選択情報蓄積部 2 4に同一の音素列の素片選択情報が存在するか否かの 検索を実行し、 同一の音素列の素片選択情報がある場合にはその音声素片データ の組み合わせを選択する。 素片選択情報蓄積部 2 4に同一の合成音素列の素片選 択情報が含まれていない場合には、 従来通りに素片蓄積部 1 3から評価関数を用 いて最適となる音声素片データの組み合わせを選択する。 不適切な素片選択情報 がある場合には、 評価関数で不適切でない音声素片の組み合わせの中から最適な ものを選択する。
入力された合成パラメータに含まれる合成音素列と一部が一致する音素列の素 片選択情報が素片選択情報蓄積部 2 4に格納されている場合には、 素片選択部 2 1はその一致する部分についてのみ素片選択情報として格納されている音声素片 データの組み合わせを使用し、 その他の部分については、 従来通りに素片蓄積部 1 3から所定の選択手段を用いて最適な音声素片データの組み合わせを選択する 。 所定の選択手段には、 評価関数や評価テーブルなどが考えられるが、 特に限定 するものではない。
素片選択情報蓄積部 24に格納されている素片選択情報は、 たとえば図 5に示 すような構成となっている。
図 5上部は、 素片蓄積部 1 3に蓄積されている音声素片データを示しており、 X (行) が文章番号、 Y (列) が音素番号を示すものとする。 たとえば、 文章番 号 1 (X=1 ) は、 「山梨と静岡 ' ■ ■」 という文章の音声であることを示し、 そ れを構成する音素列 rQyamanashitoQshizu' ' - J を先頭から順に Y = 1〜nで示している。 ここで、 「(¾」 は、 無音を表している。
素片選択情報蓄積部 24に格納されている素片選択情報は、 図 5下部に示され るように、 任意の合成音素列に対して最適となる音声素片データの組み合わせを 、 素片蓄積部 1 3に蓄積されている音声素片データの XYの値を用いて示してい る。 たとえば、 1行目には、 「QyamatoQ (山と)」 という合成音素列を構成 するための音声素片データの組み合わせとして、 素片蓄積部 1 3中の [X=1,Y=2 ] [Χ=1,Υ=3] [Χ=1,Υ=4] [Χ=1,Υ=5] [Χ=3,Υ=15] [Χ=3,Υ=16] を用いること が最適であることを示している。 また、 2行目には、 rQyamatowAQ (山と は)」 という合成音素列を構成するための音声素片データの組み合わせとして、 素 片蓄積部 1 3中の [X=1,Y=2] [Χ=1,Υ=3] [Χ=1,Υ=4] [Χ=1,Υ=5] [Χ=2,Υ=8] [ Χ=2,Υ=9] [Χ=2,Υ=10] [Χ=2,Υ=11] を使用するのが最適であること—を示してい る。
図 5に示す 1行目および 2行目の合成音素列については、 「wA (は)」 の有無が 異なるだけであるが、 素片蓄積部 1 3の文章番号 2中には rtowa (とは)」 とい う連続する音素列が存在することから、 「to (と)」 の部分についても最適とされ る音声素片データが変化していることがわかる。
また、.素片選択情報として、 合成音素列に対して不適切であるような音声素片 データの組み合わせを登録しておき、 他の音声素片データの組み合わせを選択す べきであることを示すように構成することができる。 たとえば、 図 5の 3行目に 示すように、 rQyamatowAQ (山とは)」 という合成音素列を構成するため の音声素片データの組み合わせとして、 素片蓄積部 1 3中の [X=1,Y=2] [ X=1,Y=3] [X=1,Y=4] [Χ=1,Υ=5] [Χ=3,Υ=15] [Χ=3,Υ=16] [Χ=2,Υ=10] [ Χ=2,Υ=11] を使用することが不適切であることを登録しておく。
合成音素列の他に、 平均ピッチ周波数、 平均音節時間長、 平均パワーなどの条 件を素片選択情報として登録しておき、 入力された合成パラメータがこの条件に 合致する場合にその音声素片データの組み合わせを用いるように構成することが できる。 たとえば、 図 6に示すように、 「Q y a m a t o Q (山と)」 という合成音 素列であって、 平均ピッチ周波数が 200Hz、 平均音節時間長が 120msec、 平均パ ヮ一が- 20dBであるような合成パラメータに対しては、 素片蓄積部 1 3中の [ Χ=1,Υ=2] [Χ=1,Υ=3] [Χ=1,Υ=4] [Χ=1,Υ=5] [Χ=3,Υ=15] [Χ=3,Υ=16] とい う音声素片データの組み合わせを用いることが最適であることを素片選択情報蓄 積部 2 4に登録しておく。 この場合、 入力された合成パラメータが素片選択情報 のこれらの条件に完全に一致していなくても、 多少の相違であれば音質劣化も許 容範囲であることから、 所定のしきい値を設定して、 著しい隔たりがある場合に ついてのみこの音声素片データの組み合わせを使用しないように設定することも 可能である。
ある合成音素列に対して最適な音声素片データが選択されるように評価関数を チューニングする場合、 他の合成音素列に対する音声素片データを選択する際に 悪影響を及ぼすおそれがあるが、 本発明では、 特定の合成音素列に対してのみ有 効な素片選択情報を登録しているため、 他の合成音素列に対する音声素片データ の組み合わせを選択する際の影響がない。
②本発明の第 2の原理に基づく概略構成図を図 3に示す。
第 1の原理に基づく概略構成図である図 2と比較すると、 音声合成部 1 2から 出力された合成音声に対するユーザの適否判定を受け付ける合否判定入力部 2 7 と、 合否判定入力部 2 7で受け付けたユーザの適否判定に基づいて音声素片デー タの組み合わせについての素片選択情報を素片選択情報蓄積部 2 4に格納する素 片選択情報鐲集部 2 6とがさらに加わっている。
たとえば、 入力された合成パラメータに基づいて音声素片データの組み合わせ を選択する際に、 合成パラメータ中に含まれる合成音素列と一致する素片選択情 報がない場合には、 素片選択部 2 1では、 素片蓄積部 1 3内の音声素片データか ら組み合わせの候補を作成する。 ユーザは、 音声合成部 1 2を介して出力される 合成音声を聞いて、 合否判定入力部 2 7を介して適切であるか否かの適否判定を 入力する。 素片選択情報編集部 2 6では、 合否判定入力部 2 7から入力されたュ 一ザによる適否判定に基づいて、 素片選択情報蓄積部 2 4内の素片選択情報を追 加する。
このような構成とすることによって、 素片選択部 2 1で選択される音声素片デ 一夕の組み合わせが、 ユーザの設定に適合させることができ、 より音質の良好な 合成音声システムを構築することが可能となる。
〔音声合成システム例〕
本発明の 1実施形態が採用される音声合成システムの制御ブロック図を図 4に 示す。
この音声合成システムはパーソナルコンピュータ、 その他のコンピュータシス テム上で具現化されるものであり、 CPU、 ROM, RAM, 各種インターフェイス などを含む制御部 3 1により各機能部の制御が行われる。
多数の音声素片データが格納される素片蓄積部 1 3および素片選択情報が格納 される素片選択情報蓄積部 2 4は、 コンピュータシステムに内蔵または外付けで 構成されるハードディスク (HDD)、 光磁気ディスク (MO)、 その他記録媒体、 ネットワークを介して接続される他のサーバが管理する記録媒体などの所定の領 域に設定することができる。
言語解析部 3 3、 韻律生成部 3 4、 素片選択部 2 1、 素片選択情報編集部 2 6 などは、 コンピュータのメモリ上で展開されるアプリケーションソフトにより各 機能部として実現することができる。
また、 ユーザインターフェイス部 4 0として、 合成文字列入力部 3 2、 音声合 成部 1 2、 合否判定入力部 2 7を備えている。 合成文字列入力部 3 2は、 文字列 情報の入力を受け付けるものであり、 たとえば、 キーボード、 OCR (Optical Character Reader), その他の入力デバイスから入力されるテキス卜データや記 録媒体上に記録されているテキストデータの入力を受け付けるものである。 音声 合成部 1 2は、 生成された音声波形を出力するものであり、 種々のスピーカおよ び音声出力用のソフトウエアによる構成を想定することができる。 合否判定入力 部 2 7は、 音声素片データの組み合わせに対するユーザの適否判定入力を受け付 けるものであり、 モニタ上に適否選択項目を表示し、 キーボード、 マウス、 その 他のポインティングデバイスにより選択される適否情報を取得するように構成で ぎる。
言語解析部 3 3は、 合成文字列入力部 3 2から入力された漢字かなテキス卜に 対して、 読みやアクセントを付与する処理を実行するものであり、 形態素解析や 係り受け解析などにより合成する音声単位列 (合成音素列) を生成する。
韻律生成部 3 4は、 合成音素列に対して合成音声を生成する際のイントネーシ ヨンやリズムを生成するものであり、 たとえば、 ピッチ周波数パターン、 各音声 単位の時間長、.パワー変動パターンなどを作成する。
素片選択部 2 1は、 前述の概略構成でも説明したように、 合成音素列、 ピッチ 周波数パターン、 各音声単位時間長、 パワー変動パターンなどの合成パラメータ に適した音声素片データを素片蓄積部 1 3から選択する。 このとき、 合成パラメ ータに適した音声素片データの組み合わせが素片選択情報蓄積部 2 4に格納され ている場合に、 この音声素片データの組み合わせを優先して選択するように構成 される。 合成音素列に対応する適切な素片選択情報が素片選択情報蓄積部 2 4に 格納されていない場合には、 素片選択部 2 1は、 評価関数によって動的に最適と 思われる音声素片データの組み合わせを選択する。 ただし、 ここでは、 素片選択 情報蓄積部 2 4に不適切な素片選択情報が登録されていない場合を想定している 。
音声合成部 1 2では、 素片選択部 2 1で選択された音声素片データの組み合わ せに基づいて音声波形を生成し出力を行う。
素片選択部 2 1が評価関数に基づいて選択した音声素片データの組み合わせの 候補が複数ある場合には、 それぞれの音声波形を音声合成部 1 2を介して出力し 、 合否判定入力部 2 7を介してユーザの適否判定を受け付けるように構成する。 合否判定入力部 2 7を介して受け付けたユーザによる適否情報は、 素片選択情報 編集部 2 6を介して素片選択情報蓄積部 2 4に蓄積された素片選択情報に反映さ れる。
この音声合成システムの動作を図 7に示す制御フローチヤ一卜に基づいて。 素 片選択情報蓄積部 2 4に音声素片データの適切な組み合わせのみが登録されてい る場合いついて説明する。
ステップ S 1 1では、 合成文字列入力部 3 2を介して入力されるテキストデ一 タを受け付ける。
ステップ S 1 2では、 入力されたテキストデータを言語解析部 3 3により解析 し、 合成音素列を生成する。
ステップ S 1 3では、 生成された合成音素列に対して、 韻律生成部 3 4におい てピッチ周波数パターン、 各音声単位時間長、 パワー変動パターンなどの韻律情 報を生成する。
ステップ S 1 4では、 合成音素列に一致する音素列の素片選択情報が素片選択 情報蓄積部 2 4に格納されているか否かを判別する。 合成音素列に一致する音素 列の素片選択情報が存在すると判断した場合にはステップ S 1 6に移行し、 そう でないと判断した場合にはステップ S 1 5に移行する。
ステップ S 1 6では、 素片選択情報蓄積部 2 4に格納されている素片選択情報 に基づいて、 素片蓄積部 1 3に格納されている音声素片データの組み合わせを選 択し、 ステップ S 2 8に移行する。
ステップ S 1 5では、 合成音素列の一部に一致する音素列の素片選択情報が素 片選択情報蓄積部 2 4に格納されているか否かを判別する。 合成音素列の一部に 一致する音素列の素片選択情報が存在すると判断した場合にはステップ S 1 フに 移行し、 そうでないと判断した場合にはステップ S 1 8に移行する。
ステップ S 1 7では、 合成音素列の一部を含む音素列の素片選択情報から、 音 声素片データの組み合わせの候補を n個選択し、 ステップ S 1 9に移行する。 ステップ S 1 8では、 合成音素列を生成するための音声素片データの組み合わ せの候補を評価関数 (波形辞書) に基づいて n個選択し、 ステップ S 1 9に移行 する。 —
ステップ S 1 9では、 選択した音声素片データの組み合わせに対して適否判定 を行う際の変数 iを初期値 1に設定する。
ステップ S 2 0では、 音声素片デ一タの第 i番目の組み合わせによる音声波形 を生成する。 ステップ S 2 1では、 生成された音声波形による合成音声を音声合成部 1 2を 介して出力する。
ステップ S 2 2では、 音声合成部 1 2を介して出力した合成音声の適否判定を ユーザから受け付ける。 合否判定入力部 2 7を介してユーザが入力する適否判定 情報が 「適切」 である場合にはステップ S 2 3に移行し、 そうでない場合にはス テツプ S 2 4に移行する。
ステップ S 2 3では、 現在選択されている第 i番目の音声素片データの組み合 わせを 「最適」 として、 ステップ S 2 7に移行する。
ステップ S 2 4では、 変数! をインクリメントする。
ステップ S 2 5では、 変数 iの値が nを超えたか否かを判断する。 変数 iの値 が n以下であればステップ S 2 0に移行して同様の動作を繰り返し、 変数 iの値 が nを超えたと判断した場合にはステップ S 2 6に移行する。
ステップ S 2 6では、 n個の候補のうちから最良のものを選択する。 ここでは 、 モニタ上に n個の候補を表示しユーザに選択させるように構成することも可能 であり、 評価関数やその他のパラメータに基づいて最適となる音声素片データの 組み合わせを選択するように構成することも可能である。
ステップ S 2 7では、 最適と判断された音声素片データの組み合わせをその合 成音素列の素片選択情^として素片選択情報蓄積部 2 4に格納する。
ステップ S 2 8では、 選択された音声素片データの組み合わせに基づいて音声 波形を生成する。
ステップ S 2 9では、 合成文字列が終了したか否かを判別する。 合成文字列の 入力が終了していないと判断した場合にはステップ S 1 1に移行して、 同様の動 作を繰り返し実行し、 そうでない場合にはこのルーチンを終了する。
なお、 本発明の実施形態に係る音声合成システムおよび音声合成方法を実現す るプログラムは、 図 8に示すように、 CD-ROM 5 2やフレキシブルディスク 5 3 などの可搬型記録媒体 5 1、 通信回線の先に備えられる他の記録装置 5 5、 コン ピュータ 5 0のハードディスクや RAMなどの記録媒体 5 4のいずれに記録される ものであってもよく、 プログラム実行時にはコンピュータ 5 0の主メモリ上に口 ードされて実行される。 また、 本発明に係る音声合成システムにより生成された各種データについても 、 図 8に示すように、 CD-ROM 5 2やフレキシブルディスク 5 3などの可搬型記 録媒体 5 1だけでなく、 通信回線の先に備えられた他の記録装置 5 5、 コンビュ ータ 5 0のハードディスクや RAMなどの記録媒体 5 4のいずれに記憶されるもの であってもよく、 本発明の音声合成システムを利用する際にコンピュータ 5 0に よって読みとられて利用される。
(産業上の利用可能性)
本発明によれば、 人間が発声した文章や単語の音声データから音声素片データ を選択し、 これを接続する方式の音声合成システムにおいて、 音声素片データの データ量の拡大を抑制し、 合成音声の品質向上を図ることができる。
また、 ユーザがシステムを使用しながら最適の合成音声を作成する枠組みを提 供することができ、 システム開発者にとっても、 あらゆる場合にあてはまるよう な評価関数のチューニングを検討する必要がなくなり、 開発やメンテナンスの省 力化を図ることができる。

Claims

請 求 の 範 囲
1 .
.音声合成に必要となる合成パラメータを入力として、 蓄積された音声素片デ一 タから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成 することによって、 前記合成パラメータに対する音声波形を生成■出力する音声 合成システムであって、
前記音声素片データを格納する素片蓄積部と、
任意の音声単位列に対し、 前記素片蓄積部に蓄積された音声素片データを用い て構成される音声素片データの組み合わせおよびその適否情報を含む素片選択情 報を格納する素片選択情報蓄積部と、
前記素片選択情報蓄積部に格納されている素片選択情報に基づいて、 前記合成 パラメータに対して最適となる音声素片データの組み合わせを前記素片蓄積部か ら選択する素片選択部と、
前記素片選択部で選択された音声素片データの組み合わせに基づいて音声波形 データを生成■出力する音声合成部と、
を備える音声合成システム。
2.
前記素片選択部は、 入力される合成パラメータに含まれる合成音声単位列と一 致する音声単位列であってその音声素片データの組み合わせが最適であるような 素片選択情報が前記素片選択情報蓄積部に含まれている場合、 該当する音声素片 データの組み合わせを選択し、 入力される合成パラメータに含まれる合成音声単 位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が前記 素片選択情報蓄積部に含まれていない場合、 所定の選択手段を用いて前記素片蓄 積部から音声素片データの組み合わせの候補を作成する、 請求項 1に記載の音声 合成システム。
3 . 前記素片選択部で作成された音声素片データの組み合わせの候補に対するユー ザの適否判定を受け付ける合否判定受付部と、
前記合否判定受付部で受け付けたユーザからの適否判定に基づいて前記素片選 択部で作成された音声素片データの組み合わせとその適否情報とを含む素片選択 情報を前記素片選択情報蓄積部に格納する素片選択情報編集部と、
をさらに備える、 請求項 2に記載の音声合成システム。
4.
音声合成に必要となる合成パラメータを入力として、 蓄積された音声素片デー タから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成 することによって、 前記合成パラメータに対する音声波形を生成する音声合成方 法であって、
音声素片データを格納する段階と、
任意の音声単位列に対し、 前記蓄積された音声素片データを用いて構成される 音声素片データの組み合わせおよびその適否情報を含む素片選択情報を格納する 段階と、
前記素片選択情報に基づいて、 前記合成パラメータに対して最適となる音声素 片データの組み合わせを、 前記蓄積された音声素片データから選択する段階と、 前記音声素片データの組み合わせに基づいて音声波形データを生成する段階と、 を備える音声合成方法。
5.
任意の合成音声単位列に対し、 蓄積された音声素片データを用いて構成される 音声素片データの組み合わせの候補を作成する段階と、
前記作成された音声素片データの組み合わせに対してユーザの適否判定を受け 付ける段階と、
前記ユーザの適否判定に基づいて前記音声素片データの組み合わせおよびその 適否情報を素片選択情報として格納する段階と、
をさらに備える請求項 4に記載の音声合成方法。
6 .
音声合成に必要となる合成パラメータを入力として、 蓄積された音声素片デー タから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成 することによって、 前記合成パラメータに対する音声波形を生成する音声合成方 法のプログラムであって、
音声素片データを格納するステップと、
任意の音声単位列に対し、 前記蓄積された音声素片データを用いて構成される 音声素片データの組み合わせおよびその適否情報を含む素片選択情報を格納する ステップと、
前記素片選択情報に基づいて、 前記合成パラメータに対して最適となる音声素 片データの組み合わせを、 前言己蓄積された音声素片データから選択するステップ 前記音声素片データの組み合わせに基づいて音声波形データを生成するス亍ッ プと、
を備える音声合成方法をコンピュータに実行させるためのプログラム。
PCT/JP2003/005492 2003-04-28 2003-04-28 音声合成システム WO2004097792A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2003/005492 WO2004097792A1 (ja) 2003-04-28 2003-04-28 音声合成システム
JP2004571300A JP4130190B2 (ja) 2003-04-28 2003-04-28 音声合成システム
US11/070,301 US7143038B2 (en) 2003-04-28 2005-03-03 Speech synthesis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/005492 WO2004097792A1 (ja) 2003-04-28 2003-04-28 音声合成システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/070,301 Continuation US7143038B2 (en) 2003-04-28 2005-03-03 Speech synthesis system

Publications (1)

Publication Number Publication Date
WO2004097792A1 true WO2004097792A1 (ja) 2004-11-11

Family

ID=33398127

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/005492 WO2004097792A1 (ja) 2003-04-28 2003-04-28 音声合成システム

Country Status (3)

Country Link
US (1) US7143038B2 (ja)
JP (1) JP4130190B2 (ja)
WO (1) WO2004097792A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145691A (ja) * 2004-11-17 2006-06-08 Kenwood Corp 音声合成装置、音片記憶装置、音片記憶装置製造装置、音声合成方法、音片記憶装置製造方法及びプログラム

Families Citing this family (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6192347B1 (en) 1992-10-28 2001-02-20 Graff/Ross Holdings System and methods for computing to support decomposing property into separately valued components
US7505934B1 (en) * 1992-10-28 2009-03-17 Graff/Ross Holdings Llp Computer support for valuing and trading securities that produce mostly tax-exempt income
US20050038734A1 (en) * 1998-09-01 2005-02-17 Graff Richard A. Augmented system and methods for computing to support fractional contingent interests in property
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7571099B2 (en) * 2004-01-27 2009-08-04 Panasonic Corporation Voice synthesis device
JP2006018133A (ja) * 2004-07-05 2006-01-19 Hitachi Ltd 分散型音声合成システム、端末装置及びコンピュータ・プログラム
CN1842702B (zh) * 2004-10-13 2010-05-05 松下电器产业株式会社 声音合成装置和声音合成方法
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8224647B2 (en) * 2005-10-03 2012-07-17 Nuance Communications, Inc. Text-to-speech user's voice cooperative server for instant messaging clients
US8600753B1 (en) * 2005-12-30 2013-12-03 At&T Intellectual Property Ii, L.P. Method and apparatus for combining text to speech and recorded prompts
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080154605A1 (en) * 2006-12-21 2008-06-26 International Business Machines Corporation Adaptive quality adjustments for speech synthesis in a real-time speech processing system based upon load
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
KR101044323B1 (ko) * 2008-02-20 2011-06-29 가부시키가이샤 엔.티.티.도코모 음성 합성용 음성 데이터베이스를 구축하기 위한 통신 시스템, 이를 위한 중계 장치, 및 이를 위한 중계 방법
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8265936B2 (en) * 2008-06-03 2012-09-11 International Business Machines Corporation Methods and system for creating and editing an XML-based speech synthesis document
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US8380508B2 (en) * 2009-06-05 2013-02-19 Microsoft Corporation Local and remote feedback loop for speech synthesis
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
DE112010005020B4 (de) * 2009-12-28 2018-12-13 Mitsubishi Electric Corporation Sprachsignal-Wiederherstellungsvorrichtung und Sprachsignal-Wiederherstellungsverfahren
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8401856B2 (en) 2010-05-17 2013-03-19 Avaya Inc. Automatic normalization of spoken syllable duration
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8781836B2 (en) * 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US20140236602A1 (en) * 2013-02-21 2014-08-21 Utah State University Synthesizing Vowels and Consonants of Speech
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US8719032B1 (en) 2013-12-11 2014-05-06 Jefferson Audio Video Systems, Inc. Methods for presenting speech blocks from a plurality of audio input data streams to a user in an interface
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN112863496B (zh) * 2019-11-27 2024-04-02 阿里巴巴集团控股有限公司 一种语音端点检测方法以及装置
US11935515B2 (en) * 2020-12-25 2024-03-19 Meca Holdings IP LLC Generating a synthetic voice using neural networks

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59127147A (ja) * 1982-12-29 1984-07-21 Fujitsu Ltd 文章読上げ検査装置
JPH045696A (ja) * 1990-04-23 1992-01-09 Hitachi Ltd 音声辞書編集方法および装置
JPH04167749A (ja) * 1990-10-31 1992-06-15 Toshiba Corp 音声応答装置
JPH04243299A (ja) * 1991-01-18 1992-08-31 Ricoh Co Ltd 音声出力装置
JPH0519790A (ja) * 1991-07-10 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 音声規則合成装置
JPH07210186A (ja) * 1994-01-11 1995-08-11 Fujitsu Ltd 音声登録装置
JP2001100777A (ja) * 1999-09-28 2001-04-13 Toshiba Corp 音声合成方法及び装置
EP1256933A2 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for controlling the operation of an emotion synthesising device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181995A (ja) 1993-12-22 1995-07-21 Oki Electric Ind Co Ltd 音声合成装置及び音声合成方法
US5864812A (en) * 1994-12-06 1999-01-26 Matsushita Electric Industrial Co., Ltd. Speech synthesizing method and apparatus for combining natural speech segments and synthesized speech segments
US6240384B1 (en) * 1995-12-04 2001-05-29 Kabushiki Kaisha Toshiba Speech synthesis method
JP3050832B2 (ja) 1996-05-15 2000-06-12 株式会社エイ・ティ・アール音声翻訳通信研究所 自然発話音声波形信号接続型音声合成装置
US20030093280A1 (en) 2001-07-13 2003-05-15 Pierre-Yves Oudeyer Method and apparatus for synthesising an emotion conveyed on a sound

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59127147A (ja) * 1982-12-29 1984-07-21 Fujitsu Ltd 文章読上げ検査装置
JPH045696A (ja) * 1990-04-23 1992-01-09 Hitachi Ltd 音声辞書編集方法および装置
JPH04167749A (ja) * 1990-10-31 1992-06-15 Toshiba Corp 音声応答装置
JPH04243299A (ja) * 1991-01-18 1992-08-31 Ricoh Co Ltd 音声出力装置
JPH0519790A (ja) * 1991-07-10 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 音声規則合成装置
JPH07210186A (ja) * 1994-01-11 1995-08-11 Fujitsu Ltd 音声登録装置
JP2001100777A (ja) * 1999-09-28 2001-04-13 Toshiba Corp 音声合成方法及び装置
EP1256933A2 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for controlling the operation of an emotion synthesising device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Nick Campbell, "Onsei Gosei CHATR no shikumi", The Institute of Electronics, Information and Communication Engineers Gijutsu kenkyu Hokoku [voice], Vol. 98, No. 423, 19 November, 1998, SP98-84, pages 47 - 54 *
Nick Campbell, Alan Black, CHATR: Shizen Onsei Hakei Setsuzoku-gata Nin'i Onsei Gosei System", The Institute of Electronics, Information and Communication Engineers Gijutsu Kenkyu Hokoku [voice], Vol. 96, No. 39, 16 May, 1996, SP96-7, pages 45 - 52 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145691A (ja) * 2004-11-17 2006-06-08 Kenwood Corp 音声合成装置、音片記憶装置、音片記憶装置製造装置、音声合成方法、音片記憶装置製造方法及びプログラム
JP4574333B2 (ja) * 2004-11-17 2010-11-04 株式会社ケンウッド 音声合成装置、音声合成方法及びプログラム

Also Published As

Publication number Publication date
JP4130190B2 (ja) 2008-08-06
US20050149330A1 (en) 2005-07-07
US7143038B2 (en) 2006-11-28
JPWO2004097792A1 (ja) 2006-07-13

Similar Documents

Publication Publication Date Title
JP4130190B2 (ja) 音声合成システム
US7565291B2 (en) Synthesis-based pre-selection of suitable units for concatenative speech
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
EP1643486B1 (en) Method and apparatus for preventing speech comprehension by interactive voice response systems
US7991616B2 (en) Speech synthesizer
US7454343B2 (en) Speech synthesizer, speech synthesizing method, and program
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
JP2002530703A (ja) 音声波形の連結を用いる音声合成
JP2008545995A (ja) ハイブリッド音声合成装置、方法および用途
JP2003295882A (ja) 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム
Breen et al. Non-uniform unit selection and the similarity metric within BT's Laureate TTS system
Hamza et al. The IBM expressive speech synthesis system.
US7280969B2 (en) Method and apparatus for producing natural sounding pitch contours in a speech synthesizer
Lee et al. A text-to-speech platform for variable length optimal unit searching using perception based cost functions
JP4648878B2 (ja) 様式指定型音声合成方法、及び様式指定型音声合成装置とそのプログラムと、その記憶媒体
JP4829605B2 (ja) 音声合成装置および音声合成プログラム
JPH0887297A (ja) 音声合成システム
JPH08335096A (ja) テキスト音声合成装置
JP3109778B2 (ja) 音声規則合成装置
JP2010160406A (ja) 音声合成装置、およびプログラム
EP1589524B1 (en) Method and device for speech synthesis
KR20100003574A (ko) 음성음원정보 생성 장치 및 시스템, 그리고 이를 이용한음성음원정보 생성 방법
JP3892691B2 (ja) 音声合成方法及びその装置並びに音声合成プログラム
JPWO2009044596A1 (ja) 音声合成装置、音声合成方法および音声合成プログラム
JP2000172286A (ja) 中国語音声合成のための同時調音処理装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

WWE Wipo information: entry into national phase

Ref document number: 2004571300

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11070301

Country of ref document: US