JP5157922B2 - Speech synthesizer and program - Google Patents

Speech synthesizer and program Download PDF

Info

Publication number
JP5157922B2
JP5157922B2 JP2009003576A JP2009003576A JP5157922B2 JP 5157922 B2 JP5157922 B2 JP 5157922B2 JP 2009003576 A JP2009003576 A JP 2009003576A JP 2009003576 A JP2009003576 A JP 2009003576A JP 5157922 B2 JP5157922 B2 JP 5157922B2
Authority
JP
Japan
Prior art keywords
speech
unit
data
segment
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009003576A
Other languages
Japanese (ja)
Other versions
JP2010160406A (en
Inventor
啓 嘉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2009003576A priority Critical patent/JP5157922B2/en
Publication of JP2010160406A publication Critical patent/JP2010160406A/en
Application granted granted Critical
Publication of JP5157922B2 publication Critical patent/JP5157922B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To synthesize natural voice, even when the number of phonemes which are made into a database is reduced than in conventional methods, in the voice synthesis of a phoneme connection system. <P>SOLUTION: Based on musical piece data that indicate notes for composing a musical piece and a lyrics data for indicating its relics, a singing synthesis score (voice synthesis instruction) for indicating a plurality of phonemes used for synthesizing a singing voice of the musical piece, its generation time, and a pitch of its singing voice, is generated. When the voice phoneme indicated by the singing synthesis score in the voice phonemes which are made into the database is selected, for the voice phonemes indicating the transit section from voiced fricative to silence, the voice phoneme in a transit section from the silence to the unvoiced fricative is selected, and it is used for synthesis of singing voice, by reversing the time on the waveform of the voice phoneme. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、音声を合成する技術に関し、特に、複数の音声素片を接続して音声を合成する素片接続方式の音声合成技術に関する。   The present invention relates to a technology for synthesizing speech, and more particularly, to a speech synthesis technology of a unit connection method for synthesizing speech by connecting a plurality of speech units.

この種の音声合成技術の一例としては、素片接続方式の歌唱合成が挙げられる。素片接続方式の歌唱合成では、単一の音素や音素から音素への遷移部分など歌唱音声の素材となる各種の音声素片の波形を定義した音声素片データを予めデータベース化しておくことが一般的である。そして、ある歌詞をあるメロディに合わせて歌唱する歌唱音声を合成する際には、歌詞を構成する音声素片の音声素片データをデータベースから読み出し、各々のピッチをメロディに合わせるためのピッチ変換を施した後に連結して、歌唱音声の波形を示すデータを合成する(特許文献1〜3参照)。   An example of this type of speech synthesis technique is the unit connection type singing synthesis. In the singing synthesis of the unit connection method, speech unit data that defines waveforms of various speech units that are materials of singing speech such as a single phoneme or a transition part from a phoneme to a phoneme may be stored in a database in advance. It is common. And when synthesizing a singing voice that sings a certain lyric according to a certain melody, the speech element data of the speech element constituting the lyric is read from the database, and pitch conversion is performed to match each pitch to the melody. After giving, it connects and synthesize | combines the data which show the waveform of a song voice (refer patent documents 1-3).

特開2007−240564号公報JP 2007-240564 A 特開2006−17946号公報JP 2006-17946 A 特開2000−3200号公報JP 2000-3200 A

素片接続方式の音声合成で自然な音声を合成するためには、できるだけ多くの音声素片をデータベースに格納しておく必要があり、音韻の種類(有声、無声、母音の脱落など)、前後の音韻の組み合わせや、声質、情感などを考慮すると、データベース化しておくべき音声素片の数は膨大なものになる。このため、携帯型ゲーム機やPDA(Personal Digital Assistants)、携帯電話などの携帯端末に音声合成を実行させようとすると、データベース化しておく音声素片の数が大きな問題となる。これら携帯端末は大容量の記憶装置を有しておらず、格納可能なデータサイズに制限があるからである。
本発明は上記課題に鑑みて為されたものであり、素片接続方式の音声合成において、データベース化する音声素片を従来よりも少なくしても自然な音声を合成できるようにする技術を提供することを目的とする。
In order to synthesize natural speech by speech synthesis using the unit connection method, it is necessary to store as many speech units as possible in the database, and the type of phoneme (voiced, unvoiced, vowel drop, etc.), before and after Considering the combination of phonemes, voice quality, emotion, etc., the number of speech segments to be stored in a database becomes enormous. For this reason, if a mobile terminal such as a portable game machine, a PDA (Personal Digital Assistants), or a mobile phone is to perform speech synthesis, the number of speech segments stored in a database becomes a big problem. This is because these portable terminals do not have a large-capacity storage device and there is a limit on the size of data that can be stored.
The present invention has been made in view of the above problems, and provides a technology for synthesizing natural speech even when speech units to be databased are fewer than in conventional speech synthesis in the unit connection method. The purpose is to do.

上記課題を解決するため、本発明は、各種の音声素片の波形を示す波形データを含む音声素片データを記憶する音声素片データベースと、音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示にしたがって音声素片データを前記音声素片データベースから選択し出力する手段であって、無音から無声摩擦音への第1の遷移部分と前記無声摩擦音から無音への第2の遷移部分とが連続して前記音声合成指示により指定されている場合には、前記第1および第2の遷移部分のうちの何れか一方については前記音声素片データベースから該当する音声素片データを選択して出力し、他方については当該音声素片データに含まれる波形データに時間反転を施したものを出力する素片選択手段と、前記素片選択手段から出力される各音声素片データに含まれる波形データを調整しつつ連結して出力する素片連結手段とを有することを特徴とする音声合成装置、を提供する。   In order to solve the above problems, the present invention designates a speech unit database for storing speech unit data including waveform data indicating waveforms of various speech units, and a plurality of speech units used for speech synthesis. A means for selecting and outputting speech unit data from the speech unit database in accordance with a speech synthesis instruction in which information is time-sequentially, comprising: a first transition portion from silent to unvoiced friction sound; and silent speech to silent sound When a second transition part is continuously designated by the speech synthesis instruction, one of the first and second transition parts is the corresponding speech element from the speech unit database. Select and output segment data, and for the other, segment selection means for outputting waveform data included in the speech segment data with time reversal, and output from the segment selection means. To provide a speech synthesis device, characterized by having a segment connecting means for outputting the connection while adjusting the waveform data included in each voice segment data that.

このような音声合成装置によれば、第1および第2の遷移部分のうちの何れか一方に該当する音声素片データが音声素片データベースに格納されていれば、第1および第2の遷移部分の連結で表される音声を合成することができる。無声摩擦音については、破裂音とは異なり上記のような波形の時間反転により波形データを生成しても特段の影響は生じない。つまり、この音声合成装置によれば、上記第1および第2の遷移部分のうちの何れか一方をデータベース化の対象から除外しても、従来技術と同様に自然な音声の合成を行うことができる。なお、本発明の別の態様においては、コンピュータ装置を上記各手段(すなわち、素片選択手段、および素片連結手段)として機能させるプログラムを提供する態様であっても良い。   According to such a speech synthesizer, if the speech unit data corresponding to one of the first and second transition parts is stored in the speech unit database, the first and second transitions are performed. It is possible to synthesize speech represented by concatenation of parts. As for the silent friction sound, unlike the plosive sound, even if the waveform data is generated by the time inversion of the waveform as described above, there is no particular influence. That is, according to this speech synthesizer, natural speech synthesis can be performed in the same manner as in the prior art even if one of the first and second transition portions is excluded from the database. it can. In another aspect of the present invention, a program for causing a computer device to function as each of the above-described units (that is, a segment selection unit and a segment coupling unit) may be provided.

ここで、第1の遷移部分(すなわち、無音から無声摩擦音への遷移部分)と第2の遷移部分(同無声摩擦音から無音への遷移部分)の何れをデータベースの格納対象とし、或いはデータベース化の対象から除外するのかについては、音声合成の対象言語との関係で定めれば良い。例えば、対象言語が英語である場合には、第2の遷移部分に比較して第1の遷移部分の出現頻度が高いため、第1の遷移部分をデータベースの格納対象とする(第2の遷移部分を格納対象から除外する)ことが好ましい。逆に、第2の遷移部分の出現頻度が高い言語が対象言語である場合には、第2の遷移部分を格納対象とする(第1の遷移部分を格納対象から除外する)ことが好ましいことは言うまでもない。   Here, either the first transition portion (that is, the transition portion from silent to silent friction sound) or the second transition portion (the transition portion from the same silent friction sound to silence) is set as a database storage target, or database creation Whether to exclude from the target may be determined in relation to the target language for speech synthesis. For example, when the target language is English, since the appearance frequency of the first transition portion is higher than that of the second transition portion, the first transition portion is set as a storage target of the database (second transition It is preferable to exclude the portion from the storage target). Conversely, when the language in which the appearance frequency of the second transition portion is high is the target language, it is preferable that the second transition portion is the storage target (the first transition portion is excluded from the storage target). Needless to say.

また、上記課題を解決するため、本発明は、各種の音声素片の波形を示す波形データを含む音声素片データを記憶する音声素片データベースと、音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示にしたがって音声素片データを前記音声素片データベースから選択し出力する手段であって、無声摩擦音から他の子音への遷移部分の音声素片が前記音声合成指示により指定されている場合には、前記無声摩擦音から無音への第1の遷移部分と無音から前記他の子音への第2の遷移部分の連結で当該音声素片を置き換え、前記第1の遷移部分については、無音から前記無声摩擦音への遷移部分に対応する音声素片データを前記音声素片データベースから選択し当該音声素片データに含まれる波形データに時間反転を施したものを出力する一方、前記第2の遷移部分については該当する音声素片データを前記素片データベースから選択して出力する素片選択手段と、前記素片選択手段から出力される各音声素片データに含まれる波形データを調整しつつ連結して出力する素片連結手段とを有することを特徴とする音声合成装置、を提供する。   In order to solve the above problems, the present invention includes a speech unit database for storing speech unit data including waveform data indicating waveforms of various speech units, and a plurality of speech units used for speech synthesis. A means for selecting and outputting speech segment data from the speech segment database in accordance with a speech synthesis instruction in which information to be specified is time-sequentially, wherein a speech segment in a transition portion from an unvoiced friction sound to another consonant is the speech When specified by the synthesis instruction, the speech segment is replaced by connecting the first transition portion from the silent friction sound to silence and the second transition portion from silence to the other consonant, For the transition part, the speech unit data corresponding to the transition part from silence to the silent frictional sound is selected from the speech unit database, and the waveform data included in the speech unit data is time-reversed. A unit selection unit for selecting and outputting corresponding speech unit data from the unit database for the second transition portion, and each speech unit output from the unit selection unit. There is provided a speech synthesizer characterized by comprising a segment coupling means for coupling and outputting waveform data contained in segment data while adjusting.

このような音声合成装置によれば、無声摩擦音から他の子音への遷移部分の音声素片は、上記無声摩擦音から無音への第1の遷移部分と、無音から上記他の子音への第2の遷移部分の連結に置き換えられるため、この音声素片に対応する音声素片データが音声素片データベースに格納されていなくても、上記音声素片を含む音声を合成することが可能になる。さらに、上記第1の遷移部分の音声素片データは、無音から上記無声摩擦音への遷移部分の音声素片データに時間反転を施して生成されるため、この第1の遷移部分の音声素片データについても音声素片データベースに格納しておく必要はない。つまり、上記音声合成装置によれば、従来の素片接続方式の音声合成に比較して、無声摩擦音から他の子音への遷移部分と上記第1の遷移部分の分だけ、データベース化を要する音声素片を削減することが可能になる。なお、本発明の別の態様においては、コンピュータ装置を上記各手段として機能させるプログラムを提供する態様であっても良い。   According to such a speech synthesizer, the speech segment of the transition portion from the unvoiced friction sound to the other consonant includes the first transition portion from the unvoiced friction sound to the silence and the second transition from the silence to the other consonant. Therefore, even if the speech unit data corresponding to this speech unit is not stored in the speech unit database, the speech including the speech unit can be synthesized. Furthermore, since the speech unit data of the first transition portion is generated by performing time reversal on the speech unit data of the transition portion from silent to the unvoiced friction sound, the speech unit of the first transition portion is generated. Data need not be stored in the speech segment database. That is, according to the speech synthesizer, compared with the conventional speech synthesis of the unit connection method, the speech that needs to be made into a database for the transition portion from the unvoiced friction sound to another consonant and the first transition portion. It becomes possible to reduce fragments. In another aspect of the present invention, a program for causing a computer device to function as each of the above means may be provided.

以下、図面を参照しつつ本発明の一実施形態について説明する。
図1は、本発明に係る音声合成装置の一実施形態である歌唱合成装置の構成を示すブロック図である。この歌唱合成装置は、例えば携帯電話機や携帯型ゲーム機など音声を出力する機能を備えた携帯端末に音声合成プログラムをインストールしたものであり、前述した素片接続方式で歌唱音声の合成を行う。図1において、CPU(Central Processing Unit)1は、この歌唱合成装置の各部を制御する制御中枢である。ROM(Read Only Memory)2は、ローダなど、この歌唱合成装置の基本的な動作を制御するための制御プログラムを記憶した読み出し専用メモリである。表示部3は、例えば液晶ディスプレイとその駆動回路であり、装置の動作状態や入力データ、利用者に対するメッセージなどを表示する。操作部4は、利用者に各種情報を入力させるための手段であり、複数の操作子(例えば、携帯型ゲーム機であればスタートボタンやカーソルキー、携帯電話であればテンキーなど)やタッチパネルなどで構成されている。インタフェース群5は、ネットワークを介して他の装置との間でデータ通信を行うためのネットワークインタフェースや、UMD(Universal Media Disc)やCD−ROM(Compact Disk-Read Only Memory)などの外部記録媒体との間でデータの授受を行うためのドライバなどである。フラッシュメモリ6は、データの書き込みおよび読み出しが可能な不揮発性メモリであり、各種のプログラムやデータベースなどの情報を記憶するためのものである。RAM(Random Access Memory)7は、CPU1によってワークエリアとして利用される揮発性メモリである。CPU1は、操作部4を介して与えられる指令にしたがいフラッシュメモリ6内のプログラムをRAM7に読み出し実行する。サウンドシステム8は、この歌唱合成装置において合成される音声を出力する手段である。このサウンドシステム8は、合成音声の波形を示すデジタル音声信号(例えば、合成音声の波形を示すサンプリングデータ)をアナログ音声信号に変換するD/A変換器と、このアナログ音声信号を増幅するアンプと、このアンプの出力信号を音として出力するスピーカ等を含んでいる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a singing voice synthesizing apparatus which is an embodiment of a voice synthesizing apparatus according to the present invention. This singing voice synthesizing apparatus is obtained by installing a voice synthesizing program in a portable terminal having a function of outputting voice, such as a mobile phone or a portable game machine, and synthesizes singing voice by the above-described unit connection method. In FIG. 1, a CPU (Central Processing Unit) 1 is a control center that controls each part of the singing voice synthesizing apparatus. A ROM (Read Only Memory) 2 is a read only memory storing a control program for controlling basic operations of the singing voice synthesizing apparatus such as a loader. The display unit 3 is, for example, a liquid crystal display and a driving circuit thereof, and displays an operation state of the apparatus, input data, a message to the user, and the like. The operation unit 4 is a means for allowing a user to input various types of information, and includes a plurality of operators (for example, a start button and cursor keys for a portable game machine, a numeric keypad for a mobile phone, etc.), a touch panel, and the like. It consists of The interface group 5 includes a network interface for performing data communication with other devices via a network, an external recording medium such as a UMD (Universal Media Disc) and a CD-ROM (Compact Disk-Read Only Memory). A driver for transferring data between them. The flash memory 6 is a non-volatile memory capable of writing and reading data, and stores information such as various programs and databases. A RAM (Random Access Memory) 7 is a volatile memory used as a work area by the CPU 1. The CPU 1 reads the program in the flash memory 6 into the RAM 7 and executes it in accordance with a command given via the operation unit 4. The sound system 8 is a means for outputting the sound synthesized in this singing voice synthesizing apparatus. The sound system 8 includes a D / A converter that converts a digital audio signal (for example, sampling data that indicates the waveform of the synthesized speech) indicating the waveform of the synthesized speech into an analog audio signal, an amplifier that amplifies the analog audio signal, and And a speaker for outputting the output signal of the amplifier as sound.

フラッシュメモリ6に記憶されている情報としては、曲編集プログラム61、曲データ62、音声素片データベース63、および音声合成プログラム64が挙げられる。曲データ62は、曲を構成する一連の音符を表す音符データと、音符に合わせて発音する歌詞を表す歌詞データと、曲に音楽的表情を与えるためのダイナミックス情報等のその他の情報とを含んでいる。この曲データ62は、曲毎に作成されフラッシュメモリ6に格納される。   Examples of information stored in the flash memory 6 include a song editing program 61, song data 62, a speech segment database 63, and a speech synthesis program 64. The song data 62 includes note data representing a series of notes constituting the song, lyric data representing lyrics to be generated in accordance with the notes, and other information such as dynamics information for giving a musical expression to the song. Contains. The song data 62 is created for each song and stored in the flash memory 6.

曲編集プログラム61は、曲データ62を編集するためにCPU1によって実行されるプログラムである。好ましい態様において、この曲編集プログラム61は、ピアノの鍵盤の画像からなるGUI(Graphical User Interface)を表示部3に表示させる。ユーザは、表示部3に表示される鍵盤における所望の鍵の画像に対する操作部4の操作により音符を指定し、その音符に合わせて発音する歌詞を操作部4の操作により入力することができる。ここで、歌詞の入力は、図2(A)に示すように、仮名入力で行っても良く、また、図2(B)に示すように音声記号入力で行っても良い。曲編集プログラム61は、このようにして、音符とその音符に合わせて発音される歌詞に関する情報を操作部4を介して受け取り、音符毎に音符データと歌詞データとを曲データ62としてフラッシュメモリ6内に格納する。さらに、ユーザは操作部4の操作によりダイナミック情報等を曲データ62に追加することができる。なお、このように曲データ62の全てを操作部4の操作により入力させるのではなく、歌唱合成装置に鍵盤を接続し、ユーザによる鍵盤の操作を検知することにより音符データを生成し、この音符データに対応させる歌詞を操作部4の操作により入力させるようにしても良い。また、他の装置で作成した曲データ62をインタフェース群5を介してこの歌唱合成装置へ入力し、フラッシュメモリ6に格納させる態様でも良く、この態様においては曲編集プログラム61をフラッシュメモリ6に格納しておく必要はない。   The song editing program 61 is a program executed by the CPU 1 in order to edit the song data 62. In a preferred embodiment, the song editing program 61 causes the display unit 3 to display a GUI (Graphical User Interface) composed of an image of a piano keyboard. The user can specify a note by operating the operation unit 4 with respect to an image of a desired key on the keyboard displayed on the display unit 3, and can input lyrics to be pronounced according to the note by operating the operation unit 4. Here, the input of lyrics may be performed by kana input as shown in FIG. 2A, or may be performed by phonetic symbol input as shown in FIG. 2B. In this way, the song editing program 61 receives information about the notes and the lyrics that are pronounced according to the notes via the operation unit 4, and the note data and the lyrics data for each note as song data 62 are stored in the flash memory 6. Store in. Further, the user can add dynamic information or the like to the music data 62 by operating the operation unit 4. Instead of inputting all of the music data 62 by operating the operation unit 4 in this way, a note is generated by connecting a keyboard to the singing voice synthesizing device and detecting a user's operation of the keyboard. The lyrics corresponding to the data may be input by operating the operation unit 4. Alternatively, the song data 62 created by another device may be input to the song synthesizing device via the interface group 5 and stored in the flash memory 6. In this embodiment, the song editing program 61 is stored in the flash memory 6. There is no need to keep it.

1個の音符に対応した音符データは、音符の発生時刻、音高、音符の長さを示す各情報を含んでいる。歌詞データは、音符に合わせて発音するべき歌詞を音符毎に定義したデータである。曲データ62は、曲の開始からの発生順序に合わせて、個々の音符に対応した音符データと歌詞データとを時系列的に並べたものであり、曲データ62内においては音符データと歌詞データとは音符単位で対応付けられている。   The note data corresponding to one note includes information indicating the note generation time, pitch, and note length. The lyric data is data in which lyrics to be pronounced in accordance with the notes are defined for each note. The song data 62 is obtained by arranging note data and lyrics data corresponding to individual notes in time series in accordance with the generation order from the start of the song. In the song data 62, the note data and the lyrics data are arranged. Are associated with each note.

音声合成プログラム64は、曲データ62にしたがって音声(本実施形態では、歌唱音声)を合成する処理を、CPU1に実行させるプログラムである。好ましい態様において、音声合成プログラム64と曲編集プログラム61は、例えばインターネット内のサイトからインタフェース群5の中の適当なものを介してダウンロードされ、フラッシュメモリ6にインストールされる。また、他の態様において、音声合成プログラム64等は、CD−ROMやUMD等のコンピュータ装置読取可能な記録媒体に記録された状態で取引される。この態様では、インタフェース群5の中の適当なものを介して記録媒体から音声合成プログラム64等が読み出され、フラッシュメモリ6にインストールされる。   The voice synthesis program 64 is a program that causes the CPU 1 to perform a process of synthesizing a voice (singing voice in this embodiment) according to the song data 62. In a preferred embodiment, the speech synthesis program 64 and the song editing program 61 are downloaded via a suitable one in the interface group 5 from a site in the Internet, for example, and installed in the flash memory 6. In another aspect, the speech synthesis program 64 or the like is traded in a state recorded on a computer-readable recording medium such as a CD-ROM or UMD. In this aspect, the voice synthesis program 64 and the like are read from the recording medium via an appropriate one in the interface group 5 and installed in the flash memory 6.

音声素片データベース63は、子音から母音への遷移部分、母音から他の母音への遷移部分など音素から音素への遷移部分や、母音の伸ばし音など、歌声の素材となる各種の音声素片を示す音声素片データの集合体である。これらの音声素片データは、実際に人間が発した音声波形から抽出された音声素片に基づいて作成されたデータである。音声素片データベース63では、男性歌手、女性歌手、澄んだ声の歌手、ハスキーな声の歌手など、声質の異なった歌手毎に、各歌手の歌唱音声波形から得られる音声素片データのグループが用意されている。音声合成プログラム64による歌唱合成の際、ユーザは、操作部4の操作により、以上のような各種の音声素片データのグループの中から歌唱合成に使用する音声素片データのグループを選択することができる。   The speech element database 63 includes various speech elements that are materials of singing voices, such as transition parts from consonants to vowels, transition parts from phonemes to phonemes such as transition parts from vowels to other vowels, and vowel extension sounds. Is a collection of speech segment data indicating. These speech segment data are data created based on speech segments extracted from speech waveforms actually emitted by humans. In the speech segment database 63, a group of speech segment data obtained from the singer speech waveform for each singer, such as a male singer, a female singer, a singer with a clear voice, a singer with a husky voice, and the like. It is prepared. At the time of singing synthesis by the speech synthesis program 64, the user selects a group of speech unit data to be used for singing synthesis from among the various groups of speech unit data as described above by operating the operation unit 4. Can do.

前述したように、音声素片データベース63には、できるだけ多くの音声素片データが格納されていることが好ましい。しかし、本実施形態では、音声素片データベース63は、フラッシュメモリ6に格納されるので、音声素片データベース63に格納する音声素片データの数を最小限に絞り込む必要がある。何故ならば、フラッシュメモリの記憶容量はハードディス等に比較して小さいことが一般的だからである。そこで、本実施形態では、無声摩擦音から他の子音への遷移部分の音声素片データと、無声摩擦音から無音への遷移部分の音声素片データとを音声素片データベースの格納対象から除外する(なお、無音から無声摩擦音への遷移部分は格納対象)ことで上記絞込みを実現している。これらを格納対象から除外した理由は以下の通りである。   As described above, it is preferable that the speech unit database 63 stores as much speech unit data as possible. However, in this embodiment, since the speech unit database 63 is stored in the flash memory 6, it is necessary to minimize the number of speech unit data stored in the speech unit database 63. This is because the storage capacity of flash memory is generally smaller than that of a hard disk or the like. Therefore, in the present embodiment, the speech unit data of the transition portion from the unvoiced friction sound to another consonant and the speech unit data of the transition portion from the unvoiced friction sound to the silence are excluded from the storage target of the speech unit database ( Note that the above-described narrowing is realized by transitioning from silent to silent frictional sound. The reason why these are excluded from the storage target is as follows.

特許文献1等に開示された従来の素片接続方式の歌唱合成技術では、無声摩擦音から他の子音への遷移部分、無声摩擦音から無音への遷移部分を示すものも音声素片データベースに格納されている。何故ならば、これらの遷移部分の音声素片は、母音の脱落した音声の合成の際に使用されるからである。図3(A)は、母音の脱落が発生していない「す」の発音の素片構成を示す図であり、図3(B)および図3(C)は、各々母音(u)の脱落した「す」の発音の素片構成を示す図である。図3(B)および図3(C)に示すように、このような母音の脱落は、無音から無声摩擦音(図3(B)では、無音から子音s)への遷移部分と同無声摩擦音から無音への遷移部分の連続で表現されるものと、無声摩擦音から他の子音(図3(C)では、子音sから子音t)への遷移部分で表現されるものとがある。このような母音の脱落は主に英語等で良く見られる現象である。図3(B)および図3(C)を参照すれば明らかように、無声摩擦音から他の子音への遷移部分や、無声摩擦音から無音への遷移部分の音声素片データが音声素片データベース63に格納されていないと、母音の脱落した音声を合成することはできない。なお、無声摩擦音から他の子音への遷移部分については、図3(C)に示すように、無声摩擦音から無音への遷移部分と無音から上記他の子音への遷移部分とに置き換えて表現することも可能である。しかし、無声摩擦音から無音への遷移部分がデータベース化の対象とされていない状況下では、このような方法によっても図3(C)に示すような母音の脱落を表現することはできない。本実施形態では、無音から無声摩擦音への遷移部分の音声素片データを利用することで上記のような不具合の発生を回避しているのである。この点については後に詳細に説明する。   In the conventional unit connection type singing synthesis technique disclosed in Patent Document 1 and the like, those indicating a transition part from an unvoiced friction sound to another consonant and a transition part from an unvoiced friction sound to silence are also stored in the speech unit database. ing. This is because the speech segments of these transition portions are used when synthesizing speech with vowels dropped. FIG. 3 (A) is a diagram showing a segment structure of the pronunciation of “su” in which no vowel drop has occurred, and FIG. 3 (B) and FIG. 3 (C) show the drop of the vowel (u), respectively. It is a figure which shows the fragment | piece structure of the pronunciation of "su". As shown in FIGS. 3 (B) and 3 (C), such a vowel drop is caused by the transition from silent to unvoiced friction sound (in FIG. 3 (B), silence to consonant s) and from the unvoiced friction sound. Some are expressed by a continuous transition part to silence, and some are expressed by a transition part from unvoiced friction sound to another consonant (consonant s to consonant t in FIG. 3C). Such omission of vowels is a phenomenon often seen mainly in English. As is clear from FIG. 3B and FIG. 3C, the speech unit database 63 includes speech unit data of a transition portion from an unvoiced friction sound to another consonant and a transition portion from the unvoiced friction sound to the silence. If it is not stored in the, it is not possible to synthesize voices with missing vowels. As shown in FIG. 3C, the transition part from the unvoiced friction sound to another consonant is replaced with a transition part from the unvoiced friction sound to the silence and the transition part from the silence to the other consonant. It is also possible. However, under the situation where the transition from silent frictional sound to silent is not targeted for database, such a method cannot express vowel drop as shown in FIG. In the present embodiment, the occurrence of the above-described problems is avoided by using the speech element data of the transition from silent to silent frictional sound. This point will be described in detail later.

音声素片データベース63に格納されている各音声素片データは、音声素片の波形を示す波形データを含んでいる。本実施形態では、この波形データは、音声素片の波形を所定のサンプリングレートでサンプリングしたサンプル列であり、各音声素片データは、音声素片を構成する音素の種類と各音素の開始時刻を示すセグメンテーションデータを含む。なお、本実施形態では、上記波形データとしてサンプリングデータ列を用いるが、音声素片の波形のサンプル列を一定時間長のフレームに分割し、FFT(高速フーリエ変換)を行うことにより得られたフレーム毎のスペクトル(振幅スペクトルおよび位相スペクトル)を表すデータを上記波形データとして用いても勿論良い。   Each speech unit data stored in the speech unit database 63 includes waveform data indicating the waveform of the speech unit. In the present embodiment, the waveform data is a sample string obtained by sampling the waveform of a speech unit at a predetermined sampling rate, and each speech unit data includes the type of phoneme constituting the speech unit and the start time of each phoneme. Including segmentation data. In this embodiment, a sampling data string is used as the waveform data. However, a frame obtained by dividing a sample string of a speech segment waveform into frames of a certain time length and performing FFT (Fast Fourier Transform). Of course, data representing each spectrum (amplitude spectrum and phase spectrum) may be used as the waveform data.

本実施形態では、音声素片データに含まれる波形データにピッチ変換を施して利用することにより、任意のメロディに対応した歌唱音声を合成する。このピッチ変換については、例えば特許文献1に開示されている手法を採用すれば良い。ピッチ変換を行うためには、その対象である波形データのピッチに関する情報が必要である。そこで、ある好ましい態様では、歌唱合成の際のピッチ変換の便宜のため、音声素片のピッチがフレーム毎に算出され、各フレームにおけるピッチを示す素片ピッチデータが音声素片データの一部として音声素片データベース63に格納される。また、他の好ましい態様では、歌唱合成の際の演算処理の便宜のため、上記素片ピッチデータに加えて、音声素片の振幅スペクトルの包絡線がフレーム毎に求められ、各フレームにおけるスペクトル包絡を示すスペクトル包絡データの一部として音声素片データベース63に格納される。   In the present embodiment, the singing voice corresponding to an arbitrary melody is synthesized by applying the pitch conversion to the waveform data included in the speech segment data. For this pitch conversion, for example, a method disclosed in Patent Document 1 may be adopted. In order to perform pitch conversion, information on the pitch of the waveform data that is the object is required. Therefore, in a preferred embodiment, for the convenience of pitch conversion at the time of singing synthesis, the pitch of the speech unit is calculated for each frame, and the unit pitch data indicating the pitch in each frame is a part of the speech unit data. It is stored in the speech unit database 63. In another preferred embodiment, for the convenience of calculation processing at the time of singing synthesis, in addition to the above unit pitch data, an envelope of the amplitude spectrum of the speech unit is obtained for each frame, and the spectral envelope in each frame is obtained. Is stored in the speech segment database 63 as a part of the spectrum envelope data indicating.

次いで、音声合成プログラム64の構成について説明する。
図4は、音声合成プログラム64の構成を説明するための図である。この音声合成プログラム64は、所謂素片接続方式の音声合成(本実施形態では、歌唱合成)処理をCPU1に実行させるプログラムであり、図4に示すように、音声合成指示生成手段641、素片選択手段642、ピッチ変換手段643、および素片連結手段644を含んでいる。なお、本実施形態では、CPU1が音声合成指示生成手段641等に相等するプログラムを実行することにより歌唱音声の合成を行うが、これらの各プログラムを複数のプロセッサが分担して並列実行するように構成しても良い。また、音声合成指示生成手段641等の各プログラムの一部を電子回路により構成しても良い。
Next, the configuration of the speech synthesis program 64 will be described.
FIG. 4 is a diagram for explaining the configuration of the speech synthesis program 64. This speech synthesis program 64 is a program that causes the CPU 1 to perform a so-called segment connection type speech synthesis (single synthesis in this embodiment) process, and as shown in FIG. A selection unit 642, a pitch conversion unit 643, and a unit connection unit 644 are included. In the present embodiment, the CPU 1 synthesizes the singing voice by executing a program equivalent to the voice synthesis instruction generating unit 641 and the like, but each of these programs is shared by a plurality of processors and executed in parallel. It may be configured. Further, a part of each program such as the speech synthesis instruction generating unit 641 may be configured by an electronic circuit.

音声合成指示生成手段641は、操作部4の操作により指定された曲データ62から音声合成指示650を生成するプログラムである。本実施形態における音声合成指示650は、所謂歌唱合成スコアであり、音韻データトラック651と、ピッチデータトラック652と、その他のデータトラック653と、を含んでいる。これら各データトラックは時間軸を共通にするものである。音韻データトラック651は、1曲分の歌唱音声を合成するのに使用する複数の音声素片と、それらの各音声素片の時間軸上における位置(具体的には、音声素片の開始タイミングおよび継続時間)を示すデータトラックである。ピッチデータトラック652は、合成するべき歌唱音声のピッチを示すデータトラックである。   The voice synthesis instruction generating unit 641 is a program that generates a voice synthesis instruction 650 from the music data 62 specified by the operation of the operation unit 4. The speech synthesis instruction 650 in the present embodiment is a so-called singing synthesis score, and includes a phoneme data track 651, a pitch data track 652, and other data tracks 653. Each of these data tracks has a common time axis. The phoneme data track 651 includes a plurality of speech units used for synthesizing a singing voice for one song, and positions of these speech units on the time axis (specifically, the start timing of the speech unit). Data duration). The pitch data track 652 is a data track indicating the pitch of the singing voice to be synthesized.

音声合成指示生成手段641は、基本的には音符データに従い、また、ビブラートやポルタメント、レガートの指示がある場合にはそれに従い、ピッチデータトラック652を生成する。ただし、ピッチデータトラックを音符データ通りのものにすると、ピッチの変化が階段状になり、不自然な歌唱音になるので、本実施形態では、ピッチの切り換り区間においてピッチが自然な動きとなるように、ピッチデータトラック652が示すピッチに変化を与える。その他のデータトラック653は、曲データ62に含まれるダイナミックス情報等に基づいて作成される。   The voice synthesis instruction generating unit 641 basically generates the pitch data track 652 according to the note data, and when there is an instruction of vibrato, portamento or legato. However, if the pitch data track is the same as the note data, the change in pitch will be stepped, resulting in an unnatural singing sound.In this embodiment, the pitch changes in the pitch switching section. Thus, the pitch indicated by the pitch data track 652 is changed. The other data track 653 is created based on the dynamics information included in the song data 62.

素片選択手段642、ピッチ変換手段643および素片連結手段644は、音声合成指示650に従って歌唱音声の波形を示す波形データである歌唱音声データを生成する役割を担っている。ここで、音声合成指示650から歌唱音声データを生成する処理は、1曲分の音声合成指示650の生成が完了した後に開始するようにしても良く、音声合成指示650の生成開始から少し遅れて開始するようにしても良い。   The segment selection unit 642, the pitch conversion unit 643, and the segment connection unit 644 play a role of generating singing voice data that is waveform data indicating the waveform of the singing voice in accordance with the voice synthesis instruction 650. Here, the process of generating the singing voice data from the voice synthesis instruction 650 may be started after the generation of the voice synthesis instruction 650 for one song is completed, and is slightly delayed from the generation start of the voice synthesis instruction 650. It may be started.

素片選択手段642は、音声合成指示650の音韻データトラック651において指定されている音声素片に該当する音声素片データを音声素片データベース63から選択し、その音声素片データをピッチ変換手段643に出力するプログラムである。本実施形態における素片選択手段642は、音声素片データをピッチ変換手段643に引渡す際に、その音声素片データに含まれる波形データの継続時間長を音声合成指示650において指定された音声素片の継続時間長に合わせる機能を備えている。   The unit selection unit 642 selects speech unit data corresponding to the speech unit specified in the phoneme data track 651 of the speech synthesis instruction 650 from the speech unit database 63, and the speech unit data is converted into pitch conversion unit. 643 is a program to be output to 643. The unit selection unit 642 in the present embodiment, when delivering the speech unit data to the pitch conversion unit 643, determines the duration of the waveform data included in the speech unit data in the speech unit specified in the speech synthesis instruction 650. It has a function to match the duration of the piece.

ピッチ変換手段643は、ピッチデータトラック652において指定されたピッチに対応した波形データとなるように、素片選択手段642から出力される音声素片データに含まれる波形データにピッチ変換を施すプログラムである。さらに詳述すると、本実施形態では、音声素片データに含まれる波形データはサンプル列であるため、ピッチ変換手段643は、まず、所定サンプル数からなるフレーム単位でサンプル列のFFT(高速フーリエ変換)を行い、音声素片の振幅スペクトルおよび位相スペクトルをフレーム毎に求める。そして、ピッチ変換手段643は、ピッチデータトラック652において指定されたピッチに対応するように、各フレームにおける振幅スペクトルを周波数軸方向に伸張または圧縮する。その際、基音および倍音に相等する周波数の近傍は、元のスペクトルの概形が保たれるように、非線形な伸張または圧縮を行い、ピッチ変換後の振幅スペクトルとする。また、ピッチ変換後においても、ピッチ変換前のスペクトル包絡が維持されるように、非線形な圧縮または伸張を経た振幅スペクトルのレベル調整を行う。位相スペクトルに関しては、元の位相スペクトルをそのままピッチ変換後の位相スペクトルとしても良いが、振幅スペクトルの周波数軸方向の圧縮または伸張に合わせて補正を行ったものをピッチ変換後の位相スペクトルとする方が好ましい。なお、上記波形データとして、音声素片の振幅スペクトルおよび位相スペクトルを表すデータを用いる場合には、上記FFTを行うことなく、周波数軸方向の伸張または圧縮を施すようにすれば良い。   The pitch conversion means 643 is a program that performs pitch conversion on the waveform data included in the speech element data output from the element selection means 642 so that the waveform data corresponds to the pitch specified in the pitch data track 652. is there. More specifically, in this embodiment, since the waveform data included in the speech segment data is a sample string, the pitch converting unit 643 first performs FFT (fast Fourier transform) of the sample string in units of frames each having a predetermined number of samples. ) To obtain the amplitude spectrum and phase spectrum of the speech unit for each frame. Then, the pitch conversion means 643 expands or compresses the amplitude spectrum in each frame in the frequency axis direction so as to correspond to the pitch specified in the pitch data track 652. At that time, in the vicinity of the frequency equivalent to the fundamental tone and the harmonic overtone, nonlinear expansion or compression is performed so that the outline of the original spectrum is maintained, and an amplitude spectrum after pitch conversion is obtained. In addition, after the pitch conversion, the level of the amplitude spectrum that has undergone nonlinear compression or expansion is adjusted so that the spectrum envelope before the pitch conversion is maintained. Regarding the phase spectrum, the original phase spectrum may be used as the phase spectrum after the pitch conversion as it is, but the phase spectrum after the pitch conversion is corrected according to the compression or expansion in the frequency axis direction of the amplitude spectrum. Is preferred. Note that when data representing the amplitude spectrum and phase spectrum of a speech unit is used as the waveform data, it is only necessary to perform expansion or compression in the frequency axis direction without performing the FFT.

素片連結手段644は、最終的に得られる歌唱音声が一連の音声素片が滑らかに繋がったものとなるように、ピッチ変換手段643の処理を経た波形データの調整を行い、この調整後の波形データをIFFT(逆高速フーリエ変換)により時間領域のデジタル音声信号に変換してサウンドシステム8に出力するプログラムである。   The segment connecting means 644 adjusts the waveform data that has undergone the processing of the pitch converting means 643 so that the finally obtained singing voice is smoothly connected to a series of speech segments, and after this adjustment, This is a program for converting waveform data into a digital audio signal in the time domain by IFFT (Inverse Fast Fourier Transform) and outputting it to the sound system 8.

以上に説明した音声合成プログラム64の構成要素のうち、音声合成指示生成手段641(本実施形態では、歌唱合成スコア生成手段)、ピッチ変換手段643、および素片連結手段644については特許文献1に開示されたものと何ら変るところはない。これに対して、本実施形態の素片選択手段642は、無音から無声摩擦音への第1の遷移部分と前記無声摩擦音から無音への第2の遷移部分とが連続して音声合成指示650にて指定されている場合、または、無声摩擦音から他の子音への遷移部分の音声素片が音声合成指示650にて指定されている場合に、本実施形態の特徴を顕著に示す処理を実行する。   Of the components of the speech synthesis program 64 described above, the speech synthesis instruction generation unit 641 (single synthesis score generation unit in this embodiment), the pitch conversion unit 643, and the segment connection unit 644 are disclosed in Patent Document 1. There is no difference from what is disclosed. On the other hand, the segment selection unit 642 of the present embodiment continuously outputs a first transition portion from silent to silent friction sound and a second transition portion from silent friction sound to silence in the speech synthesis instruction 650. If the speech unit of the transition from an unvoiced friction sound to another consonant is specified by the speech synthesis instruction 650, the processing that clearly shows the features of this embodiment is executed. .

より詳細に説明すると、無音から無声摩擦音への第1の遷移部分と同無声摩擦音から無音への第2の遷移部分とが連続して音声合成指示650にて指定されている場合、素片選択手段642は、当該第2の遷移部分については、当該第2の遷移部分に先行する第1の遷移部分(すなわち、無音から無声摩擦音への遷移部分)に対応する音声素片データを音声素片データベース63から選択し、当該音声素片データに含まれる波形データに時間反転を施したものを出力する処理(以下、無音接続合成処理)を実行する。   More specifically, when the first transition portion from silent to silent friction sound and the second transition portion from silent friction sound to silence are continuously specified in the speech synthesis instruction 650, the unit selection is performed. For the second transition portion, the means 642 converts the speech unit data corresponding to the first transition portion preceding the second transition portion (that is, the transition portion from silent to unvoiced frictional sound) into speech units. A process of selecting from the database 63 and outputting the waveform data included in the speech segment data that has been time-reversed (hereinafter referred to as silent connection synthesis process) is executed.

前述したように、無音から無声摩擦音への第1の遷移部分と同無声摩擦音から無音への第2の遷移部分とが連続して音声合成指示650にて指定されている場合とは、図3(B)に示すような態様で母音が脱落した音声の合成を指示されている、ということである。この場合、素片選択手段642は、まず、無音から無声摩擦音への遷移部分(上記第1の遷移部分)の音声素片データを音声素片データベース63から読み出して出力する。次いで、素片選択手段642は、上記音声素片データに時間反転を施して得られるものを、上記無声摩擦音から無音への遷移部分(すなわち、上記第2の遷移部分)の音声素片データとして出力する(図3(D)参照)。この時間反転の具体的な実施態様としては種々のものが考えられる。例えば、音声素片データに含まれる波形データがサンプル列である場合には、それらサンプル列を逆順に配列し直すことで実現される。また、上記波形データとしてフレーム毎のスペクトル(振幅スペクトルおよび位相スペクトル)を表すデータを用いる場合には、それらデータをフレーム単位の逆順にIFFTすることで時間反転が実現される。このように本実施形態によれば、無声摩擦音から無音への遷移部分の音声素片データが音声素片データベース63に格納されていなくても、図3(B)に示すタイプの母音の脱落した音声を合成することができる。   As described above, the case where the first transition portion from silent to silent friction sound and the second transition portion from silent friction sound to silence are continuously designated by the speech synthesis instruction 650 is shown in FIG. In other words, it is instructed to synthesize a voice in which vowels have been dropped in a manner as shown in (B). In this case, the segment selection means 642 first reads out the speech segment data of the transition portion (the first transition portion) from silent to unvoiced frictional sound from the speech segment database 63 and outputs it. Next, the segment selection means 642 obtains the speech segment data obtained by performing time reversal on the speech segment data as speech segment data of the transition portion from the unvoiced friction sound to the silence (that is, the second transition portion). Output (see FIG. 3D). Various specific embodiments of this time reversal are conceivable. For example, when the waveform data included in the speech element data is a sample string, this is realized by rearranging the sample strings in reverse order. Further, when data representing a spectrum (amplitude spectrum and phase spectrum) for each frame is used as the waveform data, time reversal is realized by performing IFFT on the data in reverse order in frame units. As described above, according to the present embodiment, even if the speech segment data of the transition from silent voice to silence is not stored in the speech segment database 63, the type of vowel shown in FIG. Voice can be synthesized.

これに対して、無声摩擦音から他の子音への遷移部分の音声素片が音声合成指示650にて指定されている場合は、素片選択手段642は、無声摩擦音から無音への第1の遷移部分と無音から他の子音への第2の遷移部分の連結で当該音声素片を置き換え、第1の遷移部分については、無音から同無声摩擦音への遷移部分に対応する音声素片データを音声素片データベース63から選択し当該音声素片データに含まれる波形データに時間反転を施したものを出力する一方、第2の遷移部分については該当する音声素片データを素片データベース63から選択して出力する処理(以下、子音接続合成処理)を実行する。   On the other hand, when the speech segment of the transition portion from the unvoiced friction sound to another consonant is specified by the speech synthesis instruction 650, the segment selection unit 642 performs the first transition from the unvoiced friction sound to the silence. The speech unit is replaced by connecting the second transition part from the part and the silence to another consonant. For the first transition part, the speech unit data corresponding to the transition part from the silent to the unvoiced friction sound is voiced. While selecting from the unit database 63 and outputting time-reversed waveform data included in the speech unit data, the corresponding speech unit data is selected from the unit database 63 for the second transition portion. (Hereinafter, consonant connection synthesis processing) is executed.

無声摩擦音から他の子音への遷移部分の音声素片が音声合成指示650にて指定されている場合とは、図3(C)に示すような態様で母音が脱落した音声の合成を指示されている、ということである。この場合、素片選択手段642は、まず、無音から無声摩擦音への遷移部分の音声素片データを音声素片データベース63から読み出し、これに時間反転を施したものを上記第1の遷移部分の音声素片データとして出力する。次いで、素片選択手段642は、上記第2の遷移部分の音声素片データを素片選択データベース63から読み出し、そのまま出力する(図3(E)参照)。このように本実施形態によれば、無声摩擦音から他の子音への遷移部分の音声素片データや無声摩擦音から無音への遷移部分の音声素片データが音声素片データベース63に格納されていなくても、図3(C)に示すタイプの母音の脱落した音声を合成することができる。   When the speech segment of the transition part from the unvoiced friction sound to another consonant is designated by the speech synthesis instruction 650, the synthesis of the speech in which the vowel is dropped is instructed in the manner shown in FIG. It means that. In this case, the segment selection means 642 first reads out the speech segment data of the transition portion from silence to unvoiced frictional sound from the speech segment database 63, and applies the time reversal to the speech segment data of the first transition portion. Output as speech segment data. Next, the segment selection means 642 reads the speech segment data of the second transition portion from the segment selection database 63 and outputs it as it is (see FIG. 3E). As described above, according to the present embodiment, the speech unit data of the transition part from the unvoiced friction sound to another consonant and the speech unit data of the transition part from the unvoiced friction sound to the silence are not stored in the speech unit database 63. Even so, it is possible to synthesize a voice in which a vowel of the type shown in FIG.

以上説明したように本実施形態に係る歌唱合成装置によれば、従来技術に比較して、無声摩擦音から他の子音への遷移部分や無声摩擦音から無音への遷移部分の分だけデータベース化する音声素片の数を削減しつつ、自然な歌唱音声の合成を行うことが可能になる。   As described above, according to the singing voice synthesizing apparatus according to the present embodiment, compared to the prior art, the voice that is created as a database for the transition portion from the silent friction sound to another consonant and the transition portion from the silent friction sound to the silence. It is possible to synthesize natural singing voice while reducing the number of segments.

以上、本発明の一実施形態について説明したが、この実施形態を以下のように変形しても勿論良い。
(1)上述した実施形態では、無音接続合成処理、および子音接続合成処理を素片選択手段642に実行させるようにすることで、無声摩擦音から無音への遷移部分、および無声摩擦音から他の子音への遷移部分を示す音声素片のデータベース化を不要にし、音声素片データベース63に格納する音声素片の数を削減した。しかし、本実施形態の特徴を顕著に示す上記2つの処理のうち、何れか一方のみを素片選択手段642に実行させるようにしても良い。例えば、無音接続合成処理のみを実行させる態様においては、無声摩擦音から無音への遷移部分をデータベース化しておく必要はないものの、無声摩擦音から他の子音への遷移部分については従来と同様にデータベース化しておく必要がある。ただし、このような態様においても、無声摩擦音から無音への遷移部分をデータベース化しない分だけ、従来の素片接続方式の音声合成技術に比較して音声素片データベースに格納しておくべき音声素片の数を削減することができる。同様に、素片選択手段642に子音接続合成処理のみを実行させ、無声摩擦音から無音への遷移部分については予めデータベース化しておく態様であっても勿論良い。
Although one embodiment of the present invention has been described above, the present embodiment may of course be modified as follows.
(1) In the above-described embodiment, the silent connection synthesis process and the consonant connection synthesis process are caused to be executed by the segment selection unit 642, so that the transition from the silent friction sound to the silence and the silent friction sound to another consonant. Therefore, it is not necessary to create a database of speech units indicating the transition part, and the number of speech units stored in the speech unit database 63 is reduced. However, only one of the two processes that clearly show the features of the present embodiment may be executed by the segment selection unit 642. For example, in an aspect in which only silent connection synthesis processing is executed, it is not necessary to create a database for the transition from silent friction to silence, but a database for the transition from silent friction to other consonants is created in the same manner as before. It is necessary to keep. However, even in such an embodiment, the speech elements to be stored in the speech unit database are compared with the speech synthesis technology of the conventional unit connection method by the amount that the transition from silent friction sound to silence is not made into a database. The number of pieces can be reduced. Similarly, it is of course possible to cause the element selection means 642 to execute only consonant connection synthesis processing and to create a database in advance for the transition from silent friction sound to silence.

(2)上述した実施形態では、無音から無声摩擦音への遷移部分の音声素片データを音声素片データベース63の格納対象とし、無声摩擦音から無音への遷移部分の音声素片データを格納対象から除外したが、無声摩擦音から無音への遷移部分の音声素片データを音声素片データベース63の格納対象とし、無音から無声摩擦音への遷移部分の音声素片データを格納対象から除外しても良い。ただし、この態様においては、無音から無声摩擦音への第1の遷移部分と同無声摩擦音から無音への第2の遷移部分とが連続して音声合成指示650にて指定されている場合に、以下の態様の無音接続合成処理を素片選択手段642に実行させる必要がある。すなわち、第1の遷移部分については、無声摩擦音から無音への遷移部分(すなわち、上記第2の遷移部分)に対応する音声素片データを音声素片データベース63から選択し、当該音声素片データに含まれる波形データに時間反転を施したものを出力する処理を素片選択手段642に実行させるのである。 (2) In the above-described embodiment, the speech segment data of the transition portion from silent to unvoiced friction sound is stored in the speech segment database 63, and the speech segment data of the transition portion from unvoiced friction sound to silence is stored from the storage target. Although excluded, the speech unit data of the transition part from silent friction sound to silence may be stored in the speech unit database 63, and the speech unit data of transition part from silent to unvoiced friction sound may be excluded from the storage target. . However, in this aspect, when the first transition part from silent to silent frictional sound and the second transition part from silent silent sound to silent are continuously specified by the speech synthesis instruction 650, It is necessary to cause the segment selection means 642 to execute the silent connection synthesis processing of the aspect. That is, for the first transition portion, speech segment data corresponding to the transition portion from silent friction sound to silence (that is, the second transition portion) is selected from the speech segment database 63, and the speech segment data is selected. The unit selection unit 642 is made to execute a process of outputting the waveform data included in the waveform data subjected to time reversal.

ここで、第1の遷移部分(すなわち、無音から無声摩擦音への遷移部分)と第2の遷移部分(無声摩擦音から無音への遷移部分)の何れを音声素片データベース63の格納対象とし、或いはデータベース化の対象から除外するのかについては、音声合成の対象言語との関係で定めれば良い。例えば、対象言語が英語である場合には、第2の遷移部分に比較して第1の遷移部分の出現頻度が高いため、第1の遷移部分をデータベースの格納対象とする(第2の遷移部分を格納対象から除外する)ことが好ましい。逆に、第2の遷移部分の出現頻度が高い言語が対象言語である場合には、第2の遷移部分を格納対象とする(第1の遷移部分を格納対象から除外する)ことが好ましいことは言うまでもない。   Here, either the first transition part (that is, the transition part from silent to silent frictional sound) or the second transition part (the transitional part from silent frictional sound to silent) is set as the storage target of the speech unit database 63, or Whether to exclude it from the database should be determined in relation to the target language for speech synthesis. For example, when the target language is English, since the appearance frequency of the first transition portion is higher than that of the second transition portion, the first transition portion is set as a storage target of the database (second transition It is preferable to exclude the portion from the storage target). Conversely, when the language in which the appearance frequency of the second transition portion is high is the target language, it is preferable that the second transition portion is the storage target (the first transition portion is excluded from the storage target). Needless to say.

(3)ピッチデータトラック652については、上記実施形態に挙げたもの以外の方法により音符の切り換り部分のピッチに動きを与えても良い。例えばユーザが操作部4の操作によりピッチに動きを与える構成でも良い。 (3) For the pitch data track 652, movement may be given to the pitch of the note switching portion by a method other than that described in the above embodiment. For example, a configuration in which the user moves the pitch by operating the operation unit 4 may be used.

(4)上述した実施形態では、仮名入力と音声記号入力の何れによっても歌詞の入力ができるようにしたが、例えば、仮名入力で歌詞が入力された場合には、常に母音の脱落がない態様で歌唱合成を行い、音声記号入力で歌詞が入力された場合には、その入力内容に応じて母音の脱落の発生の有無を制御するようにしても良い。また、仮名入力の場合には、母音の脱落を指示する制御文字をその脱落箇所に付与してその旨を指示するようにしても良い。例えば、母音の脱落を指示する制御文字として“%”を用い、図3(B)に示す態様の母音の脱落を指示する場合には、“す%”と入力し、図3(C)に示す態様の母音の脱落を指示する場合には、“す%た”と入力するようにすれば良い。 (4) In the embodiment described above, lyrics can be input by either kana input or phonetic symbol input. For example, when lyrics are input by kana input, there is always no vowel dropout. In the case where the singing is performed and the lyrics are input by inputting the phonetic symbols, the presence or absence of vowel dropout may be controlled according to the input content. Further, in the case of kana input, a control character for instructing omission of vowels may be given to the omission location to instruct that effect. For example, when “%” is used as a control character for instructing omission of vowels, and “voicing” is instructed in the form shown in FIG. 3B, “su%” is input, and FIG. In order to instruct dropping of the vowel in the mode shown, it is only necessary to input “%”.

(5)素片連結手段644は、周波数領域の情報である波形データ(振幅スペクトル、位相スペクトル)を時間領域の情報であるデジタル音声信号に変換した後、このデジタル音声信号を対象としてスムージング処理を行うようにしても良い。例えば、先行音声素片の最後のn個の波形データと後続音声素片の最初のn個の波形データからIFFTにより得られた時間領域のデジタル音声信号を対象としてクロスフェードを行い、最終的なデジタル音声信号としても良い。 (5) The segment connecting means 644 converts the waveform data (amplitude spectrum, phase spectrum), which is frequency domain information, into a digital audio signal, which is time domain information, and then performs a smoothing process on the digital audio signal. You may make it do. For example, the final n waveform data of the preceding speech unit and the first n waveform data of the subsequent speech unit are subjected to crossfading for the time domain digital speech signal obtained by IFFT, and the final It may be a digital audio signal.

(6)音声合成指示は、音声合成パラメータの時系列情報であれば良く、1曲分に限らず、曲の1部分についての時系列情報でも良い。 (6) The voice synthesis instruction may be time series information of the voice synthesis parameter, and is not limited to one piece of music, but may be time series information of one part of the piece of music.

(7)上述した実施形態では、音声合成の素材となる各音声素片の音声素片データの集合からなる音声素片データベース63が歌唱合成装置(音声合成装置)のフラッシュメモリ6に格納されていた。しかし、上記音声素片データベース63をSDメモリやUMDなどのコンピュータ装置記録媒体に書き込んで流通させ、これら記録媒体に格納されている音声素片データベース63へのインタフェース群5経由でのアクセスにより、音声合成指示650にて指定された音声素片に対応する音声素片データを読み出す処理をCPU1に実行させても良い。このような態様においては、歌唱合成装置(音声合成装置)が備える記憶装置の記憶容量の大小が問題となることはない。しかし、一般にUMDやSDメモリの記憶容量はハードディスク等に比較して小さいため、上記実施形態にて説明した手法により、データベース化する音声素片の数を削減することには十分な意義がある。 (7) In the embodiment described above, the speech unit database 63 composed of a set of speech unit data of each speech unit that is a material for speech synthesis is stored in the flash memory 6 of the singing synthesis device (speech synthesis device). It was. However, the speech unit database 63 is written and distributed in a computer device recording medium such as an SD memory or UMD, and the speech unit database 63 stored in these recording media is accessed via the interface group 5 to generate speech. You may make CPU1 perform the process which reads the speech unit data corresponding to the speech unit designated by the synthetic | combination instruction | indication 650. FIG. In such an aspect, the size of the storage capacity of the storage device included in the singing voice synthesis device (voice synthesis device) does not become a problem. However, since the storage capacity of a UMD or SD memory is generally smaller than that of a hard disk or the like, it is sufficiently meaningful to reduce the number of speech segments to be databased by the method described in the above embodiment.

(8)上述した実施形態では、歌唱音声(すなわち、曲に合わせて歌唱する音声)の合成に本発明を適用したが、発話音声など歌唱音声以外の音声の合成に本発明を適用しても勿論良い。発話音声の合成の場合においても、音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示を生成する処理を音声合成指示生成手段641に実行させ、素片選択手段642から出力される各音声素片データに対してピッチ変換手段643によるピッチ変換を施し、ピッチ変換後の波形データを調整しつつ連結して出力する処理を素片連結手段644に実行させるようにすれば良い。 (8) In the above-described embodiment, the present invention is applied to synthesis of singing voice (that is, voice sung in accordance with a song), but the present invention is also applied to synthesis of voice other than singing voice such as speech voice. Of course it is good. Even in the case of speech speech synthesis, the speech synthesis instruction generation unit 641 executes processing for generating a speech synthesis instruction in which information for designating a plurality of speech units used for speech synthesis is time-sequentially, and unit selection unit Each speech unit data output from 642 is subjected to pitch conversion by the pitch conversion unit 643, and the unit connection unit 644 performs processing of connecting and outputting the waveform data after the pitch conversion while adjusting the waveform data. Just do it.

(9)上述した実施形態では、音声合成プログラム64にしたがってCPU1を作動させることにより、そのCPU1を、音声合成指示生成手段641、素片選択手段642、ピッチ変換手段643および素片連結手段644として機能させた。しかしながら、インタフェース群5のうちの適当なものを介して他の装置から音声合成指示650が与えられる態様においては、CPU1を音声合成指示生成手段641として機能させる必要はない。また、合成音声を構成する音声素片毎にピッチの指定を行わない態様においては、CPU1をピッチ変換手段643として機能させる必要はない。つまり、本発明に特徴的な音声合成を実現するには、音声合成指示生成手段641およびピッチ変換手段643は必ずしも必須ではなく、素片選択手段642および素片連結手段644としてCPU1を機能させることができれば良い。 (9) In the above-described embodiment, by operating the CPU 1 according to the speech synthesis program 64, the CPU 1 is used as the speech synthesis instruction generation unit 641, the unit selection unit 642, the pitch conversion unit 643, and the unit connection unit 644. Made it work. However, in a mode in which the speech synthesis instruction 650 is given from another device via an appropriate interface group 5, it is not necessary for the CPU 1 to function as the speech synthesis instruction generation unit 641. Further, in a mode in which the pitch is not designated for each speech unit constituting the synthesized speech, it is not necessary for the CPU 1 to function as the pitch conversion unit 643. That is, in order to realize the speech synthesis characteristic of the present invention, the speech synthesis instruction generation unit 641 and the pitch conversion unit 643 are not necessarily required, and the CPU 1 is caused to function as the segment selection unit 642 and the segment connection unit 644. I hope you can.

この発明の一実施形態である歌唱合成装置の構成例を示す図である。It is a figure which shows the structural example of the song synthesizing | combining apparatus which is one Embodiment of this invention. 発音内容(歌詞)の入力態様の一例を示す図である。It is a figure which shows an example of the input mode of pronunciation content (lyrics). 母音の脱落した音声素片の一例、および本実施形態の原理を説明するための図である。It is a figure for demonstrating an example of the speech element from which the vowel was dropped, and the principle of this embodiment. 同歌唱合成装置のフラッシュメモリ6に格納されている音声合成プログラム64の構成を説明するための図である。It is a figure for demonstrating the structure of the speech synthesis program 64 stored in the flash memory 6 of the song synthesizing apparatus.

1…CPU、2…ROM、3…表示部、4…操作部、5…インタフェース群、6…フラッシュメモリ、61…曲編集プログラム、62…曲データ、63…音声素片データベース、64…音声合成プログラム、641…音声合成指示生成手段、642…素片選択手段、643…ピッチ変換手段、644…素片連結手段、7…RAM。   DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... Display part, 4 ... Operation part, 5 ... Interface group, 6 ... Flash memory, 61 ... Music editing program, 62 ... Music data, 63 ... Speech unit database, 64 ... Speech synthesis Program, 641... Speech synthesis instruction generation means, 642... Segment selection means, 643... Pitch conversion means, 644.

Claims (4)

各種の音声素片の波形を示す波形データを含む音声素片データを記憶する音声素片データベースと、
音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示にしたがって音声素片データを前記音声素片データベースから選択し出力する手段であって、無音から無声摩擦音への第1の遷移部分と前記無声摩擦音から無音への第2の遷移部分とが連続して前記音声合成指示により指定されている場合には、前記第1および第2の遷移部分のうちの何れか一方については前記音声素片データベースから該当する音声素片データを選択して出力し、他方については当該音声素片データに含まれる波形データに時間反転を施したものを出力する素片選択手段と、
前記素片選択手段から出力される各音声素片データに含まれる波形データを調整しつつ連結して出力する素片連結手段と
を有することを特徴とする音声合成装置。
A speech unit database for storing speech unit data including waveform data indicating waveforms of various speech units;
A means for selecting and outputting speech segment data from the speech segment database in accordance with a speech synthesis instruction time-sequentially specifying information for specifying a plurality of speech segments used for speech synthesis, from silent to silent friction sound When the first transition part and the second transition part from the silent frictional sound to the silence are successively specified by the speech synthesis instruction, any one of the first and second transition parts A unit selecting means for selecting and outputting corresponding speech unit data from the speech unit database for one, and outputting time-reversed waveform data included in the speech unit data for the other; ,
A speech synthesizer comprising: a unit linking unit that adjusts and outputs waveform data included in each speech unit data output from the unit selection unit.
各種の音声素片の波形を示す波形データを含む音声素片データを記憶する音声素片データベースと、
音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示にしたがって音声素片データを前記音声素片データベースから選択し出力する手段であって、無声摩擦音から他の子音への遷移部分の音声素片が前記音声合成指示により指定されている場合には、前記無声摩擦音から無音への第1の遷移部分と無音から前記他の子音への第2の遷移部分の連結で当該音声素片を置き換え、前記第1の遷移部分については、無音から前記無声摩擦音への遷移部分に対応する音声素片データを前記音声素片データベースから選択し当該音声素片データに含まれる波形データに時間反転を施したものを出力する一方、前記第2の遷移部分については該当する音声素片データを前記素片データベースから選択して出力する素片選択手段と、
前記素片選択手段から出力される各音声素片データに含まれる波形データを調整しつつ連結して出力する素片連結手段と
を有することを特徴とする音声合成装置。
A speech unit database for storing speech unit data including waveform data indicating waveforms of various speech units;
A means for selecting and outputting speech unit data from the speech unit database in accordance with a speech synthesis instruction in which information specifying a plurality of speech units used for speech synthesis is time-sequentially. When the speech segment of the transition portion to is designated by the speech synthesis instruction, the first transition portion from the silent friction sound to silence and the connection of the second transition portion from silence to the other consonant And the speech unit data corresponding to the transition from silent to unvoiced frictional sound is selected from the speech unit database and included in the speech unit data. A unit selection unit for outputting waveform data subjected to time reversal, and selecting and outputting corresponding speech unit data from the unit database for the second transition portion;
A speech synthesizer comprising: a unit linking unit that adjusts and outputs waveform data included in each speech unit data output from the unit selection unit.
コンピュータ装置を、
各種の音声素片の波形を示す波形データを含む音声素片データを記憶する音声素片データベースから、音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示にしたがって音声素片データを選択し出力する手段であって、無音から無声摩擦音への第1の遷移部分と前記無声摩擦音から無音への第2の遷移部分とが連続して前記音声合成指示により指定されている場合には、前記第1および第2の遷移部分のうちの何れか一方については前記音声素片データベースから該当する音声素片データを選択して出力し、他方については当該音声素片データに含まれる波形データに時間反転を施したものを出力する素片選択手段と、
前記素片選択手段から出力される各音声素片データに含まれる波形データを調整しつつ連結して出力する素片連結手段
として機能させることを特徴とするプログラム。
Computer equipment,
From a speech unit database that stores speech unit data including waveform data indicating waveforms of various speech units, according to a speech synthesis instruction in which information specifying a plurality of speech units used for speech synthesis is time-series A means for selecting and outputting speech segment data, wherein a first transition portion from silence to silent friction sound and a second transition portion from silent friction sound to silence are successively designated by the speech synthesis instruction. If so, for either one of the first and second transition parts, the corresponding speech unit data is selected and output from the speech unit database, and for the other, the speech unit data is selected. Unit selection means for outputting the waveform data included in the time-reversed,
A program which functions as segment connecting means for connecting and outputting waveform data included in each speech segment data output from the segment selecting means while adjusting.
コンピュータ装置を、
各種の音声素片の波形を示す波形データを含む音声素片データを記憶する音声素片データベースから、音声の合成に用いる複数の音声素片を指定する情報を時系列化した音声合成指示にしたがって音声素片データを選択し出力する手段であって、無声摩擦音から他の子音への遷移部分の音声素片が前記音声合成指示により指定されている場合には、前記無声摩擦音から無音への第1の遷移部分と無音から前記他の子音への第2の遷移部分の連結で当該音声素片を置き換え、前記第1の遷移部分については、無音から前記無声摩擦音への遷移部分に対応する音声素片データを前記音声素片データベースから選択し当該音声素片データに含まれる波形データに時間反転を施したものを出力する一方、前記第2の遷移部分については該当する音声素片データを前記素片データベースから選択して出力する素片選択手段と、
前記素片選択手段から出力される各音声素片データに含まれる波形データを調整しつつ連結して出力する素片連結手段
として機能させることを特徴とするプログラム。
Computer equipment,
From a speech unit database that stores speech unit data including waveform data indicating waveforms of various speech units, according to a speech synthesis instruction in which information specifying a plurality of speech units used for speech synthesis is time-series Means for selecting and outputting speech segment data, and when a speech segment of a transition portion from an unvoiced friction sound to another consonant is specified by the speech synthesis instruction, a second unit from the unvoiced friction sound to the silence is selected. The speech unit is replaced by the connection of the first transition part and the second transition part from silence to the other consonant, and for the first transition part, the speech corresponding to the transition part from silence to the unvoiced friction sound While selecting the segment data from the speech segment database and outputting the waveform data included in the speech segment data with time reversal, the corresponding speech element is output for the second transition portion. A segment selection means for outputting the data selected from the segment database,
A program which functions as segment connecting means for connecting and outputting waveform data included in each speech segment data output from the segment selecting means while adjusting.
JP2009003576A 2009-01-09 2009-01-09 Speech synthesizer and program Expired - Fee Related JP5157922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009003576A JP5157922B2 (en) 2009-01-09 2009-01-09 Speech synthesizer and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009003576A JP5157922B2 (en) 2009-01-09 2009-01-09 Speech synthesizer and program

Publications (2)

Publication Number Publication Date
JP2010160406A JP2010160406A (en) 2010-07-22
JP5157922B2 true JP5157922B2 (en) 2013-03-06

Family

ID=42577594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003576A Expired - Fee Related JP5157922B2 (en) 2009-01-09 2009-01-09 Speech synthesizer and program

Country Status (1)

Country Link
JP (1) JP5157922B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5915264B2 (en) * 2011-03-11 2016-05-11 ヤマハ株式会社 Speech synthesizer
JP5974436B2 (en) * 2011-08-26 2016-08-23 ヤマハ株式会社 Music generator
CN107025902B (en) * 2017-05-08 2020-10-09 腾讯音乐娱乐(深圳)有限公司 Data processing method and device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2866086B2 (en) * 1985-10-23 1999-03-08 株式会社リコー Residual driven speech synthesis method
JPH0679235B2 (en) * 1987-09-30 1994-10-05 シャープ株式会社 Speech synthesizer
JPH03149600A (en) * 1989-11-06 1991-06-26 Canon Inc Method and device for voice synthesis
JP4526979B2 (en) * 2005-03-04 2010-08-18 シャープ株式会社 Speech segment generator

Also Published As

Publication number Publication date
JP2010160406A (en) 2010-07-22

Similar Documents

Publication Publication Date Title
US10354629B2 (en) Sound control device, sound control method, and sound control program
JP6507579B2 (en) Speech synthesis method
JP6784022B2 (en) Speech synthesis method, speech synthesis control method, speech synthesis device, speech synthesis control device and program
JP2008170592A (en) Device and program for synthesizing singing voice
JP6729539B2 (en) Speech synthesis method, speech synthesis system and program
JP2013137520A (en) Music data editing device
JP6127371B2 (en) Speech synthesis apparatus and speech synthesis method
JP2011048335A (en) Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device
JP5423375B2 (en) Speech synthesizer
JP5157922B2 (en) Speech synthesizer and program
JP5176981B2 (en) Speech synthesizer and program
JP6255744B2 (en) Music display device and music display method
JP6179221B2 (en) Sound processing apparatus and sound processing method
JP6044284B2 (en) Speech synthesizer
JP6167503B2 (en) Speech synthesizer
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP5106437B2 (en) Karaoke apparatus, control method therefor, and control program therefor
JP5552797B2 (en) Speech synthesis apparatus and speech synthesis method
JP6372066B2 (en) Synthesis information management apparatus and speech synthesis apparatus
JP2020166298A (en) Voice synthesis method
JPH0227397A (en) Voice synthesizing and singing device
JP2019168620A (en) Synthetic sound generating device, method, and program
JP2005107028A (en) Timbre parameter editing apparatus and method and program therefor
JP2014002421A (en) Voice synthesizer, voice synthesis method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R150 Certificate of patent or registration of utility model

Ref document number: 5157922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees