JP2007226174A - Singing synthesizer, singing synthesizing method, and program for singing synthesis - Google Patents

Singing synthesizer, singing synthesizing method, and program for singing synthesis Download PDF

Info

Publication number
JP2007226174A
JP2007226174A JP2006171331A JP2006171331A JP2007226174A JP 2007226174 A JP2007226174 A JP 2007226174A JP 2006171331 A JP2006171331 A JP 2006171331A JP 2006171331 A JP2006171331 A JP 2006171331A JP 2007226174 A JP2007226174 A JP 2007226174A
Authority
JP
Japan
Prior art keywords
phoneme
data
extended sound
feature parameter
singing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006171331A
Other languages
Japanese (ja)
Inventor
Hidenori Kenmochi
秀紀 剱持
Yasuo Yoshioka
靖雄 吉岡
Bonada Jordi
ボナダ ジョルディ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006171331A priority Critical patent/JP2007226174A/en
Publication of JP2007226174A publication Critical patent/JP2007226174A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a singing synthesizer etc., that obtain a more natural synthesized singing voice. <P>SOLUTION: Performance data are sectioned into a transition part and a lengthened voice part and phoneme chain data from a phoneme chain template database 52 are used as they are for the transition part. For the lengthened voice part, feature parameters of transition parts disposed at both sides of the lengthened voice part are linearly interpolated and a variation component included in stationary part data from a stationary part template database is added to the interpolated feature parameter string to generate feature parameters. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、人間の歌唱音声を合成する歌唱合成装置、歌唱合成方法及び歌唱合成用プログラムに関する。   The present invention relates to a singing voice synthesizing device, a singing voice synthesis method, and a singing voice synthesis program for synthesizing human singing voice.

従来の歌唱合成装置においては、人間の実際の歌声から取得したデータをデータベースとして保存しておき、入力された演奏データ(音符、歌詞、表情等)の内容に合致したデータをデータベースより選択する。そして、この演奏データを選択されたデータに基づいてデータ変換することにより、本物の人の歌声に近い歌唱音声を合成している。   In a conventional singing voice synthesizing apparatus, data acquired from an actual human singing voice is stored as a database, and data matching the contents of inputted performance data (notes, lyrics, facial expressions, etc.) is selected from the database. Then, the performance data is converted based on the selected data, thereby synthesizing a singing voice close to a real person's singing voice.

しかしながら、従来の歌唱合成装置においては、例えば「saita(咲いた)」と歌わせる場合であっても、音韻と音韻の間で音韻が自然に移り変わっていかず、合成される歌唱音声が不自然な音響をもち、場合によっては何を歌っているのか判別できないようなこともあった。    However, in the conventional synthesizer, even if, for example, “saita” is sung, the phoneme does not move naturally between phonemes, and the synthesized singing voice is unnatural. There was a sound, and in some cases it was impossible to determine what was being sung.

本発明は、この問題を解決することを目的とし、次のような点に着目してなされたものである。すなわち、歌唱音声においては、例えば「saita(咲いた)」と歌う場合であっても、個々の音韻(「sa」「i」「ta」)が区切って発音されるのではなく、「[#s]sa(a)・[ai]・i・(i)・[it]・ta・(a)」(#は無音を表わす)のように、各音韻間に伸ばし音部分と遷移部分が挿入されて発音がなされるのが通常である。この「saita」の例の場合、[#s] [ai]、[it]が遷移部分であり、(a)(i)(a)が伸ばし音部分である。このように、歌唱音は遷移部分や伸ばし音部分から成り立っている。このため、MIDI情報などの演奏データから歌唱音声を合成する場合においても、遷移部分や伸ばし音部分をいかに本物らしく生成するかが重要である。そこで、本発明者らは、この遷移部分を自然に再現することが自然な合成歌唱を出力するために必要であると考え、本発明をするに至ったものである。   The present invention aims to solve this problem and has been made paying attention to the following points. That is, in the singing voice, for example, even when singing “saita”, individual phonemes (“sa”, “i”, “ta”) are not pronounced separately, but “[## s] sa (a), [ai], i, (i), [it], ta, (a) "(# represents silence), and the extended sound part and the transition part are inserted between each phoneme. Usually, pronunciation is made. In the example of “saita”, [#s] [ai] and [it] are transition parts, and (a), (i), and (a) are extended sound parts. Thus, the singing sound is composed of a transition portion and a stretched sound portion. For this reason, even when synthesizing a singing voice from performance data such as MIDI information, it is important how to generate the transition portion and the extended sound portion as genuine. Therefore, the present inventors have considered that it is necessary to reproduce this transition portion naturally in order to output a natural synthesized song, and have come to the present invention.

本出願の第1の発明に係る歌唱合成装置は、歌唱を合成するための歌唱情報を記憶する記憶部と、歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶する音韻データベースと、前記歌唱情報に基づき、前記音韻データベースに記憶されたデータを選択する選択部と、前記選択部で選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力部と、前記選択部で選択された前記定常部分データに係る伸ばし音部分に先行する前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データを補間して該伸ばし音部分の特徴パラメータを生成して出力する伸ばし音部分特徴パラメータ出力部とを備えたことを特徴とする。   The singing voice synthesizing device according to the first invention of the present application includes a storage unit that stores singing information for synthesizing a song, and a transition part including a phoneme chain that transfers singing data from one phoneme to another phoneme. A phonological database for storing the phoneme chain data of the transition portion and the steady portion data of the extended sound portion, distinguished from the extended sound portion including the steady portion in which one phoneme is stably pronounced, and the singing information A selection unit that selects data stored in the phoneme database, a transition part feature parameter output unit that extracts and outputs a feature parameter of the transition part from the phoneme chain data selected by the selection unit, The phoneme chain data preceding the extended sound part related to the stationary part data selected by the selection unit, and the phoneme chain data of the transition part following the extended sound part. Get the door, by interpolating the two phoneme data, characterized in that a sound part, wherein the parameter output unit stretched generates and outputs the feature parameters of the long sound part.

前記伸ばし音部分特徴パラメータ出力部は、前記2つの音素連鎖データを保管して取得した補間値に前記定常部分データの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成して出力するように構成することができる。前記音韻データベース内の音素連鎖データは、前記音素連鎖に係る特徴パラメータ及び非調和成分を含んでおり、前記遷移部分特徴パラメータ出力部は前記非調和成分を分離するように構成することができる。同様に、前記音韻データベース内の定常部分データは、前記定常部分に係る特徴パラメータ及び非調和成分を含んでおり、前記伸ばし音部分特徴パラメータ出力部は前記非調和成分を分離するように構成することができる。前記特徴パラメータ及び非調和成分は、例えば音声をSMS分析して得ることができる。   The extended sound part feature parameter output unit generates and outputs a feature parameter of the extended sound part by adding a fluctuation component of the steady part data to an interpolation value obtained by storing and acquiring the two phoneme chain data. It can be constituted as follows. The phoneme chain data in the phoneme database includes feature parameters and anharmonic components related to the phoneme chain, and the transition partial feature parameter output unit can be configured to separate the anharmonic components. Similarly, the stationary part data in the phonological database includes feature parameters and anharmonic components related to the stationary part, and the extended sound part feature parameter output unit is configured to separate the anharmonic components. Can do. The characteristic parameter and the anharmonic component can be obtained by, for example, SMS analysis of speech.

前記第1の発明において、前記歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき前記遷移部分の特徴パラメータ及び前記伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正手段を更に備えるようにすることができる。この場合、前記歌唱情報がピッチ情報を含み、前記特徴パラメータ補正手段は、少なくとも前記ダイナミクスに相当する振幅値を計算する第1振幅計算手段と、前記遷移部分の特徴パラメータ又は前記伸ばし音部分の特徴パラメータ及び前記ピッチ情報に相当する振幅値を計算する第2振幅計算手段とを備え、前記第1振幅計算手段の出力と前記第2振幅計算手段の出力との差に基づき前記特徴パラメータを補正するようにすることができる。さらに、前記第1振幅計算手段は、前記ダイナミクスと前記振幅値とを関連付けて記憶するテーブルを備えているようにすることもできる。加えて、前記テーブルは、前記ダイナミクスと前記振幅値との対応関係を音素毎に異ならせているようにすることもできる。また、前記テーブルは、前記ダイナミクスと前記振幅値との対応関係を周波数毎に異ならせているようにすることもできる。   In the first invention, the singing information includes dynamics information, and further includes characteristic parameter correcting means for correcting the characteristic parameter of the transition part and the characteristic parameter of the extended sound part based on the dynamics information. it can. In this case, the singing information includes pitch information, and the feature parameter correction means includes at least first amplitude calculation means for calculating an amplitude value corresponding to the dynamics, and a feature parameter of the transition portion or a feature of the extended sound portion. A second amplitude calculating means for calculating an amplitude value corresponding to the parameter and the pitch information, and correcting the characteristic parameter based on a difference between an output of the first amplitude calculating means and an output of the second amplitude calculating means. Can be. Furthermore, the first amplitude calculation means may include a table that stores the dynamics and the amplitude value in association with each other. In addition, the table may be configured such that the correspondence between the dynamics and the amplitude value is different for each phoneme. Further, the table may be configured such that a correspondence relationship between the dynamics and the amplitude value is different for each frequency.

この第1の発明において、前記音韻データベースは、音素連鎖データと前記定常部分データをそれぞれピッチに対応させて記憶しており、前記選択部は、同じ音素連鎖の特徴パラメータをピッチごとに異ならせて記憶しており、前記選択部は、入力されるピッチ情報に基づき対応する前記音素連鎖データと前記定常部分データを選択するようにしてもよい。また、この第1の発明において、前記音韻データベースは、前記音素連鎖データと前記定常部分データに加えて表情データを記憶しており、前記選択部は、入力される前記歌唱情報中の前記表情情報に基づき前記表情データを選択するようにしてもよい。   In the first invention, the phoneme database stores phoneme chain data and the stationary part data in association with pitches, and the selection unit changes the characteristic parameters of the same phoneme chain for each pitch. The selection unit may select the corresponding phoneme chain data and the stationary partial data based on the input pitch information. In the first aspect of the invention, the phoneme database stores facial expression data in addition to the phoneme chain data and the stationary part data, and the selection unit is configured to input the facial expression information in the input singing information. The facial expression data may be selected based on the above.

本出願の第2の発明に係る歌唱合成方法は、歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶するステップと、歌唱を合成するための歌唱情報を入力する入力ステップと、前記歌唱情報に基づき、前記音素連鎖データ又は前記定常部分データを選択する選択ステップと、前記選択ステップで選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力ステップと、前記選択ステップで選択された前記定常部分データに係る前記伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データを補間して該伸ばし音部分の特徴パラメータを生成する伸ばし音部分特徴パラメータ出力ステップとを備えたことを特徴とする。   The singing synthesis method according to the second invention of the present application includes a transition part including a phoneme chain for transferring singing data from one phoneme to another and a stationary part in which one phoneme is stably generated. A step of storing the phoneme chain data of the transition portion and the steady portion data of the extended portion, an input step of inputting singing information for synthesizing the song, and the singing information A selection step of selecting the phoneme chain data or the stationary part data, and a transition part feature parameter output step of extracting and outputting a feature parameter of the transition part from the phoneme chain data selected in the selection step; The phoneme chain data of the transition part preceding the extended sound part related to the stationary part data selected in the selection step, and the extension An extended sound part feature parameter output step of obtaining the phoneme chain data of the transition part following the part and generating the feature parameters of the extended sound part by interpolating the two phoneme chain data And

前記第2の発明において、前記伸ばし音部分特徴パラメータ出力ステップは、前記2つの音素連鎖データを補間して取得した補間値に前記定常部分データの変動成分を加算することにより前記伸ばし音部分の特徴パラメータを生成して出力するようにすることができる。また、前記第2の発明において、前記歌唱情報はダイナミクス情報を含み、このダイナミクス情報に基づき前記遷移部分の特徴パラメータ及び前記伸ばし音部分の特徴パラメータを補正する特徴パラメータ補正ステップを更に備えるようにすることができる。   In the second invention, the extended sound part feature parameter output step adds the fluctuation component of the steady part data to an interpolated value obtained by interpolating the two phoneme chain data. Parameters can be generated and output. In the second invention, the singing information includes dynamics information, and further includes a characteristic parameter correction step of correcting the characteristic parameter of the transition part and the characteristic parameter of the extended sound part based on the dynamics information. be able to.

なお、この第2の発明に係る歌唱合成方法は、コンピュータプログラムによりコンピュータにより実行させるようにしてもよい。   Note that the singing synthesis method according to the second invention may be executed by a computer by a computer program.

(本発明の原理説明)
本発明の原理を、図7及び図8を用い、本出願人が先に出願した歌唱合成装置(特願2001-67258号)との対比することにより説明する。特願2001-67258号に記載の歌唱合成装置による歌唱合成装置の原理を、図7に示している。この歌唱合成装置は、データベースとして、ある時刻1点における音韻の特徴パラメータのデータ(Timbreテンプレート)を記憶させたTimbreテンプレートデータベース51と、伸ばし音中の特徴パラメータの微小な変化(ゆらぎ)のデータ(定常部分(stationary)テンプレート)を記憶させた定常部分テンプレートデータベース53と、音韻から音韻への遷移部分の特徴パラメータの変化を示すデータ(音素連鎖(articulation)テンプレート)を記憶させた音素連鎖テンプレートデータベース52とを備えている。これらのテンプレートを次のようにして適用することにより、特徴パラメータを生成している。
(Principle of the present invention)
The principle of the present invention will be described using FIG. 7 and FIG. 8 by comparing with the singing synthesizer (Japanese Patent Application No. 2001-67258) previously filed by the present applicant. FIG. 7 shows the principle of the singing voice synthesizing apparatus described in Japanese Patent Application No. 2001-67258. This singing voice synthesizing apparatus includes a Timbre template database 51 that stores phonological feature parameter data (Timbre template) at one point in time as a database, and minute change (fluctuation) data of feature parameters in the extended sound ( A stationary part template database 53 in which stationary parts (stationary templates) are stored, and a phoneme chain template database 52 in which data (phonemic chain (articulation) template) indicating changes in the characteristic parameters of the transition part from phonemes to phonemes is stored. And. The feature parameters are generated by applying these templates as follows.

すなわち、伸ばし音部分の合成は、Timbreテンプレートから得られた特徴パラメータに、定常部分テンプレートに含まれる変動分を加算することにより行う。一方、遷移部分の合成は、同様に特徴パラメータに音素連鎖テンプレートに含まれる変動分を加算することにより行うが、加算対象となる特徴パラメータは、場合によって異なる。例えば当該遷移部分の前後の音韻がいずれも有声音である場合には、前部の音韻の特徴パラメータと、後部の音韻の特徴パラメータを直線補間したものに、音素連鎖テンプレートに含まれる変動分を加算する。また、前部の音韻が有声音で後部の音韻が無音の場合には、前部の音韻の特徴パラメータに、音素連鎖テンプレートに含まれる変動分を加算する。また、前部の音韻が無音で後部の音韻が有声音の場合には、後部の音韻の特徴パラメータに、音素連鎖テンプレートに含まれる変動分を加算する。このように、特願2001-67258号に開示の装置では、Timbreテンプレートから生成された特徴パラメータを基準とし、このTimbre部分の特徴パラメータに合うように音素連鎖部分の特徴パラメータに変更を加えることにより歌唱合成を行っていた。   That is, the synthesis of the extended sound part is performed by adding the variation included in the stationary part template to the feature parameter obtained from the Timbre template. On the other hand, the transition part is synthesized by adding the variation included in the phoneme chain template to the feature parameter, but the feature parameter to be added differs depending on the case. For example, if the phonemes before and after the transition part are both voiced sounds, the variation included in the phoneme chain template is obtained by linearly interpolating the feature parameters of the front phoneme and the feature parameters of the rear phoneme. to add. When the front phoneme is voiced and the rear phoneme is silent, the variation included in the phoneme chain template is added to the feature parameter of the front phoneme. Further, when the front phoneme is silent and the rear phoneme is voiced, the variation included in the phoneme chain template is added to the feature parameter of the rear phoneme. As described above, in the apparatus disclosed in Japanese Patent Application No. 2001-67258, the feature parameter generated from the Timbre template is used as a reference, and the feature parameter of the phoneme chain portion is changed to match the feature parameter of the Timbre portion. Singing was performed.

特願2001-67258号に開示の装置では、合成される歌唱音声に不自然さが生じることがあった。その原因としては次のことが挙げられる。・音素連鎖テンプレートに変更を加えているため、元来その遷移部分が持つ特徴パラメータの変化と異なってしまうこと。・伸ばし音部分の特徴パラメータも、をTimbreテンプレートから生成された特徴パラメータを基準とし、このTimbreテンプレートの特徴パラメータに定常部分テンプレートの変動分を加算して計算しているため、伸ばし音部分の前の音韻がどのような音韻であっても同じ音韻となってしまっていたこと。要するに、この特願2001−67258の装置では、Timbreテンプレートの特徴パラメータという、歌唱全体からすると一部分にしか過ぎない部分を基準に伸ばし音部分や遷移部分の特徴パラメータを合わせ込んでいたことから、合成された歌唱が不自然になることがあった。   In the device disclosed in Japanese Patent Application No. 2001-67258, unnaturalness may occur in the synthesized singing voice. The reason is as follows.・ Because a change is made to the phoneme chain template, it is different from the change of the characteristic parameter that the transition part originally has. The feature parameter of the extended sound part is also calculated based on the feature parameter generated from the Timbre template, and the variation of the stationary part template is added to the feature parameter of this Timbre template. The phoneme of any phoneme was the same phoneme. In short, in the device of this Japanese Patent Application 2001-67258, since the characteristic parameters of the Timbre template, which is only a part of the entire singing, are combined with the characteristic parameters of the extended sound part and the transition part, it is synthesized. There was a case where the singing was unnatural.

これに対し、本発明では、図8に示すように、音素連鎖テンプレートデータベース52と定常部分テンプレートデータベース53のみを利用し、Timbreテンプレートは基本的には不要である。そして、演奏データを、遷移部分と伸ばし音部分とに区切った後、音素連鎖テンプレートは遷移部分においてそのまま用いる。このため、歌唱の重要な部分を占める遷移部分の歌唱が自然に聞こえ、合成歌唱の品質が高まっている。また、伸ばし音部分についても、その伸ばし音部分の両隣に位置する遷移部分の特徴パラメータを直線補間すると共に、補間された特徴パラメータ列に定常部分テンプレートに含まれる変動成分を加算することにより特徴パラメータを生成する。テンプレートに変換を加えないそのままのデータに基づき補間を行うため、歌唱の不自然さは生じない。   On the other hand, in the present invention, as shown in FIG. 8, only the phoneme chain template database 52 and the stationary partial template database 53 are used, and the Timbre template is basically unnecessary. Then, after the performance data is divided into the transition portion and the extended sound portion, the phoneme chain template is used as it is in the transition portion. For this reason, the singing of the transition part which occupies the important part of a song can be heard naturally, and the quality of a synthetic song is increasing. In addition, for the extended sound part, the characteristic parameter of the transition part located on both sides of the extended sound part is linearly interpolated, and the characteristic parameter is added by adding the fluctuation component included in the stationary part template to the interpolated characteristic parameter string. Is generated. Since the interpolation is performed based on the data as it is without converting the template, unnatural singing does not occur.

本発明によれば、遷移部分の合成歌唱音声の自然性が高く保たれ、これにより、合成歌唱音声の自然性を高めることができる。   According to the present invention, the naturalness of the synthetic singing voice of the transition portion is kept high, and thereby the naturalness of the synthetic singing voice can be enhanced.

〔第1の実施の形態〕
図1は、第1の実施の形態に係る歌唱合成装置の構成を示す機能ブロック図である。歌唱合成装置は、例えば一般のパーソナルコンピュータにより実現することができ、図1に示す各ブロックの機能は、パーソナルコンピュータ内部のCPUやRAM、ROMなどにより達成され得る。DSPやロジック回路によって構成することも可能である。音韻データベース10は、演奏データに基づいて合成音を合成するためのデータを保持している。この音韻データベース10の作成例を図2により説明する。
[First Embodiment]
FIG. 1 is a functional block diagram showing the configuration of the singing voice synthesizing apparatus according to the first embodiment. The singing voice synthesizing apparatus can be realized by, for example, a general personal computer, and the function of each block shown in FIG. 1 can be achieved by a CPU, RAM, ROM, etc. in the personal computer. It can also be configured by a DSP or a logic circuit. The phoneme database 10 holds data for synthesizing synthesized sounds based on performance data. An example of creating the phoneme database 10 will be described with reference to FIG.

まず図2(a)に示すように、実際に録音或いは取得した歌唱データ等の音声信号をSMS(spectral modeling synthesis)分析手段31により、調和成分(正弦波成分)と非調和成分に分離する。SMS分析の代わりに、LPC(Linear Predictive Coding)等の他の分析手法を用いてもよい。次に、音素切り分け手段32により、音素切り分け情報に基づき、音声信号を音素ごとに切り分ける。音素切り分け情報は、例えば人間が音声信号の波形を見ながら所定のスイッチ動作を行うことにより与えるのが通常である。   First, as shown in FIG. 2A, an audio signal such as singing data actually recorded or acquired is separated into a harmonic component (sinusoidal component) and an anharmonic component by SMS (spectral modeling synthesis) analysis means 31. Instead of the SMS analysis, another analysis method such as LPC (Linear Predictive Coding) may be used. Next, the phoneme segmenting means 32 segments the speech signal for each phoneme based on the phoneme segmentation information. The phoneme segmentation information is usually given by, for example, a human performing a predetermined switch operation while viewing the waveform of the audio signal.

そして、音素ごとに切り分けられた音声信号の調和成分から、特徴パラメータ抽出手段33により特徴パラメータが抽出される。特徴パラメータには、励起波形エンベロープ、励起レゾナンス、フォルマント周波数、フォルマントバンド幅、フォルマント強度、差分スペクトルなどがある。   Then, feature parameters are extracted by the feature parameter extraction means 33 from the harmonic components of the audio signal cut out for each phoneme. The characteristic parameters include an excitation waveform envelope, excitation resonance, formant frequency, formant bandwidth, formant intensity, difference spectrum, and the like.

励起波形エンベロープ(ExcitationCurve)は、声帯波形の大きさ(dB)を表わすEgain、声帯波形のスペクトルエンベロープの傾きを表わすEslopeDepth、声帯波形のスペクトルエンベロープの最大値から最小値への深さ(dB)を表わすEslopeの3つのパラメータによって構成されており、以下の式[数1]で表わすことが出来る。
(式1)Excitation Curve (f)=Egain+EslopeDepth*(exp(-Eslope*f)-1)
励起レゾナンスは、胸部による共鳴を表わす。中心周波数(ERFreq)、バンド幅(ERBW)、アンプリチュード(ERAmp)の3つのパラメータにより構成され、2次フィルター特性を有している。
The excitation waveform envelope (ExcitationCurve) is the Egain that indicates the size (dB) of the vocal cord waveform, the EslopeDepth that indicates the slope of the spectrum envelope of the vocal cord waveform, and the depth (dB) from the maximum value to the minimum value of the spectral envelope of the vocal cord waveform. It consists of three parameters of Eslope to be expressed, and can be expressed by the following formula [Equation 1].
(Formula 1) Excitation Curve (f) = Egain + EslopeDepth * (exp (-Eslope * f) -1)
Excited resonance represents resonance by the chest. It consists of three parameters: center frequency (ERFreq), bandwidth (ERBW), and amplitude (ERAmp), and has secondary filter characteristics.

フォルマントは、1から12個のレゾナンスを組み合わせることにより声道による共鳴を表わす。中心周波数(FormantFreqi、iは1〜12の整数)、バンド幅(FormantBWi、iは1〜12の整数)、アンプリチュード(FormantAmpi、iは1〜12の整数)の3つのパラメータにより構成される。   Formants represent resonances due to the vocal tract by combining 1 to 12 resonances. It consists of three parameters: center frequency (FormantFreqi, i is an integer from 1 to 12), bandwidth (FormantBWi, i is an integer from 1 to 12), and amplitude (FormantAmpi, i is an integer from 1 to 12).

差分スペクトルは、上記の励起波形エンベロープ、励起レゾナンス、フォルマントの3つで表現することの出来ない元の調和成分との差分のスペクトルを持つ特徴パラメータである。   The difference spectrum is a characteristic parameter having a spectrum of the difference from the original harmonic component that cannot be expressed by the above-described excitation waveform envelope, excitation resonance, and formant.

この特徴パラメータを、音韻名と対応させて音韻データベース10に記憶させる。非調和成分も、同様にして音韻名対応させて音韻データベース10に記憶させる。この音韻データベース10では、図2(b)に示すように、音素連鎖データと定常部分データとに分けて記憶される。以下では、この音素連鎖データと定常部分データとを総称して「音声素片データ」と称する。   This feature parameter is stored in the phoneme database 10 in association with the phoneme name. Similarly, the anharmonic component is stored in the phoneme database 10 in association with the phoneme name. In the phoneme database 10, as shown in FIG. 2B, phoneme chain data and stationary partial data are stored separately. Hereinafter, the phoneme chain data and the stationary partial data are collectively referred to as “speech segment data”.

音素連鎖データは、先頭音素名、後続音素名、特徴パラメータ及び非調和成分を対応付けたデータ列である。一方、定常部分データは、1つの音韻名と特徴パラメータ列と非調和成分とを対応付けたデータ列である。   The phoneme chain data is a data string in which the head phoneme name, the subsequent phoneme name, the feature parameter, and the anharmonic component are associated with each other. On the other hand, the stationary partial data is a data string in which one phoneme name, a characteristic parameter string, and an anharmonic component are associated with each other.

図1に戻って、11は演奏データを保持するための演奏データ保持部である。演奏データは、例えば音符、歌詞、ピッチベンド、ダイナミクス等の情報を含んだMIDI情報である。音声素片選択部12は、演奏データ保持部11に保持される演奏データの入力をフレーム単位で受け付けるとともに(以下、この1単位をフレームデータという)、入力されたフレームデータ中の歌詞データに対応する音声素片データを音韻データベース10から選択して読み出す機能を有する。   Returning to FIG. 1, reference numeral 11 denotes a performance data holding unit for holding performance data. The performance data is MIDI information including information such as notes, lyrics, pitch bends, dynamics, and the like. The speech element selection unit 12 accepts input of performance data held in the performance data holding unit 11 in units of frames (hereinafter, this one unit is referred to as frame data) and corresponds to lyrics data in the input frame data. A speech segment data to be selected from the phoneme database 10 and read out.

先行音素連鎖データ保持部13、後方音素連鎖データ保持部14は、定常部分データを処理するために使用されるものである。先行音素連鎖データ保持部13は、処理すべき定常部分データより先行する音素連鎖データを保持するものであり、一方、後方音素連鎖データ保持部14は、処理すべき定常部分データより後方の音素連鎖データを保持するものである。   The preceding phoneme chain data holding unit 13 and the rear phoneme chain data holding unit 14 are used for processing the stationary partial data. The preceding phoneme chain data holding unit 13 holds phoneme chain data preceding the stationary partial data to be processed, while the rear phoneme chain data holding unit 14 is a phoneme chain behind the stationary partial data to be processed. Holds data.

特徴パラメータ補間部15は、先行音素連鎖データ保持部13に保持された音素連鎖データの最終フレームの特徴パラメータと、後方音素連鎖データ保持部14に保持された音素連鎖データの最初のフレームの特徴パラメータとを読出し、タイマ27の示す時刻に対応するように特徴パラメータを時間的に補間する。   The feature parameter interpolation unit 15 includes the feature parameter of the last frame of the phoneme chain data held in the preceding phoneme chain data holding unit 13 and the feature parameter of the first frame of the phoneme chain data held in the rear phoneme chain data holding unit 14. And the characteristic parameters are interpolated in time so as to correspond to the time indicated by the timer 27.

定常部分データ保持部16は、音声素片選択部12により読み出された音声素片データのうち、定常部分データを一時保持する。一方、音素連鎖データ保持部17は、音素連鎖データを一時保持する。   The steady part data holding unit 16 temporarily holds the steady part data of the speech unit data read by the speech unit selection unit 12. On the other hand, the phoneme chain data holding unit 17 temporarily holds phoneme chain data.

特徴パラメータ変動抽出部18は、定常部分データ保持部16に保持された定常部分データを読み出してその特徴パラメータの変動(ゆらぎ)を抽出し、変動成分として出力する機能を有する。加算部K1は、特徴パラメータ補間部15の出力と特徴パラメータ変動抽出部18の出力を加算して、伸ばし音部分の調和成分データを出力する部分である。フレーム読出し部19は、音素連鎖データ保持部17に保持された音素連鎖データを、タイマ27に示す時刻に従ってフレームデータとして読出し、特徴パラメータと非調和成分とに分けて出力する部分である。   The feature parameter fluctuation extracting unit 18 has a function of reading out the stationary part data held in the stationary part data holding unit 16, extracting the fluctuation (fluctuation) of the characteristic parameter, and outputting it as a fluctuation component. The addition unit K1 is a part that adds the output of the feature parameter interpolation unit 15 and the output of the feature parameter fluctuation extraction unit 18 and outputs the harmonic component data of the extended sound part. The frame reading unit 19 is a part that reads the phoneme chain data held in the phoneme chain data holding unit 17 as frame data in accordance with the time indicated by the timer 27, and outputs it as feature parameters and anharmonic components.

ピッチ決定部20は、フレームデータ中の音符データに基づき、最終的に合成する合成音のピッチを決定する部分である。また特徴パラメータ補正部21は、加算器K1から出力された伸ばし音部分の特徴パラメータ、及びフレーム読出し部19から出力された遷移部分の特徴パラメータを、演奏データ中に含まれるダイナミクス情報等に基づいて補正する部分である。特徴パラメータ補正部21の前段にはスイッチSW1が設けられ、伸ばし音部分の特徴パラメータと遷移部分の特徴パラメータとを選択的に特徴パラメータ補正部に入力するようになっている。この特徴パラメータ補正部21での詳しい処理内容は後述する。スイッチSW2は、定常部分データ保持部16から読み出された伸ばし音部分の非調和成分と、フレーム読出し部19から読み出された遷移部分の非調和成分を切り替えて出力する。   The pitch determining unit 20 is a part that determines the pitch of the synthesized sound to be finally synthesized based on the note data in the frame data. Further, the feature parameter correction unit 21 calculates the feature parameter of the extended sound portion output from the adder K1 and the feature parameter of the transition portion output from the frame reading unit 19 based on the dynamics information included in the performance data. This is the part to be corrected. A switch SW1 is provided in the preceding stage of the feature parameter correction unit 21, and the feature parameter of the extended sound portion and the feature parameter of the transition portion are selectively input to the feature parameter correction unit. Detailed processing contents in the feature parameter correction unit 21 will be described later. The switch SW2 switches and outputs the anharmonic component of the extended sound portion read from the steady part data holding unit 16 and the anharmonic component of the transition portion read from the frame reading unit 19.

倍音列生成部22は、決定したピッチに従い、フォルマント合成を行うための倍音列を周波数軸上に生成する部分である。スペクトル包絡生成部23は、特徴パラメータ補正部21で補正された補正後の特徴パラメータに従って、スペクトル包絡を生成する部分である。   The harmonic sequence generator 22 is a portion that generates a harmonic sequence on the frequency axis for performing formant synthesis in accordance with the determined pitch. The spectrum envelope generation unit 23 is a part that generates a spectrum envelope in accordance with the corrected feature parameter corrected by the feature parameter correction unit 21.

倍音振幅・位相計算部24は、スペクトル包絡生成部23で生成したスペクトル包絡に従い、倍音列生成部22で生成された各倍音の振幅及び位相を計算する部分である。加算器K2は、倍音振幅・位相計算部24の出力としての調和成分と、スイッチSW2から出力された非調和成分とを加算する。逆FFT部25は、加算器K2の出力値を逆高速フーリエ変換して、周波数表現であった信号を時間軸表現の信号に変換するものである。重ね合せ部26は、時系列順に処理される歌詞データについて次々に得られる信号をその時系列に沿った形で重ね合わせることにより、合成歌唱音声を出力するものである。   The overtone amplitude / phase calculation unit 24 is a part that calculates the amplitude and phase of each overtone generated by the overtone string generation unit 22 in accordance with the spectrum envelope generated by the spectrum envelope generation unit 23. The adder K2 adds the harmonic component as the output of the harmonic overtone amplitude / phase calculation unit 24 and the anharmonic component output from the switch SW2. The inverse FFT unit 25 performs inverse fast Fourier transform on the output value of the adder K2, and converts a signal that is a frequency expression into a signal that is a time axis expression. The superimposing unit 26 outputs synthesized singing voice by superimposing signals obtained one after another on the lyrics data processed in time series order in a form along the time series.

特徴パラメータ補正部21の詳細について図3に基づいて説明する。特徴パラメータ補正部21は、振幅決定手段41を備えている。この振幅決定手段41は、ダイナミクス−振幅変換テーブルTdaを参照して演奏データ保持部11から入力されるダイナミクス情報に相当する所望の振幅値A1を出力する。また、スペクトル包絡生成手段42は、スイッチSW1から出力された特徴パラメータに基づき、スペクトル包絡を生成する部分である。   Details of the characteristic parameter correction unit 21 will be described with reference to FIG. The feature parameter correction unit 21 includes amplitude determination means 41. The amplitude determination means 41 outputs a desired amplitude value A1 corresponding to the dynamics information input from the performance data holding unit 11 with reference to the dynamics-amplitude conversion table Tda. The spectrum envelope generation means 42 is a part that generates a spectrum envelope based on the feature parameter output from the switch SW1.

倍音列生成手段43は、ピッチ決定部20で決定されたピッチに基づいて倍音列を生成する。振幅計算手段44は、生成されたスペクトル包絡及び倍音に対応する振幅A2を計算する。振幅の計算は、例えば逆FFT等により実行することができる。加算器K3は、振幅決定手段41で決定された所望の振幅値A1と、振幅計算手段44で計算された振幅値A2との差を出力する。ゲイン補正手段45は、この差に基づき、振幅値の補正量を計算するとともに、このゲイン補正量に従って特徴パラメータを補正する。これにより、所望の振幅に合致する新たな特徴パラメータが得られる。なお、図3では、テーブルTdaに基づき、ダイナミクスのみに基づいて振幅を決定しているが、これに加えて、音素の種類も考慮して振幅を決定するようなテーブルを採用してもよい。すなわち、同じダイナミクスであっても音素が異なる場合には、異なる振幅値を与えるようなテーブルを採用してもよい。同様に、ダイナミクスに加えて周波数を考慮して振幅を決定するようなテーブルを採用してもよい。   The harmonic string generation unit 43 generates a harmonic string based on the pitch determined by the pitch determination unit 20. The amplitude calculation means 44 calculates the amplitude A2 corresponding to the generated spectral envelope and overtone. The calculation of the amplitude can be executed by, for example, inverse FFT. The adder K3 outputs the difference between the desired amplitude value A1 determined by the amplitude determining means 41 and the amplitude value A2 calculated by the amplitude calculating means 44. Based on this difference, the gain correction unit 45 calculates a correction amount of the amplitude value, and corrects the characteristic parameter according to the gain correction amount. Thereby, a new feature parameter matching the desired amplitude is obtained. In FIG. 3, the amplitude is determined based only on the dynamics based on the table Tda. However, in addition to this, a table may be adopted in which the amplitude is determined in consideration of the type of phoneme. That is, even if the dynamics are the same, a table that gives different amplitude values may be adopted when phonemes are different. Similarly, a table that determines the amplitude in consideration of the frequency in addition to the dynamics may be employed.

次に、この第1の実施の形態に係る歌唱合成装置の作用を、図4に示すフローチャートを参照しつつ説明する。演奏データ保持部11は、時系列順にフレームデータを出力する。遷移部分と伸ばし音部分とが交互に現れ、遷移部分と伸ばし音部分とでは処理のされ方が異なる。   Next, the operation of the singing voice synthesizing apparatus according to the first embodiment will be described with reference to the flowchart shown in FIG. The performance data holding unit 11 outputs frame data in chronological order. Transition portions and extended sound portions appear alternately, and the transition portion and the extended sound portion are processed differently.

演奏データ保持部11よりフレームデータが入力されると(S1)、音声素片選択部12において、そのフレームデータが伸ばし音部分に関するものか、音韻遷移部分に関するものかが判断される(S2)。伸ばし音部分である場合には(YES)、先行音素連鎖データ保持部13、後方音素連鎖データ保持部14、定常部分データ保持部16に、それぞれ先行音素連鎖データ、後方音素連鎖データ、定常部分データが転送される(S3)。   When frame data is input from the performance data holding unit 11 (S1), the speech segment selection unit 12 determines whether the frame data relates to the extended sound part or the phoneme transition part (S2). If it is the extended sound part (YES), the preceding phoneme chain data holding part 13, the rear phoneme chain data holding part 14 and the stationary part data holding part 16 are respectively preceded by the preceding phoneme chain data, the rear phoneme chain data, and the stationary part data. Is transferred (S3).

続いて、特徴パラメータ補間部15が、先行音素連鎖データ保持部13に保持された先行音素連鎖データの最終フレームの特徴パラメータを取り出すと共に、後方音素連鎖データ保持部14に保持された後方音素連鎖データの最初のフレームの特徴パラメータを取り出し、この2つの特徴パラメータを直線補間することにより、処理中の伸ばし音部分の特徴パラメータを生成する(S4)。   Subsequently, the feature parameter interpolation unit 15 extracts the feature parameter of the last frame of the preceding phoneme chain data held in the preceding phoneme chain data holding unit 13 and the rear phoneme chain data held in the rear phoneme chain data holding unit 14. The feature parameters of the first frame are extracted, and the feature parameters of the extended sound portion being processed are generated by linearly interpolating these two feature parameters (S4).

また、定常部分データ保持部16に保持された定常部分データの特徴パラメータが、特徴パラメータ変動抽出部18に供給され、該定常部分の特徴パラメータの変動成分が抽出される(S5)。この変動成分が、加算器K1において特徴パラメータ補間部15から出力された特徴パラメータと加算される(S6)。この加算値が伸ばし音部分の特徴パラメータとしてスイッチSW1を介して特徴パラメータ補正部21に出力され、特徴パラメータの補正が実行される(S9)。一方、定常部分データ保持部16に保持された定常部分データの非調和成分は、スイッチSW2を介して加算器K2に供給される。スペクトル包絡生成部23は、この補正後の特徴パラメータについてのスペクトル包絡を生成する。倍音振幅・位相計算部24は、スペクトル包絡生成部23で生成したスペクトル包絡に従い、倍音列生成部22で生成された各倍音の振幅及び位相を計算する。この計算結果が、処理中の伸ばし音部のパラメータ列(調和成分)として加算器K2に出力される。   The feature parameter of the steady part data held in the steady part data holding unit 16 is supplied to the feature parameter fluctuation extracting unit 18, and the fluctuation component of the feature parameter of the steady part is extracted (S5). This fluctuation component is added to the feature parameter output from the feature parameter interpolation unit 15 in the adder K1 (S6). This added value is output to the feature parameter correction unit 21 via the switch SW1 as the feature parameter of the extended sound portion, and the feature parameter is corrected (S9). On the other hand, the anharmonic component of the steady part data held in the steady part data holding unit 16 is supplied to the adder K2 via the switch SW2. The spectrum envelope generation unit 23 generates a spectrum envelope for the corrected characteristic parameter. The harmonic amplitude / phase calculation unit 24 calculates the amplitude and phase of each harmonic generated by the harmonic string generation unit 22 in accordance with the spectrum envelope generated by the spectrum envelope generation unit 23. This calculation result is output to the adder K2 as a parameter string (harmonic component) of the extended sound part being processed.

一方、S2において、取得されたフレームデータが遷移部分のものである(NO)と判定された場合には、その遷移部分の音素連鎖データが、音素連鎖データ保持部17により保持される(S7)。次に、フレーム読出し部19が、音素連鎖データ保持部17に保持された音素連鎖データを、タイマ27に示す時刻に従ってフレームデータとして読出し、特徴パラメータと非調和成分とに分けて出力する。特徴パラメータの方は特徴パラメータ補正部21に向けて出力され、非調和成分は加算器K2に向けて出力される。この遷移部の特徴パラメータは、特徴パラメータ補正部21、スペクトル包絡生成部23、倍音振幅・位相計算部24等で上述の伸ばし音の特徴パラメータと同様の処理を受ける。   On the other hand, if it is determined in S2 that the acquired frame data is of the transition part (NO), the phoneme chain data of the transition part is held by the phoneme chain data holding unit 17 (S7). . Next, the frame reading unit 19 reads the phoneme chain data held in the phoneme chain data holding unit 17 as frame data in accordance with the time indicated by the timer 27, and outputs it as feature parameters and anharmonic components. The characteristic parameter is output toward the characteristic parameter correction unit 21, and the anharmonic component is output toward the adder K2. The characteristic parameter of the transition unit is subjected to the same processing as the above-described extended sound characteristic parameter by the characteristic parameter correction unit 21, the spectrum envelope generation unit 23, the overtone amplitude / phase calculation unit 24, and the like.

なお、スイッチSW1、SW2は、処理中のデータの種類によって切り替わるようになっているので、スイッチSW1については、伸ばし音部分を処理している間は、加算器K1の方に特徴パラメータ補正部21を接続するようにされ、遷移部分を処理している間は、フレーム読出し部19の方に特徴パラメータ補正部21を接続するようにされている。また、スイッチSW2については、伸ばし音部分を処理している間は、定常部分データ保持部16の方に加算器K2を接続するようにされ、遷移部分を処理している間は、フレーム読出し部19の方に加算器K2を接続するようにされている。こうして遷移部分、伸ばし音部分の特徴パラメータ及び非調和成分が演算されると、その加算値が逆FFT部25で処理され、重ね合せ手段26により重ね合わせられ、最終的な合成波形が出力される(S10)。   Since the switches SW1 and SW2 are switched depending on the type of data being processed, the switch SW1 has the characteristic parameter correction unit 21 in the adder K1 while processing the extended sound portion. And the feature parameter correction unit 21 is connected to the frame reading unit 19 while the transition portion is processed. As for the switch SW2, the adder K2 is connected to the stationary part data holding unit 16 while the extended sound part is being processed, and the frame reading unit is being processed while the transition part is being processed. The adder K2 is connected to 19. When the characteristic parameter and the anharmonic component of the transition part and the extended sound part are calculated in this way, the added value is processed by the inverse FFT unit 25 and is superposed by the superimposing means 26, and a final synthesized waveform is output. (S10).

〔第2の実施の形態〕
本発明の第2の実施の形態に係る歌唱合成装置を、図5に基づいて説明する。図5は、第2の実施の形態に係る歌唱合成装置の機能ブロック図である。第1の実施の形態と共通する部分については同一の符号を付してその説明は省略する。第1の実施の形態との相違点のひとつは、音韻データベースに記憶されている音素連鎖データ及び定常部分データが、ピッチ(音高)の異なる毎に異なる特徴パラメータ及び非調和成分を割り当てられている、という点である。また、ピッチ決定部20は、演奏データ中の音符情報に基づいてピッチを決定し、その結果を音声素片選択部に出力するようにされている。
[Second Embodiment]
A singing voice synthesizing apparatus according to a second embodiment of the present invention will be described with reference to FIG. FIG. 5 is a functional block diagram of the singing voice synthesizing apparatus according to the second embodiment. Portions common to the first embodiment are denoted by the same reference numerals and description thereof is omitted. One of the differences from the first embodiment is that the phoneme chain data and the stationary partial data stored in the phoneme database are assigned different characteristic parameters and anharmonic components for each different pitch (pitch). It is that. The pitch determination unit 20 determines the pitch based on the note information in the performance data, and outputs the result to the speech unit selection unit.

この第2の実施の形態の作用を説明すると、演奏データ保持部11からの音符情報に基づいて、ピッチ決定部20が処理中のフレームデータのピッチを決定し、その結果を音声素片選択部12へ出力する。音声素片選択部12は、この決定されたピッチ及び歌詞情報中の音韻情報に最も近い音素連鎖データ及び定常部分データを読出す。後の処理は第1の実施の形態と同様である。   The operation of the second embodiment will be described. Based on the note information from the performance data holding unit 11, the pitch determining unit 20 determines the pitch of the frame data being processed, and the result is the speech unit selecting unit. 12 is output. The speech segment selection unit 12 reads the phoneme chain data and the stationary partial data closest to the phoneme information in the determined pitch and lyrics information. Subsequent processing is the same as in the first embodiment.

〔第3の実施の形態〕
本発明の第3の実施の形態に係る歌唱合成装置を、図6に基づいて説明する。図6は、第3の実施の形態に係る歌唱合成装置の機能ブロック図である。第1の実施の形態と共通する部分については同一の符号を付してその説明は省略する。第1の実施の形態との相違点の1つは、音韻データベース10に加えて、ビブラート情報等を記憶した表情データベース30と、演奏データ中の表情情報に基づき、この表情データベースから適当なビブラートテンプレートを選択する表情テンプレート選択部30Aを備えている点である。また、ピッチ決定部20は、演奏データ中の音符情報、及び表情テンプレート選択部30Aからのビブラートデータに基づいてピッチを決定するようにされている。
[Third Embodiment]
A singing voice synthesizing apparatus according to a third embodiment of the present invention will be described with reference to FIG. FIG. 6 is a functional block diagram of a singing voice synthesizing apparatus according to the third embodiment. Portions common to the first embodiment are denoted by the same reference numerals and description thereof is omitted. One of the differences from the first embodiment is that, in addition to the phoneme database 10, an expression database 30 storing vibrato information and the like, and an appropriate vibrato template from the expression database based on the expression information in the performance data. The point is that it includes an expression template selection unit 30A for selecting. The pitch determination unit 20 determines the pitch based on the note information in the performance data and the vibrato data from the expression template selection unit 30A.

この第3の実施の形態の作用を説明すると、演奏データ保持部11からの歌詞情報に基づいて、音声素片選択部12で音素連鎖データ、定常部分データが音韻データベース10から読み出される点は第1の実施の形態と同様であり、以降の処理も第1の実施の形態と同様である。一方、演奏データ保持部11からの表情情報に基づいて、表情テンプレート選択部30Aが、最も適合するビブラートデータを表情データベース30より読み出す。この読み出されたビブラートデータ、及び演奏データ中の音符情報に基づき、ピッチ決定部20によりピッチが決定される。   The operation of the third embodiment will be described. The phoneme chain data and the stationary partial data are read from the phoneme database 10 by the phoneme segment selector 12 based on the lyric information from the performance data holding unit 11. 1 is the same as that of the first embodiment, and the subsequent processing is also the same as that of the first embodiment. On the other hand, based on facial expression information from the performance data holding unit 11, the facial expression template selection unit 30 </ b> A reads the most suitable vibrato data from the facial expression database 30. The pitch determination unit 20 determines the pitch based on the read vibrato data and the note information in the performance data.

以上実施例に沿って本発明を説明したが、本発明はこれら実施例に制限されるものではなく、種々の変更、改良、組合せ等が可能であることは当業者にとって自明である。   Although the present invention has been described with reference to the embodiments, the present invention is not limited to these embodiments, and it is obvious to those skilled in the art that various modifications, improvements, combinations, and the like are possible.

本発明の第1の実施の形態に係る歌唱合成装置の機能ブロック図である。It is a functional block diagram of the song synthesizing | combining apparatus which concerns on the 1st Embodiment of this invention. 図1に示す音韻データベース10の作成例を示す。An example of creating the phoneme database 10 shown in FIG. 1 is shown. 図1に示す特徴パラメータ補正部21の詳細を示す。Details of the feature parameter correction unit 21 shown in FIG. 第1の実施の形態に係る歌唱合成装置におけるデータ処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the data processing in the song synthesizing | combining apparatus which concerns on 1st Embodiment. 本発明の第2の実施の形態に係る歌唱合成装置の機能ブロック図である。It is a functional block diagram of the song synthesizing | combining apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る歌唱合成装置の機能ブロック図である。It is a functional block diagram of the song synthesizing | combining apparatus which concerns on the 3rd Embodiment of this invention. 特願2001−67258号に記載の歌唱合成装置の原理を示す。The principle of the singing voice synthesizing apparatus described in Japanese Patent Application No. 2001-67258 will be described. 本発明に係る歌唱合成装置の原理を示す。The principle of the song synthesizing apparatus according to the present invention is shown.

符号の説明Explanation of symbols

10…音韻データベース、 11…演奏データ保持部、 12…音声素片選択部、 13…先行音素連鎖データ保持部、 14…後方音素連鎖データ保持部、15…特徴パラメータ補間部、16…定常部分データ保持部、17…音素連鎖データ保持部、18…特徴パラメータ変動抽出部、19…フレーム読出し部、 K1、K2…加算器、20…ピッチ決定部、 21…特徴パラメータ補正部、 22…倍音列生成部、 23…スペクトル包絡生成部、 24…倍音振幅・位相計算部、 25…逆FFT部、 26…重ね合せ部、 27…タイマ、31…SMS分析手段、 32…音素切り分け手段、 33…特徴パラメータ抽出手段、 41…振幅決定手段、 43…倍音列生成手段、 44…振幅計算手段、 K3…加算器、 45…ゲイン補正部、30…表情データベース、30A…表情テンプレート選択部、 51…Timbreデータベース、 52…音素連鎖テンプレートデータベース、 53…定常部分テンプレートデータベース DESCRIPTION OF SYMBOLS 10 ... Phoneme database, 11 ... Performance data holding part, 12 ... Speech segment selection part, 13 ... Precede phoneme chain data holding part, 14 ... Back phoneme chain data holding part, 15 ... Feature parameter interpolation part, 16 ... Steady partial data Holding unit, 17 ... Phoneme chain data holding unit, 18 ... Feature parameter fluctuation extracting unit, 19 ... Frame reading unit, K1, K2 ... Adder, 20 ... Pitch determining unit, 21 ... Feature parameter correcting unit, 22 ... Overtone sequence generation 23: Spectral envelope generation unit 24: Overtone amplitude / phase calculation unit 25: Inverse FFT unit 26: Superposition unit 27: Timer 31: SMS analysis unit 32: Phoneme segmentation unit 33: Feature parameter Extraction means 41... Amplitude determination means 43. Harmonic string generation means 44. Amplitude calculation means K 3 Adder 45. Gain correction section 30 Expression data Table 30A ... Expression template selection unit 51 ... Timbre database 52 ... Phoneme chain template database 53 ... Stationary partial template database

Claims (3)

歌唱を合成するための歌唱情報を記憶する記憶部と、
歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶する音韻データベースと、
前記歌唱情報に基づき、前記音韻データベースに記憶されたデータを選択する選択部と、
前記選択部で選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力部と、
前記選択部で選択された前記定常部分データに係る伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データを補間して該伸ばし音部分の特徴パラメータを生成して出力する伸ばし音部分特徴パラメータ出力部とを備えたことを特徴とする歌唱合成装置。
A storage unit for storing song information for synthesizing a song;
The singing data is distinguished from a transition part including a phoneme chain that transitions from one phoneme to another and an extended sound part including a stationary part where one phoneme is stably generated, and the phoneme of this transition part is distinguished. A phonological database that stores chain data and stationary partial data of the extended sound part;
A selection unit that selects data stored in the phonological database based on the singing information;
A transition part feature parameter output unit that extracts and outputs a feature parameter of the transition part from the phoneme chain data selected by the selection unit;
The phoneme chain data of the transition part preceding the extended sound part related to the stationary part data selected by the selection unit and the phoneme chain data of the transition part following the extended sound part are acquired, and this 2 A singing voice synthesizing apparatus comprising: an extended sound part feature parameter output unit that interpolates two phoneme chain data to generate and output a characteristic parameter of the extended sound part.
歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶するステップと、
歌唱を合成するための歌唱情報を入力する入力ステップと、
前記歌唱情報に基づき、前記音素連鎖データ又は前記定常部分データを選択する選択ステップと、
前記選択ステップで選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ出力ステップと、
前記選択ステップで選択された前記定常部分データに係る伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データを補間して該伸ばし音部分の特徴パラメータを生成する伸ばし音部分特徴パラメータ出力ステップとを備えた歌唱合成方法。
The singing data is distinguished from a transition part including a phoneme chain that transitions from one phoneme to another and an extended sound part including a stationary part where one phoneme is stably generated, and the phoneme of this transition part is distinguished. Storing the chain data and the stationary part data of the extended sound part;
An input step of inputting song information for synthesizing the song;
A selection step for selecting the phoneme chain data or the stationary partial data based on the singing information;
A transition part feature parameter output step for extracting and outputting a feature parameter of the transition part from the phoneme chain data selected in the selection step;
Obtaining the phoneme chain data of the transition part preceding the extended sound part of the stationary part data selected in the selection step and the phoneme chain data of the transition part following the extended sound part; An extended sound part feature parameter output step of interpolating two phoneme chain data to generate a feature parameter of the extended sound part.
歌唱データを、1つの音素から別の音素に移行する音素連鎖を含む遷移部分と、1つの音素が安定的に発音される定常部分を含んだ伸ばし音部分とで区別して、この遷移部分の音素連鎖データと伸ばし音部分の定常部分データとを記憶するステップと、
少なくとも音符情報と歌詞情報とを含む歌唱情報を入力する入力ステップと、
前記歌唱情報に基づき、前記音素連鎖データ又は前記定常部分データを選択する選択ステップと、
前記選択ステップで選択された前記音素連鎖データから前記遷移部分の特徴パラメータを抽出して出力する遷移部分特徴パラメータ生成ステップと、
前記選択ステップで選択された前記定常部分データに係る前記伸ばし音部分に先行する前記遷移部分の前記音素連鎖データと、その伸ばし音部分に続く前記遷移部分の前記音素連鎖データとを取得し、この2つの音素連鎖データを補間して該伸ばし音部分の特徴パラメータを生成する伸ばし音部分特徴パラメータ生成ステップとをコンピュータに実行させるように構成された歌唱合成用プログラム。
The singing data is distinguished from a transition part including a phoneme chain that transitions from one phoneme to another and an extended sound part including a stationary part where one phoneme is stably generated, and the phoneme of this transition part is distinguished. Storing the chain data and the stationary part data of the extended sound part;
An input step for inputting singing information including at least note information and lyrics information;
A selection step for selecting the phoneme chain data or the stationary partial data based on the singing information;
A transition part feature parameter generation step for extracting and outputting a feature parameter of the transition part from the phoneme chain data selected in the selection step;
Obtaining the phoneme chain data of the transition part preceding the extended sound part of the stationary part data selected in the selection step, and the phoneme chain data of the transition part following the extended sound part, A song synthesis program configured to cause a computer to execute an extended sound part feature parameter generation step of interpolating two phoneme chain data to generate a feature parameter of the extended sound part.
JP2006171331A 2006-06-21 2006-06-21 Singing synthesizer, singing synthesizing method, and program for singing synthesis Pending JP2007226174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006171331A JP2007226174A (en) 2006-06-21 2006-06-21 Singing synthesizer, singing synthesizing method, and program for singing synthesis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006171331A JP2007226174A (en) 2006-06-21 2006-06-21 Singing synthesizer, singing synthesizing method, and program for singing synthesis

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002054487A Division JP4153220B2 (en) 2002-02-28 2002-02-28 SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS METHOD, AND SINGE SYNTHESIS PROGRAM

Publications (1)

Publication Number Publication Date
JP2007226174A true JP2007226174A (en) 2007-09-06

Family

ID=38548024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006171331A Pending JP2007226174A (en) 2006-06-21 2006-06-21 Singing synthesizer, singing synthesizing method, and program for singing synthesis

Country Status (1)

Country Link
JP (1) JP2007226174A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2530672A2 (en) 2011-06-01 2012-12-05 Yamaha Corporation Voice synthesis apparatus
EP2530671A2 (en) 2011-05-30 2012-12-05 Yamaha Corporation Voice synthesis apparatus
US11289066B2 (en) 2016-06-30 2022-03-29 Yamaha Corporation Voice synthesis apparatus and voice synthesis method utilizing diphones or triphones and machine learning

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2530671A2 (en) 2011-05-30 2012-12-05 Yamaha Corporation Voice synthesis apparatus
US8996378B2 (en) 2011-05-30 2015-03-31 Yamaha Corporation Voice synthesis apparatus
EP2530672A2 (en) 2011-06-01 2012-12-05 Yamaha Corporation Voice synthesis apparatus
US9230537B2 (en) 2011-06-01 2016-01-05 Yamaha Corporation Voice synthesis apparatus using a plurality of phonetic piece data
US11289066B2 (en) 2016-06-30 2022-03-29 Yamaha Corporation Voice synthesis apparatus and voice synthesis method utilizing diphones or triphones and machine learning

Similar Documents

Publication Publication Date Title
JP4153220B2 (en) SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS METHOD, AND SINGE SYNTHESIS PROGRAM
JP3941611B2 (en) SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS METHOD, AND SINGE SYNTHESIS PROGRAM
JP4067762B2 (en) Singing synthesis device
JP4207902B2 (en) Speech synthesis apparatus and program
JP6024191B2 (en) Speech synthesis apparatus and speech synthesis method
WO2018084305A1 (en) Voice synthesis method
JP2001522471A (en) Voice conversion targeting a specific voice
EP1701336B1 (en) Sound processing apparatus and method, and program therefor
JP2009163121A (en) Voice processor, and program therefor
JP6733644B2 (en) Speech synthesis method, speech synthesis system and program
JP2006030575A (en) Speech synthesizing device and program
JP3966074B2 (en) Pitch conversion device, pitch conversion method and program
JP2007226174A (en) Singing synthesizer, singing synthesizing method, and program for singing synthesis
JP4844623B2 (en) CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP4757971B2 (en) Harmony sound adding device
JP4304934B2 (en) CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP5360489B2 (en) Phoneme code converter and speech synthesizer
JP4349316B2 (en) Speech analysis and synthesis apparatus, method and program
JP3540159B2 (en) Voice conversion device and voice conversion method
JP3502268B2 (en) Audio signal processing device and audio signal processing method
JP6011039B2 (en) Speech synthesis apparatus and speech synthesis method
JPH10124082A (en) Singing voice synthesizing device
JP3979213B2 (en) Singing synthesis device, singing synthesis method and singing synthesis program
JP2004061753A (en) Method and device for synthesizing singing voice
JP2018077280A (en) Speech synthesis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090630