JP2004061793A - Apparatus, method, and program for singing synthesis - Google Patents
Apparatus, method, and program for singing synthesis Download PDFInfo
- Publication number
- JP2004061793A JP2004061793A JP2002219203A JP2002219203A JP2004061793A JP 2004061793 A JP2004061793 A JP 2004061793A JP 2002219203 A JP2002219203 A JP 2002219203A JP 2002219203 A JP2002219203 A JP 2002219203A JP 2004061793 A JP2004061793 A JP 2004061793A
- Authority
- JP
- Japan
- Prior art keywords
- data
- pitch
- synthesized
- database
- pitch data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、入力された演奏データに基づいて音声を合成する歌唱合成装置、歌唱合成方法及び歌唱合成用プログラムに関する。
【0002】
【従来の技術】
電子楽器においては、キースケーリングと呼ばれる機能によりピッチ変換を実行している。具体的には、電子ピアノの鍵盤のうち、押された鍵盤に対応したピッチに依存したある値を音色パラメータに加減算することにより、音色の変換を行っている(例えば、特開昭58−211786号公報参照)。
例えばカラオケ装置などにおいては、男性の声を女性の声に変換するなどの用途のため、ピッチ変換機能を備えた歌唱合成装置が設けられている。この場合、単純に原歌唱音声のピッチを異なるピッチに変換するだけでは不自然な音声となるので、音色など歌唱合成に用いる他のパラメータも、電子楽器と同様のキースケーリング機能を用いて、ピッチに合わせて変換している。
【0003】
【発明が解決しようとする課題】
歌唱合成装置において、歌唱合成に用いるパラメータは、実際に録音した歌唱データを音素ごとに切り出して抽出したものであり、各音素で録音の際のピッチが異なる。このため、単純に合成したいピッチに応じたパラメータのキースケーリングでは、音素の録音時のピッチと同じピッチの歌唱音声を合成する場合にも音色に変化が生じてしまう。これを解決するために、各パラメータは各音素毎にピッチに応じたスケーリング量を規定するキースケーリング関数を保持することで、音素の録音時と同じピッチのときにはパラメータが変化しないようにする必要があった。しかし、このようにするとキースケーリング関数の数が膨大になるため、キースケーリング関数の作成及び変更が困難になってしまうという問題があった。
本発明は、このキースケーリング機能を歌唱合成装置、歌唱合成方法、歌唱合成用プログラムに導入したものであり、キースケーリング関数の数を多くしなくても、元の歌唱音声のピッチと同じピッチの歌唱音声を合成しようとする場合には音色など音質をそのままに保ち、元の歌唱音声のピッチと異なるピッチの歌唱音声を合成しようとする場合にだけ音色など音質を変化させることのできるようにすることを目的とする。
【0004】
【課題を解決するための手段】
上記目的達成のため、本出願の第1の発明に係る歌唱合成装置は、合成しようとする音声の内容を示す音声情報を入力する音声情報入力部と、音声を合成するための音声素片データが記憶された音韻データベースと、前記音声情報に基づいて前記音韻データベースに記憶された前記音声素片データを選択する選択部と、合成しようとする音声のピッチを時系列で示す合成ピッチデータを出力する合成ピッチデータ出力部と、前記選択部で選択された音声素片データから合成パラメータを抽出して出力する合成パラメータ出力部と、前記合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータを抽出してデータベースピッチデータとして出力するデータベースピッチデータ生成部と、前記合成パラメータ毎に用意されたキースケーリング関数を記憶するキースケーリング関数記憶部と、前記合成ピッチデータを前記キースケーリング関数に代入して得られた関数値と前記データベースピッチデータを前記キースケーリング関数に代入して得られた関数値との差に基づき、前記合成パラメータを補正して補正パラメータを出力するキースケーリング部と、前記補正パラメータに基づく波形を合成する波形合成部とを備えたことを特徴とする。
【0005】
この第1の発明に係る歌唱合成装置によれば、入力された音声情報に基づいて前記音韻データベースに記憶された音声素片データが選択部により選択される。そして、合成しようとする音声のピッチを時系列で示す合成ピッチデータが出力される。また、前記選択部で選択された前記音声素片データからは、各時刻毎の合成パラメータが抽出される。さらに、合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータが抽出されデータベースピッチデータとして出力される。
この合成ピッチデータとデータベースピッチデータとに差がある場合には、キースケーリング関数により、ピッチの変化に即した前記合成パラメータの補正が行われ、合成出力音声の自然性が高められる。一方、両者に差がない場合には、合成パラメータの補正は行われない。このため、各音素、時間ごとのキースケーリング関数を用意しなくとも、出力歌唱音声の自然性を高めることができる。
【0006】
上記目的達成のため、本出願の第2の発明に係る歌唱合成方法は、合成しようとする音声の内容を示す音声情報を入力する音声情報入力ステップと、音声を合成するための音声素片データを予め音韻データベースに記憶させるとともに、前記音声情報に基づいて前記音韻データベースに記憶された音声素片データを選択する選択ステップと、合成しようとする音声のピッチを時系列で示す合成ピッチデータを出力する合成ピッチデータ出力ステップと、前記選択ステップで選択された前記音声素片データから合成パラメータを抽出して出力する合成パラメータ出力ステップと、前記合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータを抽出してデータベースピッチデータとして出力するデータベースピッチデータ生成ステップと、前記合成パラメータ毎にキースケーリング関数を用意するとともに、前記合成ピッチデータを前記キースケーリング関数に代入して得られた関数値と前記データベースピッチデータを前記キースケーリング関数に代入して得られた関数値との差に基づき、前記合成パラメータを補正して補正パラメータを出力するキースケーリングステップと、前記補正パラメータに基づく波形を合成する波形合成ステップとを備えたことを特徴とする。
【0007】
上記目的達成のため、本出願の第3の発明に係る歌唱合成用プログラムは、合成しようとする音声の内容を示す音声情報を入力する音声情報入力ステップと、音声を合成するための音声素片データを予め音韻データベースに記憶させるとともに、前記音声情報に基づいて前記音韻データベースに記憶された音声素片データを選択する選択ステップと、合成しようとする音声のピッチを時系列で示す合成ピッチデータを出力する合成ピッチデータ出力ステップと、前記選択ステップで選択された前記音声素片データから合成パラメータを抽出して出力する合成パラメータ出力ステップと、前記合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータを抽出してデータベースピッチデータとして出力するデータベースピッチデータ生成ステップと、前記合成パラメータ毎にキースケーリング関数を用意するとともに、前記合成ピッチデータを前記キースケーリング関数に代入して得られた関数値と前記データベースピッチデータを前記キースケーリング関数に代入して得られた関数値の差に基づき、前記合成パラメータを補正して補正パラメータを出力するキースケーリングステップと、前記補正パラメータに基づく波形を合成する波形合成ステップとをコンピュータに実行させるように構成されたことを特徴とする。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
図1は、本発明の実施の形態に係る歌唱合成装置の概略構成を示すブロック図である。本実施の形態に係る歌唱合成装置1は、図1に示すように、音声データベース11と、合成パラメータ生成装置12と、キースケーリング関数記憶部13と、キースケーリング装置14と、波形合成装置15とを備えている。
【0009】
音声データベース11は、実際に録音或いは取得した歌唱データ等の信号を音素ごとに切り出したデータであり、図2に示すように、音韻遷移部分(音韻と音韻との間のつながり部分(例:a−e、a−i等)を示す)及び定常部分(音韻(例:a,i等)が定常的に発音される部分)とに分類された音声素片データを格納しており、各音声素片データは、合成パラメータPAにより表現されている。
合成パラメータPAは、例えばフォルマント中心周波数、バンド幅、ゲインなど複数種類(ここではN種類とする)のパラメータPAn(n=1,2、・・・N)から構成される。各パラメータPAnは、横軸を時刻t(t=0〜T)、縦軸をパラメータ値としたグラフにより表現することが出来るデータ配列や関数として記憶される。
異なる音声素片データには、互いに異なるパラメータPAnが格納されている。例えば、音韻遷移部a−eと、音韻遷移部a−iとではフォルマント中心周波数やゲインの異なるパラメータPAnが記憶される。
【0010】
また、各音韻遷移部、定常部のデータには、これらのパラメータPAnに加え、その音声素片の各時刻におけるピッチのデータDP(以下、データベースピッチDPという)が、各1つずつ格納されている。
【0011】
合成パラメータ生成装置12は、合成しようとする歌唱音声を表現するMIDIデータ(ピッチ、歌詞など)を入力する入力部と、この入力データに対応する音声素片データ(音韻遷移部データ又は定常部分データ)を音声データベース11から合成パラメータPAとして読み出す合成パラメータ生成部として機能する。
【0012】
また、合成パラメータ生成装置12は、MIDIデータとして合成パラメータ生成装置12に入力されるピッチデータ、歌詞データに基づいて、合成される出力歌唱音声の各時刻における正確なピッチを決定し、これを合成ピッチデータSPとしてキースケーリング装置14に向けて出力する合成ピッチデータ出力部として機能する。このピッチ決定の処理は、合成しようとする音声の前後に位置する音声についての歌詞の音韻、ピッチなどのデータが考慮されて行われる。
また、合成パラメータ生成装置12は、読み出された音声素片データに含まれているデータベースピッチDPを読み出して、これをキースケーリング装置14に向けて出力するデータベースピッチデータ生成部として機能する。
【0013】
キースケーリング関数記憶部13は、各合成パラメータPAnの数に対応した数(ここではN個)のキースケーリング関数fnを記憶している。
キースケーリング装置14は、このキースケーリング関数記憶部13に記憶された各合成パラメータPAnに対応するキースケーリング関数fn(n=1,2、・・・N)を読み出し、このキースケーリング関数fnを入力される各合成パラメータPAnに適用してキースケーリング効果を与える。
このキースケーリング効果により、例えば高い音を発生するときは声が甲高くなったり、低い声を発生するときは声が聞き取り難くなったりというように、合成しようとする歌唱音声のピッチに合わせて合成パラメータを調整することが出来るので、自然な音声合成が可能となる。また、合成しようとするピッチごとに音声データベースを備える必要がないため、音声データベースのサイズが小さくて済む。
そして、データベースピッチDPを用いて、キースケーリング効果を与えられた合成パラメータPAnに対し、音声データベース11に記憶されているのと同じピッチの歌唱音声を合成しようとする場合には合成パラメータPAnをそのままに保ち、異なるピッチの歌唱音声を合成しようとする場合には合成パラメータPAnを変化させる処理を行う。具体的には、合成ピッチSP、データベースピッチDPを関数fnに代入して得られた関数値fn(SP)、fn(DP)(図3参照)を得た後、次の[数1]に示すように、両関数値の差(図3の場合、fn(DP)−fn(SP)=0.1)を利用して各パラメータPAnにキースケーリング効果を与えて補正パラメータPAn´を得る。つまり、補正パラメータPAn´は、パラメータPAnを合成ピッチPAnを合成ピッチSPとデータベースピッチDPにより補正したパラメータである。
【0014】
【数1】
PAn´=PAn+fn(SP)−fn(DP)
【0015】
また、次に示す[数2]のように、関数値fn(SP)、fn(DP)の差に定数(例えば1)を加えた値を各パラメータPAnに乗算することによりキースケーリング効果を与えてもよい。
【数2】
PAn´=PAn×(fn(SP)−fn(DP)+1.0)
【0016】
上記の[数1]、[数2]のどちらを選ぶかは、各パラメータPAnの性質により決定する。例えば、パラメータPAnの値が、ゲインのように対数で表現されている場合には[数1]が適当であり、周波数(Hz)のようにリニアな値で表現されている場合には、[数2]が適当である。
【0017】
[数1]、[数2]のどちらの場合でも、SP=DPの場合には、PAn´=PAnとなる。すなわち、本実施の形態の歌唱合成装置1は、合成しようとするピッチSPと、データベース11に格納されたデータベースピッチDPとが等しい場合には、合成パラメータPAには変化を加えないようにしている。
波形合成装置15は、このキースケーリング効果を与えられた補正パラメータPAn´、及び合成ピッチSPにより表現される音声素片データを合成し重ね合わせて出力歌唱音声波形として出力する機能を有する。
【0018】
次に、本実施の形態に係る歌唱合成装置1の作用を、図4に示すフローチャートに基づいて説明する。図4のフローチャートは、1つの音声素片データ内での処理の手順を示したものであり、これを合成パラメータ生成装置12に入力されるMIDIデータに基づき音声データベース11から選択されるすべての音声素片データについて順次実行し、波形合成装置15で合成することにより、合成歌唱音声が得られる。
【0019】
また、この図4に示すフローチャートでは、1つの音声素片データ内の各パラメータPAn(n=1,2・・・N)を1からNの順で順々に処理するようにしている。また、各パラメータPAnが時刻tの関数により表現されていることから、各パラメータPAnの処理においては、各時刻t毎に合成ピッチデータSP(t)、データベースピッチDP(t)を取得して補正パラメータPAn(t)´の値を得るようにしている。具体的に説明すると、最初に、各パラメータPAnの種類を示す変数nを1に初期設定し(S1)、そのnの値に相当するスケーリング関数fnをスケーリング関数記憶部13より読み出す(S2)。続いて、時刻tを0に初期設定し(S3)、その時刻tでのパラメータPAn(t)を取得する(S4)。
【0020】
次に、その時刻tでの合成ピッチデータSP(t)、データベースピッチデータDP(t)の値を取得する(S5)。そして、このS4、S5で取得された値に基づき、[数1]又は[数2]により補正パラメータPAn(t)´を演算する(S6)。このS6では、[数1]又は[数2]のいずれか一方を固定的に使用させるようにしてもよいし、パラメータPAnの種類に応じて、[数1]又は[数2]のいずれを使用するかを自動選択させるようにしてもよい。
【0021】
こうして、すべての時刻t(t=0〜T)について、tをΔtずつインクリメントしながら補正パラメータPAn´(t)をS4〜S6の手順を繰り返して演算する(S7、S8)。この図4のフローチャートでは、Δtごとに離散的な補正パラメータ値PAn´(t)を演算しているので、各データの中間の値が必要となる場合は補間により演算してもよい。
以上説明した手順を、すべてのパラメータPAn(n=1、2、・・・N)について演算するまで繰り返す(S9、S10)。これにより得られたデータに基づいて得られた波形が、波形合成装置15で合成されることにより、歌唱音声が合成、出力される。
【0022】
以上、本発明の実施の形態について説明したが、本発明はこれに限定されるものではなく、例えば、音声データベース101には、音韻遷移部分、定常部分に加え、特定の音韻部分のデータ(timbre)を保持させるようにしてもよい。
また、データベースピッチDPは、上記のようにその音声素片データの各時刻におけるピッチのデータを格納するようにしてもよいが、その音声素片データの各時刻を代表するひとつのピッチデータとして格納してもよい。
また、合成パラメータ生成装置12に入力するMIDIデータはピッチ、歌詞に限らず、ダイナミクス、ビブラートなどのデータであってもよい。
また、MIDIデータとしてのピッチデータ、歌詞データに基づいて合成ピッチデータSPを決定する代わりに、合成ピッチデータSPデータを予めMIDIデータとして保持させておくようにしてもよい。
また、合成パラメータ生成部12に入力するデータはMIDIデータに限らず、合成する歌唱音声が生成されるように時系列で演奏データを指定できるものであればよい。
【0023】
【発明の効果】
以上説明したように、本発明によれば、音声素片のピッチをデータベースピッチとして記憶しているので、少ないキースケーリング関数で、元の歌唱音声のピッチと同じピッチの歌唱音声を合成しようとする場合に、音色など音質をそのままに保ち、元の歌唱音声のピッチと異なるピッチの歌唱音声を合成しようとする場合にだけ音色など音質を変化させることができ、自然な歌唱合成が可能になる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る歌唱合成装置の全体構成を示すブロック図である。
【図2】図1に示す音声データベースに記憶されるデータの内容を概念的に示す。
【図3】キースケーリング関数fnの内容を示す。
【図4】図1に示す歌唱合成装置1の作用を示すフローチャートである。
【符号の説明】
11…音声データベース、 12…合成パラメータ生成装置、 13…キースケーリング関数記憶部 14…キースケーリング装置、 15…波形合成装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a singing voice synthesizing device, a singing voice synthesizing method, and a singing voice synthesizing program that synthesize voice based on input performance data.
[0002]
[Prior art]
In electronic musical instruments, pitch conversion is performed by a function called key scaling. Specifically, tone conversion is performed by adding or subtracting a certain value depending on a pitch corresponding to a pressed key among the keys of an electronic piano to a tone parameter (for example, Japanese Patent Laid-Open No. 58-211786). Reference).
For example, in a karaoke apparatus or the like, a singing / synthesizing apparatus having a pitch conversion function is provided for purposes such as converting a male voice into a female voice. In this case, simply converting the pitch of the original singing voice to a different pitch results in an unnatural voice, so other parameters used for singing synthesis, such as timbre, can also be adjusted using the key scaling function similar to electronic musical instruments. Is converted to match.
[0003]
[Problems to be solved by the invention]
In the singing voice synthesizing device, the parameters used for singing voice synthesis are obtained by extracting the actually recorded singing data for each phoneme, and the pitch at the time of recording differs for each phoneme. For this reason, in the key scaling of the parameter simply according to the pitch to be synthesized, the timbre changes even when a singing voice having the same pitch as the pitch at the time of recording the phoneme is synthesized. In order to solve this, each parameter must hold a key scaling function that specifies the scaling amount according to the pitch for each phoneme, so that the parameter does not change when the pitch is the same as when recording the phoneme. there were. However, in this case, since the number of key scaling functions becomes enormous, there is a problem that it is difficult to create and change the key scaling functions.
The present invention introduces this key scaling function into a singing voice synthesizing device, a singing voice synthesizing method, and a singing voice synthesizing program. When trying to synthesize a singing voice, keep the tone and other sound quality as it is, and change the tone and other sound quality only when trying to synthesize a singing voice with a pitch different from the pitch of the original singing voice. The purpose is to:
[0004]
[Means for Solving the Problems]
To achieve the above object, a singing voice synthesizing device according to a first invention of the present application includes a voice information input unit for inputting voice information indicating the content of a voice to be synthesized, and voice segment data for synthesizing voice. And a selection unit that selects the speech unit data stored in the phoneme database based on the speech information, and outputs synthesized pitch data indicating a pitch of a speech to be synthesized in a time series. A synthesis pitch data output unit, a synthesis parameter output unit for extracting and outputting a synthesis parameter from the speech unit data selected by the selection unit, and a speech unit data used for extracting the synthesis parameter. A database pitch data generating unit for extracting pitch data to be output and outputting the same as database pitch data; A key scaling function storage unit for storing a scaling function, a function value obtained by substituting the synthesized pitch data into the key scaling function, and a function value obtained by substituting the database pitch data into the key scaling function. And a key scaling unit that corrects the synthesis parameter based on the difference and outputs a correction parameter, and a waveform synthesis unit that synthesizes a waveform based on the correction parameter.
[0005]
According to the singing voice synthesizing device according to the first aspect, the speech unit data stored in the phoneme database is selected by the selection unit based on the input voice information. Then, synthesized pitch data indicating the pitch of the voice to be synthesized in a time series is output. In addition, a synthesis parameter for each time is extracted from the speech unit data selected by the selection unit. Further, pitch data constituting the speech unit data used in extracting the synthesis parameters is extracted and output as database pitch data.
If there is a difference between the synthesized pitch data and the database pitch data, the key scaling function corrects the synthesized parameter in accordance with the change in pitch, thereby enhancing the naturalness of the synthesized output voice. On the other hand, if there is no difference between them, the correction of the synthesis parameter is not performed. Therefore, it is possible to enhance the naturalness of the output singing voice without preparing a key scaling function for each phoneme or time.
[0006]
To achieve the above object, a singing voice synthesizing method according to a second invention of the present application includes a voice information inputting step of inputting voice information indicating the content of a voice to be synthesized, and voice segment data for voice synthesis. In the phoneme database in advance, and selecting speech unit data stored in the phoneme database based on the speech information, and outputting synthesized pitch data indicating the pitch of the speech to be synthesized in a time series. Synthesizing pitch data outputting step, synthesizing parameter outputting step of extracting and outputting a synthesizing parameter from the speech unit data selected in the selecting step, and speech unit data used in extracting the synthesizing parameter. Database pitch data that extracts the constituent pitch data and outputs it as database pitch data And a key scaling function is prepared for each of the synthesis parameters, and a function value obtained by substituting the synthesized pitch data for the key scaling function and the database pitch data are substituted for the key scaling function. A key scaling step of correcting the synthesis parameter based on a difference from the obtained function value and outputting a correction parameter; and a waveform synthesis step of synthesizing a waveform based on the correction parameter.
[0007]
To achieve the above object, a singing voice synthesizing program according to a third invention of the present application includes a voice information inputting step of inputting voice information indicating the content of a voice to be synthesized, and a voice unit for synthesizing voice. A step of storing data in advance in a phoneme database and selecting speech unit data stored in the phoneme database based on the speech information, and synthesizing pitch data indicating a pitch of a speech to be synthesized in a time series. A synthesis pitch data output step for outputting, a synthesis parameter output step for extracting and outputting a synthesis parameter from the speech unit data selected in the selection step, and a speech unit data used for extracting the synthesis parameter. Database pitch that extracts pitch data that constitutes In the data generation step, a key scaling function is prepared for each of the synthesis parameters, and a function value obtained by substituting the synthesized pitch data into the key scaling function and the database pitch data are substituted into the key scaling function. The computer is configured to execute a key scaling step of correcting the synthesis parameter based on the difference between the obtained function values and outputting a correction parameter, and a waveform synthesis step of synthesizing a waveform based on the correction parameter. It is characterized by the following.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a singing voice synthesizing device according to an embodiment of the present invention. As shown in FIG. 1, the singing voice synthesizing
[0009]
The
The synthesis parameter PA includes a plurality of types (here, N types) of parameters PAn (n = 1, 2,..., N) such as a formant center frequency, a bandwidth, and a gain. Each parameter PAn is stored as a data array or function that can be represented by a graph with the horizontal axis representing time t (t = 0 to T) and the vertical axis representing parameter values.
Different speech unit data stores different parameters PAn. For example, parameters PAn having different formant center frequencies and gains are stored in the phoneme transition units ae and ai.
[0010]
Further, in addition to these parameters PAn, pitch data DP (hereinafter, referred to as database pitch DP) of the speech unit at each time is stored in the data of each phoneme transition portion and the steady portion one by one. I have.
[0011]
The synthesis
[0012]
Further, the synthesis
Further, the synthesis
[0013]
The key scaling
The
With this key scaling effect, for example, the synthesis parameter is adjusted according to the pitch of the singing voice to be synthesized, such as raising the pitch of the voice when generating a high sound, or making the voice difficult to hear when generating a low sound. Can be adjusted, so that natural speech synthesis is possible. Further, since it is not necessary to provide a voice database for each pitch to be synthesized, the size of the voice database can be small.
Then, when using the database pitch DP to synthesize a singing voice having the same pitch as that stored in the
[0014]
(Equation 1)
PAn '= PAn + fn (SP) -fn (DP)
[0015]
Further, as shown in the following [Equation 2], a key scaling effect is provided by multiplying each parameter PAn by a value obtained by adding a constant (for example, 1) to the difference between the function values fn (SP) and fn (DP). You may.
(Equation 2)
PAn ′ = PAn × (fn (SP) −fn (DP) +1.0)
[0016]
Which of the above [Equation 1] and [Equation 2] is selected depends on the properties of each parameter PAn. For example, when the value of the parameter PAn is expressed by a logarithm such as a gain, [Equation 1] is appropriate, and when the value of the parameter PAn is expressed by a linear value such as a frequency (Hz), [ Equation 2] is appropriate.
[0017]
In both cases of [Equation 1] and [Equation 2], when SP = DP, PAn ′ = PAn. That is, when the pitch SP to be synthesized is equal to the database pitch DP stored in the
The
[0018]
Next, the operation of the singing
[0019]
In the flowchart shown in FIG. 4, each parameter PAn (n = 1, 2,..., N) in one piece of speech unit data is processed in order from 1 to N. Further, since each parameter PAn is represented by a function of time t, in the processing of each parameter PAn, the synthesized pitch data SP (t) and the database pitch DP (t) are acquired and corrected at each time t. The value of the parameter PAn (t) 'is obtained. More specifically, first, a variable n indicating the type of each parameter PAn is initialized to 1 (S1), and a scaling function fn corresponding to the value of n is read from the scaling function storage unit 13 (S2). Subsequently, the time t is initialized to 0 (S3), and the parameter PAn (t) at the time t is obtained (S4).
[0020]
Next, the values of the synthesized pitch data SP (t) and the database pitch data DP (t) at the time t are acquired (S5). Then, based on the values acquired in S4 and S5, the correction parameter PAn (t) 'is calculated by [Equation 1] or [Equation 2] (S6). In S6, either one of [Equation 1] or [Equation 2] may be fixedly used, or either [Equation 1] or [Equation 2] may be used depending on the type of the parameter PAn. It may be made to automatically select whether to use.
[0021]
In this way, for all times t (t = 0 to T), the correction parameter PAn ′ (t) is calculated by repeating the procedure of S4 to S6 while incrementing t by Δt (S7, S8). In the flowchart of FIG. 4, the discrete correction parameter value PAn ′ (t) is calculated for each Δt, so that when an intermediate value of each data is required, the calculation may be performed by interpolation.
The procedure described above is repeated until calculation is performed for all parameters PAn (n = 1, 2,... N) (S9, S10). The singing voice is synthesized and output by synthesizing the waveform obtained based on the data obtained by the
[0022]
Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, in the speech database 101, in addition to the phoneme transition portion and the steady portion, data (timbre) of a specific phoneme portion ) May be held.
The database pitch DP may store pitch data at each time of the speech unit data as described above, but may be stored as one pitch data representative of each time of the speech unit data. May be.
The MIDI data input to the synthesis
Further, instead of determining the synthesized pitch data SP based on the pitch data and the lyrics data as MIDI data, the synthesized pitch data SP data may be stored in advance as MIDI data.
The data input to the synthesis
[0023]
【The invention's effect】
As described above, according to the present invention, since the pitch of the speech unit is stored as the database pitch, the singing voice having the same pitch as the pitch of the original singing voice is synthesized with a small key scaling function. In such a case, the tone quality such as the tone color can be changed only when the tone quality such as the tone color is kept as it is, and the singing voice having a pitch different from the pitch of the original singing voice is to be synthesized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an entire configuration of a singing voice synthesizing apparatus according to an embodiment of the present invention.
FIG. 2 conceptually shows the contents of data stored in a voice database shown in FIG.
FIG. 3 shows the contents of a key scaling function fn.
FIG. 4 is a flowchart showing the operation of the singing
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
音声を合成するための音声素片データが記憶された音韻データベースと、
前記音声情報に基づいて前記音韻データベースに記憶された前記音声素片データを選択する選択部と、
合成しようとする音声のピッチを時系列で示す合成ピッチデータを出力する合成ピッチデータ出力部と、
前記選択部で選択された音声素片データから合成パラメータを抽出して出力する合成パラメータ出力部と、
前記合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータを抽出してデータベースピッチデータとして出力するデータベースピッチデータ生成部と、
前記合成パラメータ毎に用意されたキースケーリング関数を記憶するキースケーリング関数記憶部と、
前記合成ピッチデータを前記キースケーリング関数に代入して得られた関数値と前記データベースピッチデータを前記キースケーリング関数に代入して得られた関数値との差に基づき、前記合成パラメータを補正して補正パラメータを出力するキースケーリング部と、
前記補正パラメータに基づく波形を合成する波形合成部とを備えたことを特徴とする歌唱合成装置。A voice information input unit for receiving voice information indicating the content of voice to be synthesized;
A phoneme database storing speech unit data for synthesizing speech,
A selection unit that selects the speech unit data stored in the phoneme database based on the speech information,
A synthesized pitch data output unit that outputs synthesized pitch data indicating a pitch of a voice to be synthesized in a time series,
A synthesis parameter output unit that extracts and outputs synthesis parameters from the speech unit data selected by the selection unit,
A database pitch data generation unit that extracts pitch data constituting speech unit data used when extracting the synthesis parameter and outputs the extracted data as database pitch data,
A key scaling function storage unit that stores a key scaling function prepared for each of the synthesis parameters;
Correcting the synthesis parameter based on a difference between a function value obtained by substituting the synthesized pitch data into the key scaling function and a function value obtained by substituting the database pitch data into the key scaling function. A key scaling unit that outputs correction parameters,
A singing voice synthesizing device, comprising: a waveform synthesizing unit that synthesizes a waveform based on the correction parameter.
音声を合成するための音声素片データを予め音韻データベースに記憶させるとともに、前記音声情報に基づいて前記音韻データベースに記憶された音声素片データを選択する選択ステップと、
合成しようとする音声のピッチを時系列で示す合成ピッチデータを出力する合成ピッチデータ出力ステップと、
前記選択ステップで選択された前記音声素片データから合成パラメータを抽出して出力する合成パラメータ出力ステップと、
前記合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータを抽出してデータベースピッチデータとして出力するデータベースピッチデータ生成ステップと、
前記合成パラメータ毎にキースケーリング関数を用意するとともに、前記合成ピッチデータを前記キースケーリング関数に代入して得られた関数値と前記データベースピッチデータを前記キースケーリング関数に代入して得られた関数値との差に基づき、前記合成パラメータを補正して補正パラメータを出力するキースケーリングステップと、
前記補正パラメータに基づく波形を合成する波形合成ステップとを備えたことを特徴とする歌唱合成方法。A voice information input step of inputting voice information indicating the content of the voice to be synthesized;
A selection step of storing speech unit data for synthesizing speech in advance in a phoneme database, and selecting speech unit data stored in the phoneme database based on the speech information,
A synthesized pitch data output step of outputting synthesized pitch data indicating a pitch of a voice to be synthesized in a time series;
A synthesis parameter output step of extracting and outputting a synthesis parameter from the speech unit data selected in the selection step,
A database pitch data generating step of extracting pitch data constituting speech unit data used when extracting the synthesis parameter and outputting the extracted pitch data as database pitch data;
A key scaling function is prepared for each of the synthesis parameters, and a function value obtained by substituting the synthesized pitch data into the key scaling function and a function value obtained by substituting the database pitch data into the key scaling function A key scaling step of correcting the synthesis parameter and outputting a correction parameter based on the difference between
And a waveform synthesizing step of synthesizing a waveform based on the correction parameter.
音声を合成するための音声素片データを予め音韻データベースに記憶させるとともに、前記音声情報に基づいて前記音韻データベースに記憶された音声素片データを選択する選択ステップと、
合成しようとする音声のピッチを時系列で示す合成ピッチデータを出力する合成ピッチデータ出力ステップと、
前記選択ステップで選択された前記音声素片データから合成パラメータを抽出して出力する合成パラメータ出力ステップと、
前記合成パラメータを抽出する際に使用した音声素片データを構成するピッチデータを抽出してデータベースピッチデータとして出力するデータベースピッチデータ生成ステップと、
前記合成パラメータ毎にキースケーリング関数を用意するとともに、前記合成ピッチデータを前記キースケーリング関数に代入して得られた関数値と前記データベースピッチデータを前記キースケーリング関数に代入して得られた関数値の差に基づき、前記合成パラメータを補正して補正パラメータを出力するキースケーリングステップと、
前記補正パラメータに基づく波形を合成する波形合成ステップとをコンピュータに実行させるように構成されたことを特徴とする歌唱合成用プログラム。A voice information input step of inputting voice information indicating the content of the voice to be synthesized;
A selection step of storing speech unit data for synthesizing speech in advance in a phoneme database, and selecting speech unit data stored in the phoneme database based on the speech information,
A synthesized pitch data output step of outputting synthesized pitch data indicating a pitch of a voice to be synthesized in a time series;
A synthesis parameter output step of extracting and outputting a synthesis parameter from the speech unit data selected in the selection step,
A database pitch data generating step of extracting pitch data constituting speech unit data used when extracting the synthesis parameter and outputting the extracted pitch data as database pitch data;
A key scaling function is prepared for each of the synthesis parameters, and a function value obtained by substituting the synthesized pitch data into the key scaling function and a function value obtained by substituting the database pitch data into the key scaling function. A key scaling step of correcting the synthesis parameter and outputting a correction parameter based on the difference
And a waveform synthesizing step for synthesizing a waveform based on the correction parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002219203A JP3979213B2 (en) | 2002-07-29 | 2002-07-29 | Singing synthesis device, singing synthesis method and singing synthesis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002219203A JP3979213B2 (en) | 2002-07-29 | 2002-07-29 | Singing synthesis device, singing synthesis method and singing synthesis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004061793A true JP2004061793A (en) | 2004-02-26 |
JP3979213B2 JP3979213B2 (en) | 2007-09-19 |
Family
ID=31940161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002219203A Expired - Fee Related JP3979213B2 (en) | 2002-07-29 | 2002-07-29 | Singing synthesis device, singing synthesis method and singing synthesis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3979213B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016161919A (en) * | 2015-03-05 | 2016-09-05 | ヤマハ株式会社 | Voice synthesis device |
-
2002
- 2002-07-29 JP JP2002219203A patent/JP3979213B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016161919A (en) * | 2015-03-05 | 2016-09-05 | ヤマハ株式会社 | Voice synthesis device |
Also Published As
Publication number | Publication date |
---|---|
JP3979213B2 (en) | 2007-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6992245B2 (en) | Singing voice synthesizing method | |
JP4067762B2 (en) | Singing synthesis device | |
JP4207902B2 (en) | Speech synthesis apparatus and program | |
US6687674B2 (en) | Waveform forming device and method | |
JP4153220B2 (en) | SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS METHOD, AND SINGE SYNTHESIS PROGRAM | |
JP3941611B2 (en) | SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS METHOD, AND SINGE SYNTHESIS PROGRAM | |
US20190251950A1 (en) | Voice synthesis method, voice synthesis device, and storage medium | |
EP1701336B1 (en) | Sound processing apparatus and method, and program therefor | |
US8492639B2 (en) | Audio processing apparatus and method | |
WO2020095951A1 (en) | Acoustic processing method and acoustic processing system | |
JP2003345400A (en) | Method, device, and program for pitch conversion | |
JP4757971B2 (en) | Harmony sound adding device | |
JP3979213B2 (en) | Singing synthesis device, singing synthesis method and singing synthesis program | |
JP2007226174A (en) | Singing synthesizer, singing synthesizing method, and program for singing synthesis | |
JP2000010597A (en) | Speech transforming device and method therefor | |
EP1505570B1 (en) | Singing voice synthesizing method | |
JP2000003200A (en) | Voice signal processor and voice signal processing method | |
WO2022080395A1 (en) | Audio synthesizing method and program | |
JP2005195968A (en) | Pitch converting device | |
JP3540609B2 (en) | Voice conversion device and voice conversion method | |
JP3540160B2 (en) | Voice conversion device and voice conversion method | |
JP3248212B2 (en) | Sound source device | |
JP2000010599A (en) | Device and method for converting voice | |
JP2003202882A (en) | Method and device for sound synthesis | |
JPH10124065A (en) | Musical sound waveform forming method and musical sound generating method for electronic musical instrument, and device therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070618 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100706 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100706 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110706 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110706 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120706 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130706 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |