JP4432834B2 - Singing composition device and singing composition program - Google Patents
Singing composition device and singing composition program Download PDFInfo
- Publication number
- JP4432834B2 JP4432834B2 JP2005157758A JP2005157758A JP4432834B2 JP 4432834 B2 JP4432834 B2 JP 4432834B2 JP 2005157758 A JP2005157758 A JP 2005157758A JP 2005157758 A JP2005157758 A JP 2005157758A JP 4432834 B2 JP4432834 B2 JP 4432834B2
- Authority
- JP
- Japan
- Prior art keywords
- note
- control point
- pitch
- singing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
本発明は、歌唱音の合成を行う歌唱合成装置および歌唱合成プログラムに関する。 The present invention relates to a singing voice synthesizing apparatus and a singing voice synthesis program for synthesizing singing sounds.
歌詞データと音符データとを記憶し、音符データの読出に対応して歌詞データを読み出し、歌詞データに対応した音韻を発音させて歌詞を歌唱させる歌唱合成装置が各種提案されている。この種の歌唱合成装置は、人間らしい自然な歌唱音を合成する機能が求められる。人間の歌唱音を観察すると、歌唱音のピッチは、音符データ通りに階段状に変化するのではなく、ある音符に対応した発声から次の音符に対応した発声へと移行する際に、曲線を描いて連続的に変化する。この変化が歌唱の人間らしさの一因となっていると考えられる。そこで、従来から、歌唱合成装置において、合成される歌唱音のピッチに人間らしい変化を与えるための検討がなされてきた。例えば特許文献1は、連続した2つの音符に対応した歌唱音を合成する場合に、各音符に対応したピッチ間を直線で結び、この直線の前後にオーバシュート部を設けたピッチ曲線を求め、このピッチ曲線に従ってピッチが変化する歌唱音を合成する装置を提案している。
しかしながら、上述した特許文献1に開示の歌唱合成装置は、合成される歌唱音のピッチが音符に対応するピッチに到達した後、歌唱音のピッチに変化がないため、同じ音色が連続することとなり、ブザー音に似た人工的な歌声になりやすいという問題があった。 However, in the singing voice synthesizing device disclosed in Patent Document 1 described above, after the pitch of the synthesized singing sound reaches the pitch corresponding to the note, there is no change in the pitch of the singing sound. There was a problem that it was easy to become an artificial singing voice similar to a buzzer sound.
この発明は、以上説明した事情に鑑みてなされたものであり、合成される歌唱音のピッチが音符に対応したピッチに到達した後の区間においても、ピッチに変化を与えることができ、自然な歌唱音を得ることができる歌唱合成装置および歌唱合成プログラムを提供することを目的とする。 The present invention has been made in view of the circumstances described above, and even in a section after the pitch of the synthesized singing sound has reached the pitch corresponding to the note, the pitch can be changed, which is natural. An object is to provide a singing voice synthesizing apparatus and a singing voice synthesizing program capable of obtaining a singing sound.
この発明は、1つの音符の区間内において歌唱音のピッチの軌道の通過点となる3種類の制御点の相対的な位置を定めるデータに従い、曲を構成する音符毎に、歌唱音のピッチの軌道の通過点となる制御点を設定する制御点設定手段と、擬似乱数を発生し、発生した擬似乱数に従って、前記制御点設定手段により設定される制御点の時刻を分散させる分散手段と、隣接する2種類の制御点間の区間毎に定められた演算方法に従い、前記制御点設定手段によって設定された各制御点を通過する軌道を求め、該軌道に沿ってピッチを変化させるピッチデータを生成して記憶手段に格納するピッチデータ生成手段と、前記ピッチデータを前記記憶手段から読み出し、歌唱音を合成する音源に出力する出力手段とを具備することを特徴とする歌唱合成装置およびコンピュータを前記歌唱合成装置として機能させる歌唱合成プログラムを提供する。
かかる発明によれば、音符毎に制御点が設定され、制御点を通過する軌道に沿って、合成される歌唱音のピッチを変化させることができるので、合成される歌唱音のピッチが音符に対応したピッチに到達した後の区間においても、ピッチに変化を与えることができ、自然な歌唱音を得ることができる。
According to the present invention, the pitch of the singing sound pitch is determined for each note constituting the song in accordance with the data for determining the relative positions of the three types of control points that are the passage points of the pitch of the singing sound within a single note interval. A control point setting means for setting a control point to be a passing point of the trajectory, a dispersion means for generating a pseudo random number, and distributing the time of the control point set by the control point setting means in accordance with the generated pseudo random number; The trajectory passing through each control point set by the control point setting means is obtained according to a calculation method determined for each section between the two types of control points to be generated, and pitch data for changing the pitch along the trajectory is generated. A singing composition comprising: pitch data generating means for storing in the storing means; and output means for reading the pitch data from the storing means and outputting the singing sound to a sound source. Providing singing synthesis program to function location and computer as the singing voice synthesizing apparatus.
According to this invention, since the control point is set for each note and the pitch of the synthesized singing sound can be changed along the trajectory passing through the control point, the pitch of the synthesized singing sound is changed to the note. Even in the section after reaching the corresponding pitch, the pitch can be changed, and a natural singing sound can be obtained.
以下、図面を参照し、この発明の実施の形態を説明する。
<第1実施形態>
図1は、この発明の第1実施形態である歌唱合成装置の構成を示すブロック図である。この歌唱合成装置は、音声を合成して出力する機能を有するパーソナルコンピュータなどのコンピュータに対し、歌唱合成プログラムをインストールしたものである。図1において、CPU1は、この歌唱合成装置の各部を制御する制御中枢である。ROM2は、ローダなど、この歌唱合成装置の基本的な動作を制御するための制御プログラムを記憶した読み出し専用メモリである。表示部3は、装置の動作状態や入力データおよび操作者に対するメッセージなどを表示するための装置である。操作部4は、ユーザからコマンドや各種の情報を受け取るための手段であり、キーボードやマウスなどの各種の操作子により構成されている。インタフェース群5は、ネットワークを介して他の装置との間でデータ通信を行うためのネットワークインタフェースや、磁気ディスクやCD−ROMなどの外部記憶媒体との間でデータの授受を行うためのドライバなどにより構成されている。HDD(ハードディスク装置)6は、各種のプログラムやデータベースなどの情報を記憶するための不揮発性記憶装置である。RAM7は、CPU1によってワークエリアとして使用される揮発性メモリである。CPU1は、操作部4を介して与えられる指令に従い、HDD6内のプログラムをRAM7にロードして実行する。
Embodiments of the present invention will be described below with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a singing voice synthesizing apparatus according to the first embodiment of the present invention. This singing voice synthesizing apparatus is obtained by installing a singing voice synthesis program on a computer such as a personal computer having a function of synthesizing and outputting a voice. In FIG. 1, CPU1 is a control center which controls each part of this song synthesis apparatus. The
フォルマント音源8は、CPU1による制御の下、歌唱音を合成する音源である。このフォルマント音源8には、歌唱音のフォルマントを特定する情報として、フォルマント中心周波数データFFreq、フォルマントレベルデータFlevelおよびフォルマント形状データFShapeが与えられ、また、歌唱音のピッチを指定するピッチデータPITCHが与えられる。フォルマント音源8は、これらのデータにより指定されたフォルマントおよびピッチを有する歌唱音を合成し、サウンドシステム9から出力する。
The
HDD6に記憶される情報として、曲編集プログラム61と、曲データ62と、音韻データベース63と、歌唱合成プログラム64がある。曲データ62は、曲を構成する一連の音符を表す音符データと、音符に合わせて発声する歌詞を表す歌詞データとからなるデータであり、曲毎に編集されてHDD6に格納される。曲編集プログラム61は、曲データを編集するためにCPU1によって実行されるプログラムである。好ましい態様において、この曲編集プログラム61は、ピアノの鍵盤の画像からなるGUI(グラフィカルユーザインタフェース)を表示部3に表示させる。ユーザは、表示部3に表示された鍵盤における所望の鍵の画像を操作部4の操作により指定し、また、その音符に合わせて発声する歌詞を操作部4の操作により入力することができる。曲編集プログラム61は、このようにして、音符とその音符に合わせて発声する歌詞に関する情報をユーザから操作部4を介して受け取り、音符毎に音符データと歌詞データとを曲データ62としてHDD6内に格納する。
Information stored in the HDD 6 includes a
1個の音符に対応した音符データは、音符の発生時刻、音高、音符の長さを示す各情報を含んでいる。歌詞データは、音符に合わせて発音すべき歌詞を音符毎に定義したデータである。曲データ62は、曲の開始からの発生順序に合わせて、個々の音符に対応した音符データと歌詞データとを時系列的に並べたものであり、曲データ62内において音符データと歌詞データは音符単位で対応付けられている。
The note data corresponding to one note includes information indicating the note generation time, pitch, and note length. The lyric data is data in which lyrics to be pronounced in accordance with the notes are defined for each note. The
歌唱合成プログラム64は、この曲データ62に従って、フォルマント音源8に歌唱音を合成させる処理をCPU1に実行させるプログラムである。好ましい態様において、歌唱合成プログラム64および曲編集プログラム61は、例えばインターネット内のサイトからインタフェース群5の中の適当なものを介してダウンロードされ、HDD6にインストールされる。また、他の態様において、歌唱合成プログラム64等は、CD−ROM、MDなどのコンピュータ読み取り可能な記憶媒体に記憶された状態で取引される。この態様では、インタフェース群5の中の適当なものを介して記憶媒体から歌唱合成プログラム64等が読み出され、HDD6にインストールされる。音韻データベース63は、歌唱合成プログラム64によって参照される音韻データのグループの集合体である。音韻データベース63では、発生する音声の種類、例えば、男声、女声、あるいは特定の歌手等ごとに音韻データのグループが用意されている。歌唱合成プログラム64による歌唱合成の際、ユーザは、操作部4の操作により、発声させたい声質に応じて使用する音韻データのグループを選択することができる。各グループを構成する音韻データは、各音韻をフォルマント合成するためのパラメータであり、各音韻対応に、その音韻を発生するための各フォルマントの形状を指定するフォルマント形状データFShape、各フォルマントの中心周波数をそれぞれ指定するフォルマント中心周波数データFFreq、各フォルマントの出力レベルをそれぞれ指定するフォルマントレベルデータFLevelからなっている。
The song synthesis program 64 is a program that causes the CPU 1 to execute a process of causing the
図2は歌唱合成プログラム64の処理内容を示している。歌唱合成プログラム64は、大別して、歌唱合成スコア生成処理64Aと歌唱合成スコア出力処理64Bとにより構成されている。歌唱合成スコア生成処理64Aは、ユーザによって指定された曲データ62と、音韻データベース63内においてユーザによって指定されたグループの音韻データとに基づき、ピッチデータトラック71および音韻データトラック72からなる歌唱合成スコア70をRAM7内のワークエリアに生成する処理である(図1参照)。ここで、ピッチデータトラック71は、歌唱音のピッチを指定するピッチデータPITCHを曲の開始点からの時間経過に従って時系列的に並べたデータストリームである。また、音韻データトラック72は、歌唱音のフォルマントを特徴付けるフォルマント形状データFShape、フォルマント中心周波数データFFreqおよびフォルマントレベルデータFLevelを曲の開始点からの時間経過に従って時系列的に並べたデータストリームである。
FIG. 2 shows the processing contents of the song synthesis program 64. The song synthesis program 64 is roughly divided into a song synthesis
歌唱合成スコア生成処理64Aは、ピッチデータトラック71を生成するための処理として、制御点設定処理641と、ピッチデータ生成処理642とを有している。本実施形態では、歌唱音の表情を豊かなものにするため、音符に対応したピッチに到達した以降における歌唱音のピッチを、ある軌道に沿って変化させ、このピッチの時間的変化を持った歌唱音をフォルマント音源8に生成させる。このように歌唱音のピッチを変化させるため、制御点設定処理641では、音符毎に、合成される歌唱音のピッチの軌跡の目標通過点として、基本的には3個の制御点A、BおよびC、例外的にはそれらのうちの2個または1個の制御点を定める。ここで、制御点Aは、歌唱音のピッチが音符に対応したピッチに到達した後、最初に通過すべき目標通過点、制御点Bは、2番目に通過すべき目標通過点、制御点Cは最後に通過すべき目標通過点である。
The song synthesis
このような制御点を音符毎に定めるため、本実施形態では、制御点A、B、Cに関するデータが予め用意されている。ここで、制御点AおよびBに関するデータは、音符の開始時刻(ノートオンタイミング)から制御点AまたはBまでの経過時間を示す情報と、制御点AまたはBのピッチと平均律により決められる音符のピッチとの音高差を示すセント値とを含む。また、制御点Cに関するデータは、制御点Cから音符の終了時刻(ノートオフタイミング)までの残り時間を示す情報と、制御点Cのピッチと平均律により決められる音符のピッチとの音高差を示すセント値とを含む。制御点設定処理641では、音符毎に、その音符の音符データと、これらの制御点A、BおよびCに関するデータとに基づき、制御点A、BおよびCのタイミングとピッチを定める。
In order to determine such control points for each note, in this embodiment, data relating to control points A, B, and C are prepared in advance. Here, the data relating to the control points A and B are information indicating the elapsed time from the note start time (note-on timing) to the control point A or B, and the note determined by the pitch of the control point A or B and the equal temperament. And a cent value indicating a pitch difference from the pitch. Further, the data related to the control point C is a pitch difference between the information indicating the remaining time from the control point C to the note end time (note-off timing) and the pitch of the note determined by the pitch of the control point C and the equal temperament. And a cent value indicating. In the control
ピッチデータ生成処理642では、これらの制御点A、BおよびCを通過するピッチの軌道を求め、この軌道に沿ってピッチを変化させるピッチデータを生成し、このピッチデータをピッチデータトラック71に格納する。本実施形態では、制御点AおよびB間と、制御点BおよびC間と、制御点Cおよび次の音符の制御点A間について、各区間のピッチの軌道を求めるための関数が予め定義されている。ピッチデータ生成処理642では、これらの関数を利用し、各制御点を通過するピッチの軌道を求める。
In the pitch
歌唱合成スコア生成処理64Aは、音韻データトラック72を生成するための処理として、音韻抽出処理643と、音韻データ生成処理644とを有している。音韻抽出処理643は、歌詞データ62Bが示す歌詞から音韻を順次抽出する処理である。音韻データ生成処理644は、音韻データベース63内の音韻データのうちユーザによって指定されたグループのものの中から、音韻抽出処理643により抽出された音韻を合成するための音韻データ、具体的にはフォルマント形状データFShape、フォルマント中心周波数データFFreqおよびフォルマントレベルデータFLevelを読み出し、音韻データトラック72に格納する。
The singing synthesis score generation process 64 </ b> A includes a
歌唱合成スコア出力処理64Bは、以上説明した歌唱合成スコア生成処理64Aにより生成されたピッチデータトラック71および音韻データトラック72の同期再生を行い、ピッチデータPITCHと、音韻データであるフォルマント形状データFShape、フォルマント中心周波数データFFreqおよびフォルマントレベルデータFLevelをフォルマント音源8に供給する処理である。さらに詳述すると、歌唱合成スコア出力処理64Bでは、曲の進行に合わせて各音符に対応したピッチデータPITCHおよび音韻データをピッチデータトラック71および音韻データトラック72から読み出してフォルマント音源8に供給する。また、歌唱合成スコア出力処理64Bでは、母音のみからなる音節は、音符のノートオンタイミングにおいてフォルマント音源8から出力され、子音および母音からなる音節は、音符のノートオンタイミングにおいて母音部分がフォルマント音源8から出力されるように、各音韻データのフォルマント音源8への供給タイミングが制御される。
以上が歌唱合成プログラムの処理内容の概略である。なお、歌唱合成プログラムの詳細、特に制御点設定処理641およびピッチデータ生成処理642の詳細については、説明の重複を避けるため、本実施形態の動作説明において明らかにする。
The singing synthesis
The above is the outline of the processing content of the song synthesis program. Note that details of the song synthesis program, particularly the details of the control
次に本実施形態の動作を説明する。なお、以下では、本実施形態の特徴である歌唱合成の動作を説明し、他の動作の説明は省略する。CPU1は、操作部4を介して所定の指示が与えられることにより、HDD6内の歌唱合成プログラム64をRAM7にロードして実行する。この歌唱合成プログラム64の実行過程において、歌唱合成の対象である曲データ62と、合成に用いる音韻データのグループとが操作部4の操作により指定され、歌唱合成開始の指示がユーザから与えられると、まず、歌唱合成スコア生成処理64Aの実行が開始され、それから少し遅れて歌唱合成スコア出力処理64Bの実行が開始される。
Next, the operation of this embodiment will be described. In addition, below, the operation | movement of singing composition which is the characteristics of this embodiment is demonstrated, and description of another operation | movement is abbreviate | omitted. When a predetermined instruction is given via the operation unit 4, the CPU 1 loads the song synthesis program 64 in the HDD 6 into the
歌唱合成スコア生成処理64Aでは、制御点設定処理641およびピッチデータ生成処理642の実行により音符データ62Aからピッチデータトラック71が生成され、音韻抽出処理643および音韻データ生成処理644の実行により歌詞データ62Bから音韻データトラック72が生成される。
In the singing synthesis
歌唱合成スコア出力処理64Bでは、歌唱合成スコア生成処理64Aにより生成されたピッチデータトラック71および音韻データトラック72の同期再生が行われ、ピッチデータPITCHと、音韻データがフォルマント音源8に供給される。この結果、音韻データによって特徴付けられるフォルマントを有し、かつ、ピッチデータPITCHにより指定されるピッチを有する歌唱音がフォルマント音源8により順次合成され、サウンドシステム9から出力される。
In the singing synthesis
本実施形態では、フォルマント音源8により合成される歌唱音のピッチを制御するための手段として、制御点設定処理641およびピッチデータ生成処理642が実行される。このため、フォルマント音源8により合成される歌唱音のピッチの変化の態様は、以下説明するように本実施形態特有のものとなる。
In the present embodiment, a control
図3(a)〜(c)は制御点設定処理641およびピッチデータ生成処理642の実行例を示している。図3(a)は、音符データ62Aの内容を例示するものである。この図において、横軸は時間であり、縦軸は音符のピッチである。この図に示すように、音符データ62Aによって表される一連の音符N0〜N4のピッチは、階段状に変化する。制御点設定処理641では、これらの音符N0〜N4に制御点が設定され、ピッチデータ生成処理642では各制御点を通過するピッチの軌道が求められ、この軌道に沿ってピッチを変化させるピッチデータが生成される。図3(b)は、音符N1に対して制御点A、B、Cが設定され、これらの制御点間を結ぶピッチの軌道が決定された様子を示している。図3(b)に示す例において、制御点AおよびCのピッチは、音符のピッチよりも僅かに高いピッチとされ、制御点Bのピッチは音符のピッチよりも低いピッチとされている。
FIGS. 3A to 3C show execution examples of the control
制御点設定処理641では、1つの音符に対し、基本的に3つの制御点A、B、Cが設定される。しかし、音符の符長が第1の閾値より短い場合には、最後の制御点Cが消去され、制御点AおよびBのみが設定される。さらに、音符の符長が第1の閾値よりも短い第2の閾値よりも短く、2つの制御点を設定するに値しない場合には、制御点Aのみがその音符に設定される。図3(c)には、符長が長い音符N1およびN4に3つの制御点A、B、Cが設定され、第1の閾値よりも短い符長の音符N3に2つの制御点A、Bが設定され、第2の閾値よりも短い符長の音符N2に1つの制御点Aが設定された例が示されている。
In the control
ピッチデータ生成処理642においては、制御点AおよびB間、制御点BおよびC間、最後の制御点(通常は制御点C、例外的に制御点BまたはA)および後続音符の制御点A間の各区間についてピッチの軌道の演算方法が定められており、この演算方法に従って各区間の軌道が演算される。この制御点間の軌道の演算方法には各種の態様が考えられる。図3(b)では、制御点AおよびB間を結ぶ直線をピッチの軌道とする第1の態様が破線で示され、制御点AおよびB間を結ぶ緩やかな谷をピッチの軌跡とする第2の態様が実線で示されている。
In the pitch
第1の態様では、例えば時刻tにおける制御点AおよびB間の軌道上のピッチpを、次式により求めることができる。
p=pA+((pB−pA)/(tB−tA))(t−tA) ……(1)
ここで、pAは制御点Aのピッチ、pBは制御点Bのピッチ、tAは制御点Aの時刻、tBは制御点Bの時刻である。
In the first aspect, for example, the pitch p on the trajectory between the control points A and B at time t can be obtained by the following equation.
p = pA + ((pB−pA) / (tB−tA)) (t−tA) (1)
Here, pA is the pitch of the control point A, pB is the pitch of the control point B, tA is the time of the control point A, and tB is the time of the control point B.
第2の態様では、制御点AおよびB間の軌道上のピッチPを、次式により求めることができる。
p=pA+((pB−pA)/(tB−tA))(t−tA)
−v1sin2(π(t−tA)/(tB−tA)) ……(2)
ここで、v1は谷の深さを表すパラメータである。
制御点BおよびC間のピッチの軌道も同様であり、この軌道は制御点間を結ぶ直線としてもよいし、曲線としてもよい。
本実施形態では、実際の人間の歌唱音におけるピッチの振る舞いに合わせ、制御点AおよびB間の軌道は谷とし、制御点BおよびC間の軌道は直線としている。
In the second mode, the pitch P on the trajectory between the control points A and B can be obtained by the following equation.
p = pA + ((pB−pA) / (tB−tA)) (t−tA)
−v1sin 2 (π (t−tA) / (tB−tA)) (2)
Here, v1 is a parameter representing the depth of the valley.
The same applies to the trajectory of the pitch between the control points B and C, and this trajectory may be a straight line connecting the control points or a curved line.
In the present embodiment, the trajectory between the control points A and B is a valley and the trajectory between the control points B and C is a straight line according to the behavior of the pitch in an actual human singing sound.
音符の切り換わり部分におけるピッチの軌道は、先行する音符の最後の制御点(通常は制御点C)と後続の音符の最初の制御点Aとを結ぶ直線または曲線とされる。図3(c)に示す例では、音符N0から音符N1への切り換わり部分におけるピッチの軌道として、先行する音符N0の最後の制御点Cと後続の音符N1の最初の制御点Aを結ぶ曲線が採用されている。実際の歌声のピッチの動きを観察すると、この音符の切り換わり部分のピッチの軌道は、図4に実線で示すように撓んでいることが多い。そこで、好ましい態様におけるピッチデータ生成処理642では、先行する音符の最後の制御点(通常は制御点C、例外的に制御点BまたはA)と後続の最初の制御点との間の区間の軌道を次のようにして求める。
The pitch trajectory at the note switching portion is a straight line or a curve connecting the last control point of the preceding note (usually control point C) and the first control point A of the following note. In the example shown in FIG. 3C, a curve connecting the last control point C of the preceding note N0 and the first control point A of the succeeding note N1 as the trajectory of the pitch at the switching portion from the note N0 to the note N1. Is adopted. When observing the actual movement of the pitch of the singing voice, the pitch trajectory of the note switching portion is often bent as shown by the solid line in FIG. Therefore, in the pitch
すなわち、時刻をt、先行する音符の最後の制御点の時刻をtC、同制御点のピッチをpC、後続の音符の最初の制御点Aの時刻をtA、同制御点のピッチをpAとした場合、t≦(tA+tC)/2の区間は式(3)に従い、t>(tA+tC)/2の区間は式(4)に従って音符の切り換わり部分のピッチpを求めるのである。
p=(pA+pC)/2
−((pA−pC)/2)(1−2(t−tC)/(tA−tC))α)……(3)
p=(pA+pC)/2
+((pA−pC)/2)(2(t−tC)/(tA−tC)−1)α)……(4)
That is, the time is t, the time of the last control point of the preceding note is tC, the pitch of the control point is pC, the time of the first control point A of the subsequent note is tA, and the pitch of the control point is pA. In this case, the interval of t ≦ (tA + tC) / 2 is determined according to the equation (3), and the interval of t> (tA + tC) / 2 is determined according to the equation (4) to obtain the pitch p of the note switching portion.
p = (pA + pC) / 2
− ((PA−pC) / 2) (1-2 (t−tC) / (tA−tC)) α ) (3)
p = (pA + pC) / 2
+ ((PA−pC) / 2) (2 (t−tC) / (tA−tC) −1) α ) (4)
上記式(3)および(4)において、αはピッチ変化の撓み具合を調整するためのパラメータである。このパラメータαが1である場合、制御点間の軌道は図4に破線で示すように直線となる。また、パラメータαが1より小さい正の数である場合、図4に実線で示すように、前半のt≦(tA+tC)/2の区間の軌道は下方に撓んだ曲線となり、後半のt>(tA+tC)/2の区間の軌道は上方に撓んだ曲線となる。好ましい態様では、この曲線が音符の切り換わり部分のピッチの軌道として採用される。なお、パラメータαが1より大きい正の数である場合は、逆に、前半の区間の軌道は上方に撓んだ曲線となり、後半の区間の軌道は下方に撓んだ曲線となる。 In the above formulas (3) and (4), α is a parameter for adjusting the bending degree of the pitch change. When the parameter α is 1, the trajectory between the control points is a straight line as shown by a broken line in FIG. When the parameter α is a positive number smaller than 1, as shown by a solid line in FIG. 4, the trajectory in the first half section t ≦ (tA + tC) / 2 becomes a downwardly bent curve, and the second half t> The trajectory in the section of (tA + tC) / 2 is a curved line bent upward. In a preferred embodiment, this curve is employed as the pitch trajectory of the note switching portion. When the parameter α is a positive number larger than 1, conversely, the trajectory in the first half section is a curved line bent upward, and the trajectory in the second half section is a curved line bent downward.
音符の切り換わり部分のピッチの軌道に、前述した制御点AおよびB間の軌道に適用したような谷(図3(b)参照)を設けてもよい。この態様によれば、音程が上がるときに、歌声の音程が一旦下がってから上昇したり、音程が下がるときに、歌声の音程が一旦下がりすぎてから再度上がる現象を歌唱合成において再現することができる。 A trough (see FIG. 3B) as applied to the trajectory between the control points A and B described above may be provided on the trajectory of the pitch at which the notes are switched. According to this aspect, when the pitch goes up, the pitch of the singing voice rises once and then rises, or when the pitch goes down, the phenomenon that the pitch of the singing voice goes down once and then rises again can be reproduced in singing synthesis. it can.
ところで、実際の歌唱では、歌いだしの部分、すなわち、最初の音符または所定時間長以上の休符の後の音符に対応した歌唱部分において、特別なピッチの動きをする場合が多い。この現象を再現するため、本実施形態における制御点設定処理641では、対象とする音符の前の音符がない場合または対象とする音符の前に所定時間長以上の休符がある場合に、図5に示すように、対象とする音符の最初の制御点Aの前に1つ以上の追加の制御点(図5では制御点P、Q)を配置する。そして、ピッチデータ生成処理642では、この追加の制御点と、対象とする音符の最初の制御点Aとを結ぶ軌道を求め、この軌道に沿ってピッチを変化させるピッチデータを生成する。この場合、各制御点間を結ぶ軌道は、破線で示すように直線にしてもよく、あるいは実線で示すように曲線にしてもよい。なお、歌いだし部分の歌詞の存在しない期間は、歌詞から音韻データを生成することができないので、無音から歌いだしの歌詞に対応する音韻に遷移する音韻データを音韻データ生成処理644において生成し、音韻データトラック72に格納する。
By the way, in actual singing, there is often a special pitch movement in a singing part, that is, a singing part corresponding to a note after a first note or a rest longer than a predetermined time length. In order to reproduce this phenomenon, in the control
図5に示す例では、制御点Pは、最初の音符のノートオンタイミングよりも所定時間だけ前の位置に配置され、そのピッチは最初の音符に対応したピッチpSよりも所定量だけ低いピッチとされている。また、制御点Qは、最初の音符のノートオンタイミングに近い位置に配置され、制御点Qのピッチは、制御点Pよりもピッチが高く、かつ、制御点Aよりは制御点Pに近いピッチとされている。この場合、歌いだし部分における合成歌唱音のピッチは、最初の音符のノートオンタイミングの手前の制御点Pのある時刻から徐々に上昇を開始し、制御点Qのあるノートオンタイミング近くの時刻以降になると、それまでよりも急峻なスロープを描いて、制御点Aのあるピッチまで上昇する。このように、本態様によれば、歌いだし部分の特別なニュアンスを歌唱合成において再現することができる。 In the example shown in FIG. 5, the control point P is arranged at a position that is a predetermined time before the note-on timing of the first note, and its pitch is a pitch that is lower than the pitch pS corresponding to the first note by a predetermined amount. Has been. Further, the control point Q is arranged at a position close to the note-on timing of the first note, and the pitch of the control point Q is higher than the control point P and closer to the control point P than the control point A. It is said that. In this case, the pitch of the synthesized singing sound at the beginning of the singing starts gradually rising from a certain time at the control point P before the note-on timing of the first note, and after the time near the note-on timing at which the control point Q is located. Then, the slope rises to a certain pitch of the control point A while drawing a steeper slope than before. Thus, according to this aspect, the special nuance of the singing part can be reproduced in the singing synthesis.
歌いだしの場合には、追加の制御点P、Qを配置することに加えて、歌いだしの音符の最初の制御点Aを通常とは異なった位置に配置するようにすると、歌いだしの場合の特別なニュアンスを歌唱合成において再現することができる。例えば歌いだしの部分においては、歌声の音程が音符に対応した正しい音程に到達するまで若干の時間がかかる場合が多い。そこで、好ましい態様では、これを再現するために、歌いだし部分の最初の音符については、特別に、制御点Aのピッチを音符に対応したピッチよりも低く設定する。このようにすることで、より自然な歌いまわしを歌唱合成において再現することができる。 In the case of singing, in addition to arranging the additional control points P and Q, if the first control point A of the singing note is arranged at a different position from the normal case, This special nuance can be reproduced in singing synthesis. For example, in the beginning part, it often takes some time until the pitch of the singing voice reaches the correct pitch corresponding to the note. Therefore, in the preferred embodiment, in order to reproduce this, the pitch of the control point A is set to be lower than the pitch corresponding to the note for the first note of the singing portion. In this way, a more natural singing can be reproduced in singing synthesis.
同様に、実際の歌唱では、歌い終わりの部分、すなわち、曲の最後の音符または所定時間長以上の休符の前の音符に対応した歌唱部分においても、ピッチが最後にだら下がりになる等、特別なピッチの動きをする場合が多い。この現象を再現するため、本実施形態における制御点設定処理641では、対象とする音符の後に音符がない場合または対象とする音符の後に所定時間長以上の休符がある場合に、図6に示すように、対象とする音符の最後の制御点Cの後に1つ以上の追加の制御点(図6では制御点R、S)を配置する。そして、ピッチデータ生成処理642では、この追加の制御点と、対象とする音符の最後の制御点Cとを結ぶ軌道を求め、この軌道に沿ってピッチを変化させるピッチデータを生成する。この場合、各制御点間を結ぶ軌道は、破線で示すように直線にしてもよく、あるいは実線で示すように曲線にしてもよい。音韻データは、歌い終わりの部分の最後の音符に合わせて発声される音韻のものを引き続いて採用し、音韻データトラック72に格納すればよい。
Similarly, in actual singing, in the singing end part, that is, in the singing part corresponding to the last note of the song or the note before the rest longer than the predetermined time length, the pitch is gradually lowered, etc. There are many cases of special pitch movement. In order to reproduce this phenomenon, in the control
図6に示す例では、制御点Sは、最後の音符のノートオフタイミングよりも所定時間だけ後の位置に配置され、そのピッチは最後の音符に対応したピッチpEよりも所定量だけ低いピッチとされている。また、制御点Rは、最後の音符のノートオフタイミングに近い位置に配置され、制御点Rのピッチは、制御点Sよりもピッチが高く、かつ、最後の音符の最後の制御点Cよりは制御点Sに近いピッチとされている。この場合、歌い終わり部分における合成歌唱音のピッチは、最後の音符の最後の制御点Cの時刻からノートオフタイミングの近くの制御点Rのある時刻に掛けて下降し、それ以降は、それまでよりも緩やかなスロープを描いて、制御点Sのあるピッチまで下降する。このように、本態様によれば、歌い終わり部分の特別なニュアンスを歌唱合成において再現することができる。 In the example shown in FIG. 6, the control point S is arranged at a position after a predetermined time after the note-off timing of the last note, and the pitch is a pitch lower by a predetermined amount than the pitch pE corresponding to the last note. Has been. The control point R is arranged at a position close to the note-off timing of the last note. The pitch of the control point R is higher than that of the control point S and is higher than that of the last control point C of the last note. The pitch is close to the control point S. In this case, the pitch of the synthesized singing sound at the end of the singing is lowered from the time of the last control point C of the last note to the time of the control point R near the note-off timing, and thereafter A gentler slope is drawn and the control point S is lowered to a certain pitch. Thus, according to this aspect, the special nuance of the singing end portion can be reproduced in the singing synthesis.
以上説明したように、本実施形態によれば、歌唱音のピッチの軌道の通過点となる1〜3個の制御点を、音符データが示す音符毎に設定し、隣接する2種類の制御点間の区間毎に定められた軌道の演算方法に従い、各制御点を通過する軌道を求め、該軌道に沿って合成歌唱音のピッチを変化させるようにしたので、合成される歌唱音のピッチに対し、音符に対応するピッチに到達した後の区間においても変化を与えることができ、人間の歌唱に近い自然な歌唱を再現することができる。また、本実施形態によれば、音符の切り換わり部分において、先行する音符の最後の制御点と後続の音符の最初の制御点との間の区間のピッチの軌道に所望の変化を持たせることができるので、音符の切り換わり部分について自然な歌唱を再現することができる。また、本実施形態によれば、歌いだし部分については最初の音符の前に追加の制御点を配置し、歌い終わり部分については最後の音符の後に追加の制御点を配置し、これらの制御点を通過する軌道に従って合成歌唱音のピッチを変化させるようにしたので、歌いだし部分および歌い終わり部分の特別なニュアンスを歌唱合成において再現することができる。 As described above, according to the present embodiment, 1 to 3 control points serving as the passing points of the pitch of the singing sound are set for each note indicated by the note data, and two adjacent control points are set. The trajectory passing through each control point is obtained according to the trajectory calculation method determined for each interval, and the pitch of the synthesized singing sound is changed along the trajectory. On the other hand, a change can be given even in a section after reaching the pitch corresponding to the note, and a natural song close to a human song can be reproduced. Further, according to the present embodiment, at the part where the notes are switched, a desired change is given to the pitch trajectory of the section between the last control point of the preceding note and the first control point of the subsequent note. Therefore, natural singing can be reproduced for the part where the notes change. Further, according to the present embodiment, an additional control point is arranged before the first note for the singing portion, and an additional control point is arranged after the last note for the ending portion of the singing. Since the pitch of the synthesized singing sound is changed in accordance with the trajectory passing through, special nuances of the singing part and the singing end part can be reproduced in the singing composition.
<第2実施形態>
次に図7を参照し、この発明の第2実施形態について説明する。本実施形態は、上記第1実施形態に変形を加えたものである。本実施形態では、上記第1実施形態における歌唱合成スコア生成処理64Aに対し、擬似乱数生成処理645が追加されている。本実施形態では、制御点設定処理641により制御点の設定を行うときに、それに先立って擬似乱数生成処理645により擬似乱数を発生する。そして、この擬似乱数により各制御点の時刻またはピッチを、制御点の相対的位置を示すデータによる定まる位置から分散させる。
<Second Embodiment>
Next, a second embodiment of the present invention will be described with reference to FIG. This embodiment is a modification of the first embodiment. In the present embodiment, a pseudo-random
本実施形態では、ある音符の制御点A、B、C、次の音符の制御点A、B、Cという具合に、設定対象である制御点が進む度に、擬似乱数が発生され、この擬似乱数により各制御点の発生時刻またはピッチに揺らぎが与えられる。従って、制御点の位置が分散し、ピッチの変化の態様が画一的なものではなくなり、単調さのない自然な歌唱音を合成することができる。 In this embodiment, a pseudo-random number is generated each time a control point to be set advances, such as a control point A, B, C of a certain note, a control point A, B, C of the next note, etc. A fluctuation is given to the generation time or pitch of each control point by a random number. Therefore, the positions of the control points are dispersed, the mode of change in pitch is not uniform, and a natural singing sound without monotonousness can be synthesized.
さらに本実施形態では、擬似乱数生成処理645に加えて、制御点の種類毎に、分散化に用いる擬似乱数の範囲を変え、制御点の分散の程度を調整する乗算処理M1〜M7が設けられている。ここで、制御点の分散の程度は、操作部4の操作により、制御点の種類毎に設定することができる。従って、本実施形態によれば、ユーザは、制御点の種類毎に分散の程度を調整して、自分の好みにあった歌唱音を合成することができる。
Further, in the present embodiment, in addition to the pseudo random
本実施形態には、次のような変形例が考えられる。すなわち、曲の最初の音符および長い休符の後の音符の制御点の分散の程度を、それ以外の音符の制御点の分散の程度とは独立に、操作部4の操作により調整することができるように構成するのである。この態様によれば、歌いだしの部分の歌いまわしが画一的になるのを防止し、自然な歌唱音を合成することができる。 The following modifications can be considered for this embodiment. That is, the degree of dispersion of the control points of the notes after the first note and the long rest of the music can be adjusted by the operation of the operation unit 4 independently of the degree of dispersion of the control points of the other notes. It is configured so that it can. According to this aspect, it is possible to prevent the singing of the singing portion from becoming uniform and to synthesize a natural singing sound.
<第3実施形態>
次に図8を参照し、この発明の第3実施形態について説明する。本実施形態も、上記第1実施形態に変形を加えたものである。本実施形態では、上記第1実施形態におけるHDD6にパラメータデータベース65が格納されている。このパラメータデータベース65は、“通常”、“鋭く”、“滑らかに”といった各種の歌いまわし毎に、制御点AおよびB間の谷の深さv1、音符の切り換わり部分のピッチの変化の撓み具合を決定するパラメータα、各制御点の音符に対する位置を決定するためのパラメータ、制御点間を結ぶ曲線の関数等、ピッチの軌道を決定するためのパラメータのセットを定義したものである。本実施形態では、操作部4の操作により歌いまわしの種類の選択が行われると、その種類に対応したパラメータのセットがパラメータデータベース65から読み出され、歌唱合成スコア生成処理64Aに与えられる。そして、歌唱合成スコア生成処理64Aでは、このパラメータデータベース65から読み出されたパラメータのセットに基づいて、制御点の設定や制御点間を結ぶピッチの軌道の演算が行われる。
<Third Embodiment>
Next, a third embodiment of the present invention will be described with reference to FIG. This embodiment is also a modification of the first embodiment. In the present embodiment, the
本実施形態によれば、ユーザは、各パラメータの意味を知らなくても、自分の好みの歌いまわしを選択する操作をするのみにより、そのような歌いまわしのためのパラメータが自動的に選択され、歌唱合成に用いられる。従って、ユーザは、自分の好みの歌いまわしの合成歌唱音を簡単に取得することができる。 According to the present embodiment, even if the user does not know the meaning of each parameter, the user simply selects a favorite song and the parameters for such song are automatically selected. , Used for singing synthesis. Therefore, the user can easily obtain the synthesized singing sound of his / her favorite song.
<他の実施形態>
以上、この発明の第1〜第3実施形態を説明したが、この発明には、これ以外にも各種の実施形態が考えられる。例えば次の通りである。
(1)上記第1実施形態において、制御点A、B、Cの相対的位置を定義するデータや、制御点間を結ぶ軌道を決定する各種のパラメータを、ユーザが操作部4の操作により調整することができるように構成してもよい。
(2)歌唱音の合成を行う音源は、フォルマント音源でなくてもよい。例えば、様々な音韻の波形のサンプルデータを記憶したメモリ、または、様々な音韻の調和成分のスペクトル包絡と非調和成分のスペクトルを記憶したメモリを備え、指定された音韻のサンプルデータをこのメモリから読み出して歌唱音を合成する構成の音源を歌唱合成装置に用いてもよい。
(3)操作部4の操作により与えられる要求に応じて、ピッチデータ生成処理642により得られたピッチの軌道を表示部3に表示するようにしてもよい。また、この表示を確認したユーザが、操作部4の操作により、所望の音符の所望の制御点の位置を修正することができるように構成してもよい。
<Other embodiments>
While the first to third embodiments of the present invention have been described above, various embodiments other than this can be considered for the present invention. For example:
(1) In the first embodiment, the user adjusts the data defining the relative positions of the control points A, B and C and various parameters for determining the trajectory connecting the control points by operating the operation unit 4. You may comprise so that it can do.
(2) The sound source for synthesizing the singing sound may not be a formant sound source. For example, a memory storing sample data of various phonological waveforms, or a memory storing spectral envelopes of harmonic components and anharmonic components of various phonological components, and storing the specified phonological sample data from this memory A sound source configured to read and synthesize a singing sound may be used in a singing synthesizer.
(3) The pitch trajectory obtained by the pitch
1……CPU、4……操作部、6……HDD、7……RAM、8……フォルマント音源、63……音韻データベース、64……歌唱合成プログラム、70……歌唱合成スコア、71……ピッチデータトラック、72……音韻データトラック、62A……音符データ、641……制御点設定処理、642……ピッチデータ生成処理、64A……歌唱合成スコア生成処理、64B……歌唱合成スコア出力処理。 DESCRIPTION OF SYMBOLS 1 ... CPU, 4 ... Operation part, 6 ... HDD, 7 ... RAM, 8 ... Formant sound source, 63 ... Phonological database, 64 ... Singing synthesis program, 70 ... Singing synthesis score, 71 ... Pitch data track, 72... Phonological data track, 62 A .. note data, 641... Control point setting process, 642... Pitch data generation process, 64 A .. singing synthesis score generation process, 64 B. .
Claims (9)
擬似乱数を発生し、発生した擬似乱数に従って、前記制御点設定手段により設定される制御点の時刻を分散させる分散手段と、
前記制御点設定手段によって設定された各制御点を通過する軌道を求め、該軌道に沿ってピッチを変化させるピッチデータを生成して記憶手段に格納するピッチデータ生成手段と、
前記ピッチデータを前記記憶手段から読み出し、歌唱音を合成する音源に出力する出力手段と
を具備することを特徴とする歌唱合成装置。 The passage point of the singing sound pitch trajectory for each note composing the music according to the data defining the relative positions of the three types of control points that will be the passage point of the singing sound pitch trajectory within one note interval. Control point setting means for setting the control point to be,
Distributing means for generating pseudo-random numbers and distributing the time of the control points set by the control point setting means according to the generated pseudo-random numbers;
Pitch data generating means for obtaining a trajectory passing through each control point set by the control point setting means, generating pitch data for changing the pitch along the trajectory, and storing the data in a storage means;
An singing voice synthesizing apparatus comprising: output means for reading the pitch data from the storage means and outputting the singing sound to a sound source.
前記操作手段に対する操作に従って、前記3種類の制御点の相対的な位置を定めるデータを変化させる手段を具備することを特徴とする請求項1〜6のいずれか1の請求項に記載の歌唱合成装置。 Operation means;
The singing composition according to any one of claims 1 to 6, further comprising means for changing data for determining a relative position of the three kinds of control points in accordance with an operation on the operation means. apparatus.
前記操作手段に対する操作に従って、前記3種類の制御点の相対的な位置を定めるデータまたは前記隣接する2種類の制御点間の区間の軌道の演算方法を変化させる手段を具備することを特徴とする請求項2〜6のいずれか1の請求項に記載の歌唱合成装置。 Operation means;
According to an operation on the operation means, there is provided means for changing data for determining a relative position of the three types of control points or a method for calculating a trajectory of a section between the two adjacent types of control points. The singing voice synthesizing device according to any one of claims 2 to 6.
擬似乱数を発生し、発生した擬似乱数に従って、前記制御点設定処理により設定される制御点の時刻を分散させる分散処理と、
前記制御点設定処理によって設定された各制御点を通過する軌道を求め、該軌道に沿ってピッチを変化させるピッチデータを記憶手段に格納するピッチデータ生成処理と、
前記ピッチデータを前記記憶手段から読み出し、歌唱音を合成する音源に出力する出力処理と
をコンピュータに実行させることを特徴とする歌唱合成プログラム。 According to the data indicating the relative position with the notes determined for the three types of control points that are the passing points of the singing sound pitch trajectory, the passing point of the singing sound pitch trajectory for each note constituting the song, A control point setting process for setting at least one kind of control point,
A distribution process for generating pseudo-random numbers and distributing the time of the control points set by the control point setting process according to the generated pseudo-random numbers;
A pitch data generation process for obtaining a trajectory that passes through each control point set by the control point setting process and storing pitch data for changing the pitch along the trajectory in a storage means;
A singing composition program that causes the computer to execute an output process of reading out the pitch data from the storage means and outputting the singing sound to a sound source.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005157758A JP4432834B2 (en) | 2005-05-30 | 2005-05-30 | Singing composition device and singing composition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005157758A JP4432834B2 (en) | 2005-05-30 | 2005-05-30 | Singing composition device and singing composition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006330615A JP2006330615A (en) | 2006-12-07 |
JP4432834B2 true JP4432834B2 (en) | 2010-03-17 |
Family
ID=37552326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005157758A Expired - Fee Related JP4432834B2 (en) | 2005-05-30 | 2005-05-30 | Singing composition device and singing composition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4432834B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014178620A (en) * | 2013-03-15 | 2014-09-25 | Yamaha Corp | Voice processor |
-
2005
- 2005-05-30 JP JP2005157758A patent/JP4432834B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006330615A (en) | 2006-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9818396B2 (en) | Method and device for editing singing voice synthesis data, and method for analyzing singing | |
JP3823930B2 (en) | Singing synthesis device, singing synthesis program | |
US11468870B2 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
EP2838082B1 (en) | Voice analysis method and device, and medium storing voice analysis program | |
US20190392807A1 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
JP4839891B2 (en) | Singing composition device and singing composition program | |
US20190392799A1 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
EP3273441B1 (en) | Sound control device, sound control method, and sound control program | |
JP2011028230A (en) | Apparatus for creating singing synthesizing database, and pitch curve generation apparatus | |
US20140278433A1 (en) | Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon | |
US11417312B2 (en) | Keyboard instrument and method performed by computer of keyboard instrument | |
JP6756151B2 (en) | Singing synthesis data editing method and device, and singing analysis method | |
JP6179221B2 (en) | Sound processing apparatus and sound processing method | |
JP6255744B2 (en) | Music display device and music display method | |
JP4432834B2 (en) | Singing composition device and singing composition program | |
JP2008039833A (en) | Voice evaluation apparatus | |
WO2020217801A1 (en) | Audio information playback method and device, audio information generation method and device, and program | |
JP4306643B2 (en) | Singing composition device and singing composition program | |
JP5552797B2 (en) | Speech synthesis apparatus and speech synthesis method | |
JP4622356B2 (en) | Script generator for speech synthesis and script generation program for speech synthesis | |
JP7186476B1 (en) | speech synthesizer | |
JP2004004440A (en) | Song synthesizer, program for synthesizing song, and computer readable recording medium in which program for synthesizing song is recorded | |
JP6331470B2 (en) | Breath sound setting device and breath sound setting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4432834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140108 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |