JP6485185B2 - Singing sound synthesizer - Google Patents
Singing sound synthesizer Download PDFInfo
- Publication number
- JP6485185B2 JP6485185B2 JP2015085604A JP2015085604A JP6485185B2 JP 6485185 B2 JP6485185 B2 JP 6485185B2 JP 2015085604 A JP2015085604 A JP 2015085604A JP 2015085604 A JP2015085604 A JP 2015085604A JP 6485185 B2 JP6485185 B2 JP 6485185B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- sound
- velocity
- key
- key press
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
この発明は、リアルタイム演奏で歌唱音を発音させる際に、簡易な操作で歌詞を所望の位置に進めることのできる歌唱音合成装置に関する。 The present invention relates to a singing sound synthesizing apparatus capable of advancing lyrics to a desired position with a simple operation when singing a singing sound in real-time performance.
従来、タッチパネルに表示された歌詞から任意の区間をユーザーが指定し、指定された歌詞を押鍵された鍵に応じたピッチで歌唱音声として出力させる歌唱音合成装置が知られている(特許文献1参照)。この歌唱音合成装置では、押鍵のたびに次の音節へと進める第1モードと、選択された音節のみを押鍵のたびに繰り返し読み出す第2モードとを有している。
このような従来の歌唱音合成装置では、ユーザーはタッチパネルの操作により所望の歌詞を選択することができ、鍵盤の押鍵操作により、選択された歌詞の各音節を所望のタイミングにおいて所望のピッチの歌唱音声として出力することができる。
2. Description of the Related Art Conventionally, a singing sound synthesizer is known in which a user specifies an arbitrary section from lyrics displayed on a touch panel and outputs the specified lyrics as a singing voice at a pitch corresponding to the key that is pressed (Patent Literature). 1). This singing sound synthesizer has a first mode in which the syllable is advanced to the next syllable each time a key is pressed, and a second mode in which only the selected syllable is repeatedly read each time the key is pressed.
In such a conventional singing sound synthesizer, the user can select a desired lyrics by operating the touch panel, and each syllable of the selected lyrics can be selected at a desired pitch by pressing the key on the keyboard. It can be output as a singing voice.
従来の歌唱音合成装置では、押鍵に応じて自動的に1文字ずつあるいは1音節ずつ進める場合、演奏ミス等があると、歌詞の位置が演奏内容とずれてしまうことがある。その際、タッチパネル等のユーザーインタフェースを操作して歌詞の位置をコントロールするのは、リアルタイム演奏を行っていることから困難になるという問題点があった。 In a conventional singing sound synthesizing apparatus, when a character or a syllable is automatically advanced in accordance with a key press, if there is a performance mistake or the like, the position of the lyrics may deviate from the performance content. At that time, it is difficult to control the position of the lyrics by operating a user interface such as a touch panel because real-time performance is performed.
そこで、本発明は、リアルタイム演奏で歌唱音を発音させる際に、簡易な操作で歌詞を所望の位置に進められるようにする歌唱音合成装置を提供することを目的としている。 Therefore, an object of the present invention is to provide a singing sound synthesizing apparatus that allows a lyric to be advanced to a desired position with a simple operation when a singing sound is generated in real-time performance.
上記目的を達成するために、本発明の歌唱音合成装置は、演奏操作子の操作開始および操作強度を検出する検出手段と、該検出手段が検出した前記演奏操作子の操作開始に応じて、文字情報を記憶装置から取得する取得手段と、発音制御手段とを備え、前記取得手段が取得する文字の位置が、前記検出手段が検出した前記演奏操作子の操作強度に応じて制御され、前記発音制御手段が、前記取得手段で取得された文字を音声として発音することを最も主要な特徴としている。 In order to achieve the above object, the singing sound synthesizer of the present invention includes a detection means for detecting the operation start and operation intensity of the performance operator, and according to the operation start of the performance operator detected by the detection means, An acquisition means for acquiring character information from a storage device; and a pronunciation control means; the position of the character acquired by the acquisition means is controlled according to the operation intensity of the performance operator detected by the detection means; The main feature is that the pronunciation control means pronounces the characters acquired by the acquisition means as speech.
本発明の歌唱音合成装置では、演奏操作子の操作に応じて取得した文字を音声として発音する場合に、演奏操作子の操作強度に応じて取得する文字を制御することができることから、リアルタイム演奏の際に、演奏操作子の操作強度を操作することで歌詞を所望の位置に進めることができるようになる。 In the singing sound synthesizer of the present invention, when a character acquired in response to the operation of the performance operator is pronounced as a voice, the character acquired in accordance with the operation intensity of the performance operator can be controlled. In this case, the lyrics can be advanced to a desired position by operating the operation intensity of the performance operator.
本発明の歌唱音合成装置のハードウェア構成を示す機能ブロック図を図1に示す。
図1に示す本発明の歌唱音合成装置1において、CPU(Central Processing Unit)10は、本発明の歌唱音合成装置1の全体の制御を行う中央処理装置であり、ROM(Read Only Memory)11は制御プログラムおよび各種のデータなどが格納されている不揮発性のメモリであり、RAM(Random Access Memory)3はCPU10のワーク領域および各種のバッファなどとして使用される揮発性のメモリである。フラッシュメモリ等の書換可能なメモリとされるとされるデータメモリ18には、歌詞のテキストデータを含む文字情報および歌唱音の音声素片データが格納されている音韻データベースなどが格納されている。表示部15は、動作状態および各種設定画面やユーザーに対するメッセージなどが表示される液晶表示器等からなる表示部である。演奏操作子16は鍵盤などからなる演奏操作子であり、キーオン、キーオフ、音高、ベロシティなどの演奏情報を発生する。また、設定操作子17は、歌唱音合成装置1を設定する操作つまみや操作ボタンなどの各種設定操作子である。
A functional block diagram showing the hardware configuration of the singing sound synthesizer of the present invention is shown in FIG.
In the singing
音源13は、複数の発音チャンネルを有し、CPU10の制御の基で、ユーザーの演奏操作子16を使用するリアルタイム演奏に応じて1つの発音チャンネルを割り当て、割り当てられた発音チャンネルにおいて、データメモリ18から演奏に対応する音声素片データを読み出して歌唱音データを生成する。サウンドシステム14は、音源13で生成された歌唱音データをデジタル/アナログ変換器によりアナログ信号に変換して、アナログ信号とされた歌唱音を増幅してスピーカ等へ出力している。さらに、バス19は歌唱音合成装置1における各部の間のデータ転送を行うためのバスである。
The
本発明にかかる歌唱音合成装置1における歌詞データの構成が図2(a)に、ベロシティ設定の態様が図2(b)に示されている。歌詞データは、歌詞の内容を表すテキストデータ30からなり、テキストデータ30を構成する文字の各々が文字情報31である。なお、文字情報31は一度の押鍵で読み出される1音節を単位としてテキストデータ30を定義したものである。図2(a)に示す場合は、「さくらさくらのやまも」がテキストデータ30とされ、そのc11〜c34が文字情報31とされている。最初の「さくら」の3文字のテキストデータ30が第1フレーズ32aであることを、c11,c12,c13の文字情報31が示し、続く「さくら」の3文字のテキストデータ30が第2フレーズ32bであることを、c21,c22,c23の文字情報が示し、続く「のやまも」の4文字のテキストデータ30が第3フレーズ32cであることを、c31,c32,c33,c34の文字情報が示している。すなわち、c11は1文字目の「さ」が第1フレーズ32aに属することの情報とされ、c12は2文字目の「く」が第1フレーズ32aに属することの情報とされ、c13は3文字目の「ら」が第1フレーズ32aに属することの情報とされている。c21〜c34も同様とされており、例えば、c21は4文字目の「さ」が第2フレーズ32bに属することの情報とされ、c31は7文字目の「の」が第3フレーズ32cに属することの情報とされている。
The configuration of the lyrics data in the
次に、本発明にかかる歌唱音合成装置1におけるベロシティ設定の一態様を図2(b)に示す。本発明にかかる歌唱音合成装置1では、押鍵した際のベロシティVに応じて発音する際に読み出す文字の位置を制御している。図2(b)は縦軸がベロシティVの強度とされ、この図に示すベロシティ設定では、ベロシティVがVa以下の強度の場合をベロシティV0と定義し、発音指示があった際に、ベロシティVがV0であった場合は通常の位置の文字を読み出して発音する。また、Va<Vbとした時に、ベロシティVがVaを超えてVb以下の場合をベロシティV1と定義し、押鍵した際に、ベロシティVがV1であった場合は通常の位置の次の文字を読み出して発音する。さらに、ベロシティVがVbを超えている場合をベロシティV2と定義し、押鍵した際に、ベロシティVがV2であった場合は次のフレーズの先頭文字を読み出して発音する。例えば、Vaはメゾフォルテ(mf)に相当する強度とされ、Vbはフォルテ(f)あるいはフォルティッシモ(ff)に相当する強度とされる。これにより、次に説明するように押鍵すべき鍵を押し損ねた際にも、読み出される歌詞の位置を次に押鍵した際のベロシティでコントロールすることができ、リアルタイム演奏の演奏内容と歌詞の位置を一致させることができるようになる。
Next, one mode of velocity setting in the
本発明にかかる歌唱音合成装置1の動作例を図3(a)(b)(c)に示し、その際に実行される歌唱音合成処理のフローチャートを図4に示す。
図3(a)に示す動作例1を図4に示すフローチャートで説明する。図3(a)の縦軸は音高を示し、横軸は時間を示している。この場合、音名で音高を表し、時間軸の時刻t0〜t12で拍打ちのタイミングを示している。ユーザーがリアルタイム演奏するに先立ち、データメモリ18に格納されている歌詞データの内の図2(a)に示す歌詞データが選択されており、読み出す文字を示すカーソルが先頭のc11の文字「さ」の位置に置かれているとする。
An operation example of the singing
Operation example 1 shown in FIG. 3A will be described with reference to the flowchart shown in FIG. In FIG. 3A, the vertical axis indicates the pitch, and the horizontal axis indicates the time. In this case, the pitch is represented by the pitch name, and the beat timing is shown at times t0 to t12 on the time axis. Before the user performs a real-time performance, the lyric data shown in FIG. 2A among the lyric data stored in the
ユーザーが演奏を開始して演奏操作子16の内のAの鍵を、時刻t0で押鍵k0すると、この押鍵k0をCPU10が検出し、最初の歌唱音合成処理がスタートする。ここで、歌唱音合成処理におけるステップS14の音声素片データ選択処理およびステップS15の発音処理はCPU10の制御の基で音源13において実行され、これ以外の処理はCPU10が実行する。スタートされた歌唱音合成処理のステップS10では、時刻t0で操作された演奏操作子16の押鍵k0に基づく発音指示をCPU10が受け付ける。この際に、CPU10は押鍵k0のタイミングt0、操作された演奏操作子16の音高情報Aおよびベロシティなどの演奏情報を取得する。この場合、演奏操作子16とされる鍵盤は、例えば、鍵盤の押し込み操作を3段階で検出する第1センサ、第2センサ、第3センサが設けられた3メイクの鍵盤とされている。そして、CPU10は、第1センサがオンしてから第2センサがオンするまでの時間に基づいて算出したベロシティVの強度を取得する。ステップS11では、押鍵k0された鍵のベロシティVがベロシティV0の強度とされているか否かが判定され、CPU10が算出したベロシティVの強度がVa以下の場合は、ベロシティVがベロシティV0の強度とされている(Yes)と判定してステップS13に進む。押鍵k0では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。これにより、CPU10はステップS11ではYesと判定してステップS13に進み、データメモリ18からカーソル位置の文字をCPU10が取得する。この場合は、図2(a)に示す歌詞データが選択されており、選択された歌詞データを表すテキストデータ30の先頭の文字c11にカーソルが置かれている。これにより、時刻t0で押鍵k0に基づく発音指示を受け付けた際には、CPU10は、カーソルが置かれたc11の文字「さ」をデータメモリ18から読み出す。
When the user starts playing and the key A of the
次いで、ステップS14で音声素片データ選択処理が行われる。この音声素片データ選択処理は、CPU10の制御の基で音源13で行われる処理であり、取得された文字を発音させる音声素片データをデータメモリ18に格納されている音韻データベースから選択する。音韻データベースには、「音素連鎖データ」と「定常部分データ」が記憶されている。音素連鎖データは、無音(#)から子音、子音から母音、母音から(次の文字の)子音または母音など、発音が変化する際の音素片のデータである。また、定常部分データは、母音の発音が継続する際の音素片のデータである。押鍵k0に基づく発音指示を受け付けて、取得された文字が、c11の「さ」の場合は、音源13において、音素連鎖データから「無音→子音s」に対応する音声素片データ「#−s」と「子音s→母音a」に対応する音声素片データ「s−a」が選択されると共に、定常部分データから「母音a」に対応する音声素片データ「a」が選択される。次いで、ステップS15にて、ステップS14で選択した音声素片データに基づく発音開始処理をCPU10の制御の基で音源13が行う。上記したように、音声素片データが選択された場合は、ステップS15の発音開始処理において、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において行われて、c11の文字「さ」の発音が行われる。発音の際には、押鍵k0に基づく発音指示の受付の際に取得した音高Aで、予め定めた所定の音量で「さ」の歌唱音が発音される。ステップS15の発音開始処理で発音が開始されると、ステップS16に進み、CPU10は次のc12の文字「く」にカーソルを進める。次いで、ステップS17にて、CPU10は押鍵中の鍵のベロシティがVth以上変化したか否かを判定する。ここでは、ユーザーは押鍵k0のベロシティを変化させないよう演奏していることから、ステップS17でCPU10はNoと判定して、ステップS18に進み押鍵k0が離鍵されて発音停止指示がされたか否かをCPU10が判定する。ここで、押鍵k0は未だ離鍵されていない(No)とCPU10が判定すると、ステップS17に戻り、ステップS17とステップS18の処理か繰り返し行われる。そして、図3(a)に示すように時刻t1の直前で押鍵k0が離鍵されると、ステップS18でCPU10は発音停止指示を受けたと判定してc11の「さ」の文字の発音に対する消音処理を行い、「さ」の歌唱音は停止する。これにより、歌唱音合成処理は終了する。
Next, speech segment data selection processing is performed in step S14. This speech segment data selection process is a process performed by the
次いで、演奏が進行してユーザーが時刻t1においてAの鍵を押鍵k1すると、この押鍵k1をCPU10が検出し、2度目の歌唱音合成処理がスタートされる。この押鍵k1では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k1のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc12の文字である「く」をデータメモリ18から読み出す。次いで、音源13では「く」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−k」、「k−u」、「u」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc12の「く」の文字を発音開始する。この発音開始では、「#−k」→「k−u」→「u」の音声素片データの発音が順次音源13において、押鍵k1の音高Aで、予め定めた所定の音量で発音される。これにより、「く」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc13の文字「ら」の位置に進められる。押鍵k1は時刻t2に達する前に離鍵されて、押鍵k1の発音停止指示をCPU10がステップS18で検出し、c12の「く」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
Next, when the performance progresses and the user presses the key A1 at time t1, the
次いで、演奏が進行して時刻t2においてBの鍵を押鍵k2すべきであるが、ユーザーが押鍵k2を押し損ねたとする。この場合は、押鍵k2がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc13の文字「ら」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「ら」の文字位置に留まっている。
Next, when the performance progresses and the key B should be pressed k2 at time t2, it is assumed that the user fails to press the key k2. In this case, since the key press k2 has not been performed, the
さらに演奏が進行して、時刻t4でユーザーがAの鍵を押鍵k3すると、この押鍵k3をCPU10が検出し、3度目の歌唱音合成処理がスタートされる。この押鍵k3では、ユーザーは意図的にベロシティV1となる押鍵速度で押鍵したとする。これにより、歌唱音合成処理のステップS11では、CPU10は、押鍵k3のベロシティVがベロシティV0以上であると検出し、ステップS12に分岐する。ステップS12では、CPU10が算出したベロシティVに応じた位置の文字を取得する。この場合、ベロシティVがベロシティV1であるとCPU10が検出すると、図2(b)に示すようにカーソルのある文字の次の文字を読み出す、すなわち、カーソル位置のc13の文字「ら」の次の文字であるc21の「さ」を読み出す。次いで、音源13では「さ」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−s」、「s−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc21の「さ」の文字を発音開始する。この発音開始では、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において、押鍵k3の音高Aで、予め定めた所定の音量で発音される。これにより、「さ」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc22の文字「く」の位置に進められる。押鍵k3は時刻t5に達する前に離鍵されて、押鍵k3の発音停止指示をCPU10がステップS18で検出し、c21の「さ」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、押鍵k2を押し損ねると、次の押鍵k3で発音開始される歌詞の位置が1文字ずれることになるが、押鍵k3をベロシティV0を超えるベロシティV1で押鍵することにより、是正することができる。すなわち、ベロシティV1で押鍵することにより、カーソル位置の次の文字を読み出して発音開始することができるようになる。これにより、演奏を間違えた(押鍵すべきノートを押鍵しなかった)場合に、次の押鍵をベロシティV0を超えるベロシティV1で演奏すれば、本来その押鍵で発音すべき文字をすぐに発音させられるようになる。
When the performance further proceeds and the user presses the key A3 at time t4, the
As described above, if the key press k2 is missed, the position of the lyric to start sounding with the next key press k3 will be shifted by one character, but by pressing the key press k3 with a velocity V1 exceeding the velocity V0. Can correct. That is, by pressing the key with velocity V1, it becomes possible to read out the character next to the cursor position and start sounding. As a result, if the performance is wrong (the key to be pressed is not pressed) and the next key is played at a velocity V1 exceeding the velocity V0, the character that should be pronounced by that key press is immediately displayed. Can be pronounced.
さらに演奏が進行してユーザーが、時刻t5においてAの鍵を押鍵k4すると、この押鍵k4をCPU10が検出し、4度目の歌唱音合成処理がスタートされる。この押鍵k4では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k4のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc22の文字である「く」をデータメモリ18から読み出す。次いで、音源13では「く」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−k」、「k−u」、「u」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc22の「く」の文字を発音開始する。この発音開始では、「#−k」→「k−u」→「u」の音声素片データの発音が順次音源13において、押鍵k4の音高Aで、予め定めた所定の音量で発音される。これにより、「く」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc23の文字「ら」の位置に進められる。押鍵k4は時刻t6に達する前に離鍵されて、押鍵k4の発音停止指示をCPU10がステップS18で検出し、c22の「く」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
When the performance further progresses and the user presses the key A4 at time t5, the
さらに演奏が進行してユーザーが、時刻t6においてBの鍵を押鍵k5すると、この押鍵k5をCPU10が検出し、5度目の歌唱音合成処理がスタートされる。この押鍵k5では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k5のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc23の文字である「ら」をデータメモリ18から読み出す。次いで、音源13では「ら」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−r」、「r−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc23の「ら」の文字を発音開始する。この発音開始では、「#−r」→「r−a」→「a」の音声素片データの発音が順次音源13において、押鍵k5の音高Bで、予め定めた所定の音量で発音される。これにより、「ら」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc31の文字「の」の位置に進められる。押鍵k5は時刻t7を越えて時刻t8に達する前に離鍵されて、押鍵k5の発音停止指示をCPU10がステップS18で検出し、c23の「ら」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
When the performance further proceeds and the user presses the key B at time t6, the
本発明にかかる歌唱音合成装置1では、ベロシティV1で押鍵された時に上記した動作とは異なる動作で動作させることができる。このバリエーションの動作を、図3(a)の時刻t8以降で説明する。演奏が進行してユーザーが時刻t8でAの鍵を押鍵k6すると、この押鍵k6をCPU10が検出し、6度目の歌唱音合成処理がスタートされる。この押鍵k6では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k6のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc31の文字である「の」をデータメモリ18から読み出す。次いで、音源13では「の」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−n」、「n−o」、「o」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc31の「の」の文字を発音開始する。この発音開始では、「#−n」→「n−o」→「o」の音声素片データの発音が順次音源13において、押鍵k6の音高Aで、予め定めた所定の音量で発音される。これにより、「の」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc32の文字「や」の位置に進められる。押鍵k6はほぼ時刻t9で離鍵されて、押鍵k6の発音停止指示をCPU10がステップS18で検出し、c31の「の」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
The singing
次いで、時刻t9においてBの鍵を押鍵k7すべきであるが、押鍵k7を押し損ねたとする。この場合は、押鍵k7がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc32の文字「や」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「や」の文字位置に留まっている。
Next, at time t9, the key B should be pressed k7, but it is assumed that the key press k7 is missed. In this case, since the key press k7 has not been performed, the
さらに演奏が進行して、時刻t10でユーザーがCの鍵を押鍵k8すると、この押鍵k8をCPU10が検出し、7度目の歌唱音合成処理がスタートされる。この押鍵k8では、ユーザーは意図的にベロシティV1となる押鍵速度で押鍵したとする。これにより、歌唱音合成処理のステップS11では、CPU10は、押鍵k8のベロシティVがベロシティV0以上であると検出し、ステップS12に分岐する。ステップS12では、CPU10が算出したベロシティVに応じた位置の文字を取得する。このバリエーションの動作では、押鍵k8のベロシティVがベロシティV1であると検出されると、カーソル位置の文字を短時間で発音させた後でその次の文字を発音させる。すなわち、CPU10がベロシティVがベロシティV1であると検出すると、カーソル位置のc32の文字「や」と次のc33の文字「ま」とをCPU10が読み出す。次いで、音源13では「や」を発音するための音素片データと「ま」を発音するための音素片データとをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「や」に続いて「ま」を発音することから「#−y」、「y−a」、「a」の音声素片データと、「a−m」、「m−a」、「a」の音声素片データとが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc32の「や」の文字を発音開始する。この発音開始では、「#−y」→「y−a」→「a」の音声素片データの発音が順次音源13において、押鍵k8の音高Cで、予め定めた所定の音量で発音される。これにより、「や」の歌唱音が発音されるが、この発音期間は短時間とされ、発音停止された「や」の歌唱音に続いて、音源13は選択された音声素片データに基づいてc33の「ま」の文字を発音開始する。この発音開始では、「a−m」→「m−a」→「a」の音声素片データの発音が順次音源13において、押鍵k8の音高Cで、予め定めた所定の音量で発音される。これにより、「や」の歌唱音に続いて「ま」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc34の文字「も」の位置に進められる。押鍵k8はほぼ時刻t11で離鍵されて、押鍵k8の発音停止指示をCPU10がステップS18で検出し、c33の「ま」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、押鍵k7を押し損ねると、次の押鍵k8で発音開始される歌詞の位置が1文字ずれることになるが、押鍵k8をベロシティV0を超えるベロシティV1で押鍵することにより、バリエーションの動作では是正することができる。すなわち、バリエーションの動作では、ベロシティV1で押鍵することにより、カーソルの位置の文字を読み出し、次いで次の文字を読み出して、カーソルの位置の文字を短時間だけ発音するようにしている。これにより、バリエーションの動作では、演奏を間違えた(押鍵すべきノートを押鍵しなかった)場合にも、文字が抜けることがなく聴衆にとって歌詞の意味が理解しやすい演奏とすることができる。
When the performance further proceeds and the user presses the key C8 at time t10, the
As described above, if the key press k7 is missed, the position of the lyric to start sounding with the next key press k8 is shifted by one character. However, by pressing the key press k8 with the velocity V1 exceeding the velocity V0. In the operation of the variation can be corrected. That is, in the variation operation, by pressing the key with velocity V1, the character at the cursor position is read, then the next character is read, and the character at the cursor position is pronounced for a short time. As a result, in the variation operation, even if the performance is wrong (note that the key to be pressed is not pressed), it is possible to make the performance easy to understand the meaning of the lyrics for the audience without missing letters. .
さらに演奏が進行してユーザーが、時刻t11においてBの鍵を押鍵k9すると、この押鍵k9をCPU10が検出し、8度目の歌唱音合成処理がスタートされる。この押鍵k9では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k9のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc34の文字である「も」をデータメモリ18から読み出す。次いで、音源13では「も」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−m」、「m−o」、「o」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc34の「も」の文字を発音開始する。この発音開始では、「#−m」→「m−o」→「o」の音声素片データの発音が順次音源13において、押鍵k9の音高Bで、予め定めた所定の音量で発音される。これにより、「も」の歌唱音が発音される。次いで、ステップS16で、カーソルは次の文字の位置に進められる。この場合、次の文字がない場合はこのステップはスキップされる。押鍵k9はほぼ時刻t12で離鍵されて、押鍵k9の発音停止指示をCPU10がステップS18で検出し、c34の「も」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
When the performance further proceeds and the user presses the key B at time t11, the
次に、図3(b)に本発明にかかる歌唱音合成装置1の動作例2を示す。ここでは、上記した図3(a)に示す動作例1と異なる動作について、図3(b)に示す動作例2を説明する。図3(b)においても縦軸は音名で表した音高とされ、横軸の時間軸は時刻t0〜t12で拍打ちのタイミングを示している。また、ユーザーがリアルタイム演奏するに先立ち、図2(a)に示す歌詞データを選択しており、読み出す文字を示すカーソルが先頭のc11の文字「さ」にあるものとする。
ユーザーが演奏を開始して演奏操作子16の内のAの鍵を、時刻t0で押鍵k0すると、この押鍵k0をCPU10が検出し、最初の歌唱音合成処理がスタートされる。この時に実行される処理は、上記した動作例1と同様の処理とされるので、その説明は省略する。また、演奏が進行してユーザーが時刻t1においてAの鍵を押鍵k1すると、この押鍵k1をCPU10が検出し、2度目の歌唱音合成処理がスタートされる。この時に実行される処理も、上記した動作例1と同様の処理とされるのて、その説明は省略する。
Next, FIG. 3B shows an operation example 2 of the
When the user starts playing and the key A of the
演奏がさらに進行してユーザーが時刻t2においてBの鍵を押鍵k2すると、この押鍵k2をCPU10が検出し、3度目の歌唱音合成処理がスタートされる。この押鍵k2では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理において、CPU10はステップS11で、押鍵k2のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc13の文字である「ら」をデータメモリ18から読み出す。次いで、音源13では「ら」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−r」、「r−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc13の「ら」の文字を発音開始する。この発音開始では、「#−r」→「r−a」→「a」の音声素片データの発音が順次音源13において、押鍵k2の音高Bで、予め定めた所定の音量で発音される。これにより、「ら」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc21の文字「さ」の位置に進められる。押鍵k2は時刻t3を越えて時刻t4に達する前に離鍵されて、押鍵k2の発音停止指示をCPU10がステップS18で検出し、c13の「ら」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
When the performance further proceeds and the user presses the key B2 at time t2, the
演奏がさらに進行してユーザーが時刻t4においてAの鍵を押鍵k3すると、この押鍵k3をCPU10が検出し、4度目の歌唱音合成処理がスタートされる。この押鍵k3では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理において、CPU10はステップS11で、押鍵k3のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc21の文字である「さ」をデータメモリ18から読み出す。次いで、音源13では「さ」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−s」、「s−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc21の「さ」の文字を発音開始する。この発音開始では、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において、押鍵k3の音高Aで、予め定めた所定の音量で発音される。これにより、「さ」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc22の文字「く」の位置に進められる。押鍵k3は時刻t5に達する前に離鍵されて、押鍵k3の発音停止指示をCPU10がステップS18で検出し、c21の「さ」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
When the performance further proceeds and the user presses the key A3 at time t4, the
次いで、時刻t5においてAの鍵を押鍵k4すべきであるが、押鍵k4を押し損ねたとする。この場合は、押鍵k4がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc22の文字「く」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「く」の文字位置に留まっている。
さらに、時刻t6においてBの鍵を押鍵k5すべきであるが、押鍵k5も押し損ねたとする。この場合は、押鍵k5がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc22の文字「く」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「く」の文字位置に留まっている。
Next, it is assumed that the key A should be pressed k4 at time t5, but the key press k4 is missed. In this case, since the key press k4 has not been performed, the
Furthermore, it is assumed that the key B should be pressed k5 at time t6, but the key press k5 is also missed. In this case, since the key press k5 has not been performed, the
さらに演奏が進行して、時刻t8でユーザーがAの鍵を押鍵k6すると、この押鍵k6をCPU10が検出し、5度目の歌唱音合成処理がスタートされる。この押鍵k6では、ユーザーは意図的にベロシティV2となる押鍵速度で押鍵したとする。これにより、歌唱音合成処理のステップS11では、CPU10は、押鍵k6のベロシティVがベロシティV0以上であると検出し、ステップS12に分岐する。ステップS12では、CPU10が算出したベロシティVに応じた位置の文字を取得する。この場合、押鍵k6のベロシティVがベロシティV2であると検出されると、図2(b)に示すように次のフレーズの文字が読み出される。この場合、カーソルはc22にあり、c22が第2フレーズ32bに属することから、次の第3フレーズ32cの先頭のc31の文字「の」をCPU10が読み出す。次いで、音源13では「の」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−n」、「n−o」、「o」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc31の「の」の文字を発音開始する。この発音開始では、「#−n」→「n−o」→「o」の音声素片データの発音が順次音源13において、押鍵k6の音高Aで、予め定めた所定の音量で発音される。これにより、「の」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc32の文字「や」の位置に進められる。押鍵k6はほぼ時刻t9で離鍵されて、押鍵k6の発音停止指示をCPU10がステップS18で検出し、c31の「の」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
When the performance further proceeds and the user presses the key A6 at time t8, the
このように、時刻t5における押鍵k4と時刻t6における押鍵k5を続けて押し損ねたことにより、歌詞の位置が演奏内容と2文字分ずれることになるが、この歌詞のずれを次の押鍵k6をベロシティV2で押鍵することにより、カーソルのあるフレーズの次のフレーズを読み出すことによりずれを是正することができるようになる。すなわち、演奏を間違えた(押鍵すべきノートを押鍵しなかった)場合に、次の押鍵をベロシティV2で演奏することで、本来その押鍵で発音すべき文字をすぐに発音させられるようになる。図3(b)における時刻t9以降の動作の説明については、上記の説明から容易に理解できることから省略する。 As described above, when the key press k4 at time t5 and the key press k5 at time t6 are continuously pressed, the position of the lyrics is shifted by two characters from the performance content. By depressing the key k6 with the velocity V2, the deviation can be corrected by reading the phrase next to the phrase where the cursor is. That is, if the performance is wrong (the note that should be pressed is not pressed), the next key press is played at velocity V2, so that the character that should originally be generated by the key press can be immediately generated. It becomes like this. The description of the operation after time t9 in FIG. 3B is omitted because it can be easily understood from the above description.
次に、図3(c)に本発明にかかる歌唱音合成装置1の動作例3を示す。図3(c)は図3(a)と同様に縦軸が音名で表した音高とされ、横軸の時間軸において時刻t20〜t23で拍打ちのタイミングを示しているが、図示する区間は演奏の一部区間とされている。ユーザーがリアルタイム演奏するに先立ち、図2(a)に示す歌詞データを選択しており、読み出す文字を示すカーソルが先頭のc11の文字「さ」にあるものとする。
演奏中においてユーザーが演奏操作子16の内のAの鍵を、時刻t20で押鍵k10すると、この押鍵k10をCPU10が検出し、歌唱音合成処理がスタートされる。この押鍵k10では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理において、CPU10はステップS11で、押鍵k10のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc11の文字である「さ」をデータメモリ18から読み出す。次いで、音源13では「さ」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−s」、「s−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc11の「さ」の文字を発音開始する。この発音開始では、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において、押鍵k10の音高Aで、予め定めた所定の音量で発音される。これにより、「さ」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc12の文字「く」の位置に進められる。
Next, FIG. 3C shows an operation example 3 of the
When the user presses the key A in the
押鍵k10の押鍵中であって時刻t21の近辺において押鍵中のAの鍵を押し込んだとする。ステップS17では、押鍵中の鍵のベロシティがVth以上変化したか否かをCPU10が判定するが、ここでは、ユーザーは押鍵k10のベロシティを意図的にVth以上変化させるようにAの鍵を押し込んだとする。これにより、ステップS17でCPU10はYesと判定して、ステップS13に戻り、カーソル位置のc12の文字である「く」をCPU10がデータメモリ18から読み出す。次いで、音源13では「く」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「さ」に続いて「く」を発音することから「a−k」、「k−u」、「u」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc12の「く」の文字を発音開始する。この発音開始では、「a−k」→「k−u」→「u」の音声素片データの発音が順次音源13において、押鍵k10の音高Aで、予め定めた所定の音量で発音される。発音開始する際には、「さ」の歌唱音は停止され、「さ」の歌唱音に続いて「く」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc13の文字「ら」の位置に進められる。押鍵k10はほぼ時刻t22で離鍵されて、押鍵k10の発音停止指示をCPU10がステップS18で検出し、c12の「く」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
It is assumed that the key A being pressed is being pressed near the time t21 while the key k10 is being pressed. In step S17, the
さらに演奏が進行してユーザーが、時刻t22においてBの鍵を押鍵k12すると、この押鍵k5をCPU10が検出し、2度目の歌唱音合成処理がスタートされる。この押鍵k12では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したように行われ、CPU10はステップS11で、押鍵k12のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc13の文字である「ら」をデータメモリ18から読み出す。次いで、音源13では「ら」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−r」、「r−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc13の「ら」の文字を発音開始する。この発音開始では、「#−r」→「r−a」→「a」の音声素片データの発音が順次音源13において、押鍵k12の音高Bで、予め定めた所定の音量で発音される。これにより、「ら」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc21の文字「の」の位置に進められる。押鍵k12は時刻t23を越えて離鍵されて、押鍵k12の発音停止指示をCPU10がステップS18で検出し、c13の「ら」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、本発明にかかる歌唱音合成装置1では、押鍵中に、ベロシティを所定量(Vth)以上増加する演奏を行うとき、すなわち、アフタータッチによって、発音中の文字の次の文字を押鍵中の鍵の音高で発音させることができる。
When the performance further proceeds and the user presses the key B at time t22, the
As described above, in the
以上説明した本発明の歌唱音合成装置においては、ベロシティと発音させる文字の進め方の対応については、いろいろなバリエーションが考えられる。例えば、N段階にベロシティ範囲を設定して、そのベロシティ範囲に応じて発音させる文字を、1文字進める、2文字進める、・・・N文字進める、と設定することにより、所望の文字数を押鍵ベロシティで制御できるようになる。また、以上の説明では、ベロシティが大きいときに発音させる文字を複数文字進めるようにしたが、これに替えて、ベロシティが小さいときに発音させる文字を複数文字進めるようにしてもよい。さらに、ベロシティ値に応じて、発音させる文字を戻すようにしてもよい。この場合、フレーズの先頭位置に戻したり、1文字戻すように制御してもよい。
ところで、ベロシティ範囲の設定を多段階に設定するほど、正確なベロシティでの演奏が求められることとなり、演奏操作が難しくなる。そこで、鍵盤の操作にペダル等の他の演奏操作子の操作を組み合わせることで、発音させる文字を進めたり戻したりしてもよい。たとえば、上記したように動作する本発明の歌唱音合成装置において、ペダルを踏みながらベロシティV1で演奏した場合には発音させる文字を1文字戻るようにし、ペダルを踏みながらベロシティV2で演奏した場合には発音させる文字をフレーズ先頭に戻るようにすることができる。これによれば、ベロシティ設定を3段階としても、5種類の発音させる文字の文字制御を行うことができるようになる。
In the singing sound synthesizing apparatus of the present invention described above, various variations can be considered for the correspondence between the velocity and how to advance the characters to be pronounced. For example, by setting a velocity range in N stages and setting a character to be pronounced according to the velocity range by one character, two characters,... It can be controlled by velocity. Further, in the above description, a plurality of characters are pronounced when the velocity is high. Alternatively, a plurality of characters may be advanced when the velocity is small. Further, the character to be sounded may be returned according to the velocity value. In this case, it may be controlled to return to the beginning position of the phrase or to return one character.
By the way, the more the velocity range is set in multiple steps, the more accurate the performance is required, and the performance operation becomes more difficult. Therefore, the character to be sounded may be advanced or returned by combining the operation of the keyboard with the operation of another performance operator such as a pedal. For example, in the singing sound synthesizing apparatus of the present invention that operates as described above, when a performance is performed at velocity V1 while depressing the pedal, the character to be sounded is returned by one character, and when the performance is performed at velocity V2 while depressing the pedal. Can return the character to be played back to the beginning of the phrase. According to this, even if the velocity setting is set in three stages, it becomes possible to perform character control of five types of characters to be pronounced.
さらにまた、本発明の歌唱音合成装置において、演奏操作子は鍵盤ではない演奏操作子であってもよい。例えば、打楽器(パッド)型の場合には打撃力に応じて、発音させる文字の制御を行い、弦楽器型の場合には弦をはじく強さに応じて、発音させる文字の制御を行い、管楽器型の場合には息の量に応じて、発音させる文字の制御を行うようにしてもよい。
さらにまた、本発明の歌唱音合成装置において、文字情報を記憶したデータメモリに替えて、ハードディスク、内蔵メモリ、外付けメモリ、ネットワーク経由のサーバなどに文字情報等を記憶するようにしてもよい。
なお、本発明の歌唱音発音装置では、押鍵ベロシティは文字制御のための情報としてのみ扱い、音量制御には使用されないものとしたが、特定のスイッチやツマミ、あるいは、特定の演奏操作子を操作しながら押鍵した時には、押鍵ベロシティにより音量制御するようにしてもよい。
Furthermore, in the singing sound synthesizer of the present invention, the performance operator may be a performance operator that is not a keyboard. For example, in the case of a percussion instrument (pad) type, the character to be sounded is controlled according to the striking force. In the case of a stringed instrument type, the character to be sounded is controlled according to the strength of repelling the string. In this case, the character to be sounded may be controlled according to the amount of breath.
Furthermore, in the singing sound synthesizer of the present invention, the character information or the like may be stored in a hard disk, a built-in memory, an external memory, a server via a network, or the like instead of the data memory storing the character information.
In the singing sound generating device of the present invention, the key depression velocity is handled only as information for character control and is not used for volume control. However, a specific switch or knob or a specific performance operator is not used. When a key is pressed while operating, the volume may be controlled by the key pressing velocity.
1 歌唱音合成装置、10 CPU、11 ROM、12 RAM、13 音源、14 サウンドシステム、15 表示部、16 演奏操作子、17 設定操作子、18 データメモリ、19 バス、30 テキストデータ、31 文字情報、32a 第1フレーズ、32b 第2フレーズ、32c 第3フレーズ
DESCRIPTION OF
Claims (3)
該検出手段が検出した前記演奏操作子の操作開始に応じて、文字情報を記憶装置から取得する取得手段と、
発音制御手段とを備え、
前記取得手段が取得する文字の位置が、前記検出手段が検出した前記演奏操作子の操作強度に応じて制御され、前記発音制御手段が、前記取得手段で取得された文字を音声として発音することを特徴とする歌唱音合成装置。 Detecting means for detecting the operation start and operation intensity of the performance operator;
An acquisition means for acquiring character information from a storage device in response to the start of operation of the performance operator detected by the detection means;
Pronunciation control means,
The position of the character acquired by the acquisition means is controlled according to the operation intensity of the performance operator detected by the detection means, and the sound generation control means pronounces the character acquired by the acquisition means as speech. A singing sound synthesizer characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015085604A JP6485185B2 (en) | 2015-04-20 | 2015-04-20 | Singing sound synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015085604A JP6485185B2 (en) | 2015-04-20 | 2015-04-20 | Singing sound synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016206323A JP2016206323A (en) | 2016-12-08 |
JP6485185B2 true JP6485185B2 (en) | 2019-03-20 |
Family
ID=57489608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015085604A Active JP6485185B2 (en) | 2015-04-20 | 2015-04-20 | Singing sound synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6485185B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6587007B1 (en) | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | Electronic musical instrument, electronic musical instrument control method, and program |
JP6587008B1 (en) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | Electronic musical instrument, electronic musical instrument control method, and program |
JP6610715B1 (en) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | Electronic musical instrument, electronic musical instrument control method, and program |
JP6547878B1 (en) | 2018-06-21 | 2019-07-24 | カシオ計算機株式会社 | Electronic musical instrument, control method of electronic musical instrument, and program |
JP6610714B1 (en) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | Electronic musical instrument, electronic musical instrument control method, and program |
JP7059972B2 (en) | 2019-03-14 | 2022-04-26 | カシオ計算機株式会社 | Electronic musical instruments, keyboard instruments, methods, programs |
JP6760457B2 (en) * | 2019-09-10 | 2020-09-23 | カシオ計算機株式会社 | Electronic musical instruments, control methods for electronic musical instruments, and programs |
JP6766935B2 (en) * | 2019-09-10 | 2020-10-14 | カシオ計算機株式会社 | Electronic musical instruments, control methods for electronic musical instruments, and programs |
JP7259817B2 (en) * | 2020-09-08 | 2023-04-18 | カシオ計算機株式会社 | Electronic musical instrument, method and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4735544B2 (en) * | 2007-01-10 | 2011-07-27 | ヤマハ株式会社 | Apparatus and program for singing synthesis |
-
2015
- 2015-04-20 JP JP2015085604A patent/JP6485185B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016206323A (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6485185B2 (en) | Singing sound synthesizer | |
JP5821824B2 (en) | Speech synthesizer | |
WO2016152717A1 (en) | Sound control device, sound control method, and sound control program | |
CN107430849B (en) | Sound control device, sound control method, and computer-readable recording medium storing sound control program | |
US9711133B2 (en) | Estimation of target character train | |
CN110310615B (en) | Singing exercise device, singing exercise method, and storage medium | |
EP3010013A2 (en) | Phoneme information synthesis device, voice synthesis device, and phoneme information synthesis method | |
JP4736483B2 (en) | Song data input program | |
JP2017194594A (en) | Pronunciation control device, pronunciation control method, and program | |
JP4929604B2 (en) | Song data input program | |
JP2014095856A (en) | Speech processing device | |
US20220044662A1 (en) | Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device | |
JP2019132979A (en) | Karaoke device | |
US9514724B2 (en) | Sampling device, electronic instrument, method, and program | |
JP6809608B2 (en) | Singing sound generator and method, program | |
WO2016152708A1 (en) | Sound control device, sound control method, and sound control program | |
JP4180548B2 (en) | Karaoke device with vocal range notification function | |
JP6617441B2 (en) | Singing voice output control device | |
JP7158331B2 (en) | karaoke device | |
JP2018151548A (en) | Pronunciation device and loop section setting method | |
JP2018151547A (en) | Sound production device and sound production control method | |
JP6305275B2 (en) | Voice assist device and program for electronic musical instrument | |
JP4624879B2 (en) | Musical sound information generation program and musical sound information generator | |
CN110720122A (en) | Sound generating device and method | |
JP2007156209A (en) | Device and computer program for selecting musical piece |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6485185 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |