JP4277697B2 - 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末 - Google Patents

歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末 Download PDF

Info

Publication number
JP4277697B2
JP4277697B2 JP2004015777A JP2004015777A JP4277697B2 JP 4277697 B2 JP4277697 B2 JP 4277697B2 JP 2004015777 A JP2004015777 A JP 2004015777A JP 2004015777 A JP2004015777 A JP 2004015777A JP 4277697 B2 JP4277697 B2 JP 4277697B2
Authority
JP
Japan
Prior art keywords
data
singing voice
pronunciation
pitch
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004015777A
Other languages
English (en)
Other versions
JP2005208394A (ja
Inventor
清志 山木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004015777A priority Critical patent/JP4277697B2/ja
Priority to CNB2005100055433A priority patent/CN100342426C/zh
Publication of JP2005208394A publication Critical patent/JP2005208394A/ja
Priority to HK05109169A priority patent/HK1077390A1/xx
Application granted granted Critical
Publication of JP4277697B2 publication Critical patent/JP4277697B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、音声合成による歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末に関する。
例えば、携帯電話機の場合、現在では自作のメロディを登録し、このメロディを着信音として再生できる機能をもつものが製品化されている。
一方、特許文献1に開示された技術では、従来の規則音声合成方式による音声合成では、テキストからなる単語や文章を単に朗読できるのみで、これにメロディを付け歌声とすることができなかったことから、歌詞と音符情報から歌声を合成することができる歌声合成方法が提案されている。具体的には、楽譜やMIDI(Musical Instrument Digital Interface)ファイル等を読み込み、これに含まれる音符の情報からその基本周波数と時間長を抽出し、さらに、各音符に歌詞をひらがなで付け、これを音韻系列に分解し、抽出された基本周波数・時間長を韻律情報として、また、音韻系列をテキスト入力として、規則音声合成方式による音声合成を行うことが記述されている。
特開平11−184490号公報
ところで、上記のような携帯電話機にて利用可能な自作メロディは、あくまでもメロディのみの登録とその再生をできるようにしたものであり、歌声を再生するための機能を有するものではない。
一方、特許文献1には、歌声の再生をさせることができるものとして記述はされているが、例えば、各音符に歌詞をひらがなで付ける仕組み等、具体的な手法が記載されていない。また、音声合成の単位として音声波形を用いる場合には、データ量が大きくなり、記憶容量が少ない携帯電話機等の小型の機器にはむかない。
本発明は、上記の点に鑑みてなされたもので、携帯通信端末等の小型の機器においても、歌声生成のためのデータ入力が容易にでき、かつ該データに従い音声合成により歌声を生成することができる歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末を提供するものである。
上記課題を解決するため、請求項1に記載の発明の歌声生成装置は、歌声にするためのメロディを表す楽譜データであって、所望の音符とその音符の音高が順次記述された楽譜データを入力する入力手段と、音声を発音する発音手段と、一つの発声文字と該発声文字を前記発音手段に発音させる際の音高・音長を規定するテキストとにより規定された該発声文字の音声を表す発音データを、種々の音高・音長毎に記憶する記憶手段と、前記楽譜データにおける各音符の音高・音長に相当する前記発音データを順次前記記憶手段から抽出し、抽出した発音データを並べいくことで発音データ列を生成する制御手段とを具備し、前記制御手段は、前記抽出された発音データの発声文字を、前記入力手段により入力されたユーザの所望の文字に変換し、前記発音手段は、前記制御手段によって生成した前記発音データ列に従って音声を発音することを特徴とする。
また、請求項に記載の発明は、請求項に記載の歌声生成装置において、歌詞を表すテキスト文字列の入力を受け、前記制御手段は、前記発音データ列を生成する際には、前記楽譜データで示される各音符の音高・音長毎に、ある一つの発声文字に対する発音データを抽出し、その後生成される前記発音データ列を構成する各発音データに含まれる発声文字を、対応する歌詞のテキスト文字に置き換えることを特徴としている。
また、請求項に記載の発明は、請求項1または請求項2に記載の歌声生成装置において、前記発音データは、少なくとも一つのテンポに対応するものであり、前記制御手段は、前記楽譜データのテンポが、前記記憶手段に記憶される発音データが対応するテンポと異なる場合、これらのテンポの比に従って、前記発音データ列を生成する際に、これに含まれる発音データの韻律記号に対し音長を調整する変更を加え、入力された楽譜データのテンポに合わせることを特徴としている。
また、請求項に記載の発明は、請求項1から請求項のいずれかに記載の歌声生成装置において、一つの発声文字に対応する前記発音データは、その発声文字を前記発音手段に発音させる際、最初は楽譜データで指定された音高より低い音高で発音させ、その後指定された音高に戻すように記述されていることを特徴としている。
また、請求項に記載の発明は、請求項1から請求項4のいずれかに記載の歌声生成装置において、一つの発声文字を前記発音手段に発音させる際に発音途中で音高を上下させるように記述されているビブラート用の発音データをさらに記憶していることを特徴としている。
また、請求項に記載の発明は、発音データ列に従って音声を発音する発音手段を有するコンピュータシステムに、一つの発声文字と該発声文字を前記発音手段に発音させる際の音高・音長を規定するテキストとにより規定された該発声文字の音声を表す発音データを、種々の音高・音長毎に記憶させるステップと、歌声にするためのメロディを表す楽譜データであって、所望の音符とその音符の音高が順次記述された楽譜データの入力を受けるステップと、前記楽譜データにおける各音符の音高・音長に相当する前記発音データを順次前記記憶手段から抽出するステップと、抽出した発音データを並べいくことで発音データ列を生成するステップとを実行させるためのプログラムであって、前記発音データ列を生成するステップは、前記抽出された発音データの発声文字を、前記楽譜データの入力を受けるステップにより入力されたユーザの所望の文字に変換することを特徴としている。
また、請求項に記載の発明は、帯通信端末において、歌声にするためのメロディを表す楽譜データであって、所望の音符とその音符の音高が順次記述された楽譜データを入力する入力手段と、音声を発音する発音手段と、一つの発声文字と該発声文字を前記発音手段に発音させる際の音高・音長を規定するテキストとにより規定された該発声文字の音声を表す発音データを、種々の音高・音長毎にする記憶手段と、前記楽譜データにおける各音符の音高・音長に相当する前記発音データを順次前記記憶手段から抽出し、抽出した発音データを並べいくことで発音データ列を生成する制御手段とを具備し、前記制御手段は、前記抽出された発音データの発声文字を、前記入力手段により入力されたユーザの所望の文字に変換し、前記発音手段は、前記制御手段によって生成した前記発音データ列に従って音声を発音することを特徴としている。

本発明によれば、楽譜データを入力するだけで、この楽譜データに従ったメロディで、少なくともある一つの発声文字の声で歌声が生成される。このように本発明によれば簡単に歌声を生成することができる。
また、本発明によれば、歌詞を表すテキスト文字列の入力を受け、楽譜データ列を構成する各発音データに含まれる発声文字を、対応する歌詞のテキスト文字に置き換え、置換後の発音データ列に従って発音するので、歌詞に基づく歌声を簡単に生成させることができる。
また、本発明によれば、楽譜データのテンポが、前記記憶手段に記憶される発音データが対応するテンポと異なる場合、これらのテンポの比に従って、前記発音データ列を生成する際に、これに含まれる発音データの韻律記号に対し音長を調整する変更を加え、入力された楽譜データのテンポに合わせるので、記憶手段に記憶された発音データが、楽譜データのテンポに対応するものでなくとも、楽譜データのテンポで歌声を再生することができる。
また、本発明によれば、一つの発声文字に対応する発音データは、その発声文字を前記発音手段に発音させる際、最初は楽譜データで指定された音高より低い音高で発音させ、その後指定された音高に戻すように記述されているので、より自然な発音で歌声を生成することができる。
また、本発明によれば、楽譜を書くがごとく、楽譜データの入力者が、望みの音高・音調を指定するデータを順次選択して入力できるようにしたので、発音データを1つづつ記述・設定するのに比べ、かかる労力は各段に少なくて済み、操作が簡単なものとなる。
以下、本発明の実施の形態を、図面を参照して説明する。
図1及び図7にそれぞれ、本発明の一実施の形態である歌声生成装置を構成する歌声再生装置及び歌声データ作成装置の機能構成を示している。
本実施の形態において、HV歌声データ(発音データ列)とは、音声を再生させるために用いる所定の記号を含んだテキストで記述されるHV−Script(HV:Human Voice)データであって、特に歌声再生用に記述された歌声用HV−Scriptデータ(発音データ)の並びからなるデータを言う。
ここでHV−Scriptは、韻律記号(アクセント、音高(音階、音程)、発音長(音長、発音時間)などの発音態様を指定するための記号)を含む音声合成の対象となるテキスト文字列からなるものであるが、本実施の形態では、特に歌声の生成をするため、1つのHV−Scriptは、1つの発声文字とその音程・音長等を規定する韻律記号からなるものとする(詳細は後述する)。
図1において、1aはHV歌声再生プレイヤーであり、HV歌声データの再生やその停止などを制御する。HV歌声データの再生指示を受けた場合、HV歌声プレイヤー1は、当該HV歌声データに含まれる各歌声用HV−Scriptの解釈を開始する。そして、これに記述されている内容に応じて、HVドライバ2に対して以下の処理を行わせる。
HVドライバ2aは、合成辞書用メモリ3aから合成辞書を参照し下記の処理を行う。人の声は声帯や口腔などの形状に依存するフォルマント(固有の周波数スペクトル)を有しており、合成辞書はこのフォルマントに係るパラメータを保持している。合成辞書は、実際の音が発音文字単位で(例えば「あ」・「い」など)サンプリングおよび分析された結果によって得られたパラメータを、フォルマントフレームデータとして発音文字単位で予め保持しているデータベースである。このデータベースは、さらに、後述の韻律記号に応じて上記フォルマントに係るパラメータを変えるためのデータを保持している。
HVドライバ2aは、HV−Script中の韻律記号を含んだ発声文字列を解釈し、上記合成辞書を用いて標準の発音のフォルマントフレームデータに、韻律記号で指定されたアクセント、音階、音長等をもたせる変更を加えたフォルマントフレーム列へと変換し、HV音源4aへ出力する。HV音源4aは(詳細は後述する)、HVドライバ2aによって出力されたフォルマントフレーム列に基づいて発音信号を生成しスピーカ5aへ出力する。スピーカ5aは入力される信号に従って歌声を発する。
以上のように歌声再生装置は、HV歌声プレイヤー1a、HVドライバ2a、合成辞書用メモリ3a、HV音源4a、スピーカ5aから構成される。
なお、HV歌声プレイヤー1a、HVドライバ2aは、メモリおよびCPU(中央処理装置)等により構成される制御手段と、HV歌声プレイヤー1a、HVドライバ2aの機能を実現するためのプログラム(図示せず)をメモリにロードして実行することによりその機能が実現されるものとする。
ここで、HV音源4aの詳細について、図2,3を参照し説明する。
HV音源4aは、CSM(複合正弦波モデル)音声合成方式によるものであるが、この場合、1つの音素が8種のフォルマントから構成されるものとして、前述の合成辞書には、8組のフォルマント周波数、フォルマントレベルおよびピッチ情報などをパラメータとして保持させている。
図1に示すHV音源4aは、図2に示すように8個のフォルマント生成部40a〜40hと1個のピッチ生成部50を有しており、発音用シーケンサ(図示せず)から出力されるフォルマントに関するパラメータ及びピッチ情報に基づいて各フォルマント生成部40a〜40hで対応するフォルマント信号を発生し、このフォルマント生成部40a〜40hにおいて生成された各フォルマントをミキシング部60で合成して音素を生成する。そしてこの音素の生成を連続して行うことにより、合成した音声を生成する。なお、各フォルマント生成部40a〜40hはフォルマント信号を発生させるためにその元となる基本波形を発生させるが、この基本波形の発生には、例えば、周知のFM音源の波形発生器を利用することができる。ピッチ生成部50は、演算によりピッチ(音程)を生成する機能を有し、発音する音素が有声音の場合にのみ、演算したピッチを生成される音素に付加する。
次に、図3を用いて、上記フォルマント生成部40a〜40hの構成について説明する。
図3に示すように、フォルマント生成部40a〜40hの各々は、波形発生器41と、ノイズ発生器42と、加算器43と、増幅器44とから構成されている。
波形発生器41は、音素毎フォルマント毎に指定されるフォルマント周波数、フォルマントの基本波形(正弦波、三角波、…)及び波形の位相に基づき、1音素を構成するフォルマントの1つを順次発生する。ノイズ発生器42は、波形発生器41にて発生されたフォルマントが有声音か無声音かに従って、無声音の場合にはノイズを発生し加算器43に供給する。
加算器43は、波形発生器41にて生成されたフォルマントに、ノイズ発生器42から供給されるノイズを加算する。そして加算器43の出力は、増幅器44によりフォルマントレベルに増幅され出力される。
上記各フォルマント生成部40a〜40hの構成は、音素を構成する1つのフォルマントに関するものである。1つの音素は、いくつものフォルマント(ここでは8種)が合成されて形成されている。したがって、1つの音素を生成するためには、音素を構成する各フォルマントを生成して、これを合成する必要がある。そのために図2の構成をとりフォルマントパラメータを用いた音声合成を行っている。
以上のように、CSM音声合成では、周波数パラメータ、振幅パラメータ等に基づき合成されるフォルマント音を複数合成することにより音素を決定し音声合成することができる。例えば、「さくら」を音声合成する場合、数msから数十ms毎に複数組の上記パラメータを設定することにより、/S/→/A/→/K/→/U/→/R/→/A/の6音素を合成して発音させる。
各フォルマント生成部40a〜40hに与えるパラメータは、前述のように各音素毎に予め定義され、合成辞書に登録されている。また、各文字を構成する音素に関する情報、例えば、「さ」の場合、この文字の音素/S/、/A/からなること等の情報も、同様に合成辞書内に登録されている。また、韻律記号によりアクセントが変えられる場合は、当該韻律記号が適用される各音素に対応するフォルマントフレームデータに韻律記号に応じた変更が加えられHV音源4aに与えられる。
次に、HV−Script及び歌声用HV−Scriptについて、その詳細を説明する。
HV−Scriptに含まれる韻律記号は、発声文字にその発音をする際のアクセント等を指定するものであり、歌声生成以外にも一般的な音声合成にも利用できるものである。ここで、一般的な音声合成に利用されるHV−Scriptの一例を示す。
(例)「か_3さが ほ^5し_4い’4ね$2ー」
このHV−Script「か_3さが ほ^5し_4い’4ね$2ー」は、「かさがほしいねー」という言葉にイントネーションを付加して音声合成させるための韻律記号を用いた記述である。この例に記述された記号「’」、「^」、「_」、「$」等が韻律記号であり、文字(かな文字または長音「−」)に付加するイントネーションの種別を示すもので、この記号の後の文字(この記号の直後に数値がある場合は、この数値に続く文字)に対して、所定のアクセントを付加するものである。
図4(a)に、各韻律記号(代表例)の意味を示している。同図に示す「’」は、語頭でピッチを上げ(図4(b)(1)参照)、「^」では発音中ピッチを上げ(図4(c)(3)参照)、「_」は、語頭でピッチを下げ(図4(b)(2)参照)、「$」では、発音中ピッチを下げるように(図4(c)(4)参照)音声合成を行うことを意味している。また、上記記号の直後に数値が付加される場合は、その数値は付加するアクセントの変化量を指定するものである。例えば、「か_3さが」では、「さ」を語頭でピッチを3の量だけ下げることを示し、「が」をその下げたピッチで発音し、「か」は、標準の高さで発音することを示す。
このように、発音させる言葉に含まれる文字にアクセント(イントネーション)を付加する場合に、その文字の直前に、図4に示すような記号(さらには、イントネーションの変化量を示す数値)を付加する記述をする。なお、本実施の形態ではピッチを制御する記号についてのみ説明したが、これら以外に音の強弱、速度、音質等を制御する記号を用いることもできる。
本実施の形態では、発声文字を発音する際その音高・音長等を制御するための情報として上記に例示したような韻律記号を用いてテキスト記述されるHV−Scriptデータであって、特に歌声生成に用いるための歌声用HV−Scriptを後述するHV歌声DBに登録しておき、歌声生成に利用する。なお、このHV歌声DBには、テンポ毎に、各発声文字について、各音高・発音長毎の歌声用HV−Scriptが登録されている。
ここで、歌声用HV−Scriptについて、その記述例(一例)を示し説明する。
前述のように一般的な音声合成に利用できるHV−Scriptと、ここで示す歌声用HV−Scriptの違いの1つとして、歌声用HV−Scriptでは、1つの歌声用HV−Scriptに含まれる発声文字が1文字のみである点が挙げられる。
例えば、テンポ120で、発声文字が「ら」、4分音符の音長で音階がC2(基準のオクターブにおける“ド”;なお、C1は基準より1オクターブ下の“ド”であり、C3は基準より1オクターブ上の“ド”である)を表す歌声用HV−Scriptは、韻律記号に含まれる制御記号「L1W2S54」に続いて、「C2$4ら^4>2−−>−−−>&」と記述される。
ここで、制御記号“S**”(**は、所定の数値が設定される)は、一つの発声文字または長音の発音長を規定するものであり、例えばS54は、80msの長さを示すものである。従って、発声文字が「ら」と、長音「−」を合計6個用いて、全体で80ms×6=480msとなり、それを、テンポ120の4分音符の長さとしている(テンポ120の4分音符は、正確には500msであるが、ここでは480msとする)。
なお、制御記号“L*”(ただし、*は0または1)は、合成辞書をもとに発声文字を音声合成する場合、発声文字毎に発音長が異なることから、歌などのリズムに合わせる際不都合な場合があるので、合成辞書通りの発音長を用いる場合、これをL0を用いて指定し、再定義する場合、これをL1を用いて指定する。「L1W2S54」では、合成辞書通りではなく「S54」の発音長とすることを意味している。
また、制御記号“W*”(ただし、*は1〜5)は、ピッチを変化させる韻律記号(’、^、_、$等)において各記号1つ分で変化するピッチ量を変える場合に指定する制御記号である。W3がデフォルトで、W1では最も変化量が少なく、W5で最も変化量が大きくなる。また、末尾の&は、韻律記号による変化量を元に戻すためのものであり、この記号が表れるまでは、変化量を累積していく。
上記例で「C2」は、C2の音程で発音することを指定するものであるが、上記例に示すように、発声文字「ら」の発音を、指定された音階がC2(基準のオクターブにおける“ド”)のところ、最初、「$4」の“4”で示される分だけピッチを下げ「ら」を発音し、その後「^4」の“4”の分だけピッチを上げ(すなわちC2の音階に戻し)ている。そして、引き続き「>2」で予め設定されている音量より“2”の分だけ音量を下げ(例えば、2dB下げ)、さらに“−”で規定される長さ(時間)の2倍の長さだけ発音を伸ばしてさらに「>」で規定される所定量の音量を下げ(例えば、1dB下げる)、引き続き“−”で規定される長さの3倍の長さだけ発音を伸ばしてさらに「>」で規定される所定量の音量を下げ発音することを意味している。ここで、このようにピッチや音量を変化させた「ら」は、テンポ120の4分音符の音階C2の「ら」に最も適していると制作者が思って採用したものである。従って、同じ音符を表すHV−Scriptでも、制作者によって様々となる。
このように、歌声用HV−Scriptでは、発声文字をHV音源4a及びスピーカ5aに発音させる際、最初は、音符・音高等を示すデータである楽譜データで指定された音高(上記例では、C2)より低い音高で発音させ、その後指定された音高に戻すように記述される。このように記述するのは、人の歌声が、歌いだしが少し低いピッチから上昇して望みの音程になるので、人が歌唱する際のより自然な発音に近づけるためである。あるいは、歌声の表現を豊かにするため、上記に限らず、最初、音符・音高等を示すデータである楽譜データで指定された音高で発音させすぐにより低い音高で発音させ、その後指定された音高に戻すなど、様々な「ゆらし」のパターンを記述することもできる。
また、歌声用HV−Scriptでは、上記例にて用いている長音“−”に加え、発声文字の発音長を規定する制御記号“S**”を用いて、歌声の中で発音される発声文字の発音長が指定された音符の音長に一致するように記述される。
上記のように記述される歌声用HV−Scriptは、図5に示す例(一部)のように規定されている。同図に示す例は、テンポ(BPM)120の場合で、発声文字「ら」に対するものであり、各音符と各音高毎に同図に示すように歌声用HV−Script(ヘッダー、制御記号、スクリプト(メイン))が規定されている。ファイル名は、各歌声用HV−Scriptを格納するファイルのファイル名を示し、その拡張子として“hvs”を用いる。同図に示すノートNo.は、音高(音程)を示すものである。ヘッダー(制御記号の一種)は、当該ファイルがHV−Scriptファイル(すなわち、HV−Scriptの記述からなるファイル)であることを示し、制御記号及びスクリプト(メイン)は同図の内容及び前述の通りである。このように規定されるヘッダー、制御記号、スクリプト(メイン)が、ファイルのそれぞれに含められる。
次に、HV歌声データについて説明する。
例えば図6に示す楽譜に対応する歌声データを、発声文字「ら」だけで作ると以下のようになる。
HV#J
L1W2S54
C2$4ら^4>2−−>−−−>&
C2$4ら^4>2−>−>&
D2$4ら^4>2−>−>&
S53E2$4ら^4>2−−>−−>−−>−−−>&
このHV歌声データを再生すると、図6に示すメロディで、「ら、ら、ら、ら…」と発音され、鼻歌のように再生される。
上記に対し、実際の歌詞でHV歌声データを作ると以下のようになる。
HV#J
L1W2S54
C2$4お^4>2−−>−−−>&
C2$4し^4>2−>−>&
D2$4え^4>2−>−>&
S53E2$4て^4>2−−>−−>−−>−−−>&
このHV歌声データでは、図6に示すメロディで、実際の歌詞「お、し、え、て…」の歌声が再生されることとなる。
なお、HV歌声データは、歌声用HV−Scriptを並べて記述されるものであるが、各歌声用HV−Scriptに共通する制御記号は、上記例のようにまとめて記述することができる。もちろん、各歌声用HV−Script毎に制御記号の列を記述するようにしてもよい。上記例にて、制御記号の列L1W2S54は、続く3つの歌声用HV−Scriptに作用し、最後の歌声用HV−Scriptには、制御記号“S**”について、元々この歌声用HV−Scriptに含まれるS53が(他のものと異なるので)記述されている。
ところで、休符を表すHV−Scriptはスペースであり、発声文字も同様に、そのスペースの前に置かれている制御記号“S**”でその時間が規定される。スペースを置くことにより、その時間は無音となる。
また、歌声用HV−Scriptは、すべてのテンポ、音高、音長、発声文字についてすべて用意してもよいが、基本となるスクリプトのみを用意しておき、実際に歌声用HV−Scriptを用いる際、その記述内容を変更するようにしてもよい。
例えば、発声文字「ら」の歌声用HV−Scriptしか用意されてなく、発声文字「う」の歌声用HV−Scriptは、これがテンポ120で、4分音符かつC2であれば、テンポ120で4分音符かつC2の発声文字「ら」の歌声用HV−Scriptの「C2$4ら^4>2−−>−−−>&」を用いて、「C2$4う^4>2−−>−−−>&」とする。後述する歌声生成装置の動作説明では、このような変更処理を行うものとしている。
また、歌声用HV−Scriptには、ビブラート(Vibrato)を付加したデータを用意し利用するようにしてもよい。この場合、例えば、ビブラートなしの歌声用HV−Script「HV#J L1W2S53 C2$4ら^4>2−−>−−>−−>−−−>&」に対して、ビブラートを付加した「HV#J L1W3S53 C2$ら^>2−−>−−>3>−^>−$−>^−>$−>^−>^&」を用いることができる。ビブラートを付加したデータは、このように韻律記号“$”、“^”を用いて記述することにより、発音する際のピッチを上下させビブラートを表現している。
このようにビブラートを付加した歌声用HV−Scriptを複数用意したり、その他の表現(音量の変化、音質の変化など)を持たせた歌声用HV−Scriptのバリエーションを用意し利用することで、さらに表現力を増すことができる。
なお、こうした歌声用HV−Scriptの記述は、その制作者がその発音を試聴して最も適したものが選ばれる。
次に、上記HV歌声データを作成する歌声データ作成装置について、図7を参照し説明する。
図7は、歌声データ作成装置の機能構成を示すブロック図である。
同図に示す歌声データ作成装置は、1bに示す制御部、2bに示す表示部、3bに示す操作部、4bに示すHV歌声DBを備え、制御部1bは、1b−1に示す選択入力部、1b−2に示す歌声用HV−Script抽出部、1b−3に示すHV歌声データ生成部、1b−4示す歌詞入力部、1b−5に示す発声文字置換部からなっている。
表示部2bは、制御部1bの制御により所定の情報を表示する。操作部3bは、ユーザにより所定の操作を受け入力されたデータを制御部1bに与える。HV歌声DB4bは、前述の通りである。
選択入力部1b−1は、表示部2bに、テンポと、音符(休符を含む)及びその音高を選択させるための表示をさせ、ユーザによりその選択された音符(すなわちその音長)とその音高を示す情報からなる楽譜データの入力を受ける。具体的には、例えば、各音符の絵、音高を示すC2、E3…等を表示し、その中からユーザに所望の音符とその音高等を選択できるようにし、これらの入力を受け付ける。
歌声用HV−Script抽出部1b−2は、選択入力部1b−1に入力された楽譜データ(音符・音高)に相当する歌声用HV−Scriptを、下記のHV歌声DB4bから抽出する。
HV歌声データ生成部1b−3は、ユーザが入力した楽譜データの並びに応じて、歌声用HV−Script抽出部1b−2がHV歌声DB4bから抽出した歌声用HV−Scriptを順に並べてHV歌声データとする。
歌詞入力部1b−4は、歌詞入力時に、表示部2bに歌詞入力画面(図示せず)を表示させ、ユーザが操作部3bを用いて入力する、HV歌声データに付ける歌詞のデータ(テキスト文字列)を受け付ける。
発声文字置換部1b−5は、HV歌声データ生成部1b−3が生成したHV歌声データに含まれる各発声文字を、歌詞入力部1b−4に入力された歌詞をなす各文字に置換する。
HV歌声DB4bは、テンポ毎、音符(休符を含む)の種類及び音階毎に、発音文字をその音階と音長で発音させるための韻律記号を含む上記HV−Scriptデータを保持している。
なお、制御部1bはメモリおよびCPU(中央処理装置)等により構成され、上記各部の機能を実現するためのプログラム(図示せず)をメモリにロードして実行することによりその機能が実現されるものとする。
このように構成される歌声データ作成装置及び前述の歌声再生装置を含む本実施の形態の歌声生成装置用いて、ユーザは歌声データを作成し、その再生をすることができる。
ここで、本実施の形態の歌声生成装置の動作について、図8,図9を参照し説明する。
はじめに、選択入力部1b−1が、表示部2bにテンポ入力画面を表示させる(ステップS101)。ここで、ユーザによる操作部3bを用いた所定操作によりテンポが入力されると、ステップS102の判断で、Yesと判定されステップS103に移行する。
ステップS103では、制御部1bのメモリのHV歌声データ用領域にヘッダー(HV#J)を置く。
次いで、選択入力部1b−1は、表示部2bに音符入力画面を表示させる(ステップS104)。ここで、ユーザの、操作部3bを用いた所定操作により音符及び音高等が選択入力されると、ステップS105の判断で、Yesと判定されステップS106に移行する。この段階では、ユーザは、例えば譜面を参照しこれに記載された楽譜をもとに、表示部2bに表示された音符とその音高を選択させるための表示を見て、所定の操作により所望の音符とその音高(すなわち楽譜データ)を順次選択入力する。
ステップS106では、歌声用HV−Script抽出部1b−2が、HB歌声DB4bに格納された、規定の文字(例えば、「ら」)の歌声用HV−Script群から入力された楽譜データに相当する歌声用HV−Scriptを選択・抽出する。HV歌声DB4bは、テンポ毎、音符(休符を含む)の種類及び音階毎に、歌声用HV−Scriptのファイルを保持しているので、当該テンポで、当該音符とその音高をもつ歌声用HV−Scriptを選択・抽出する。
そして、抽出した歌声用HV−Scriptデータを、HV歌声データ用領域に、先に抽出されたデータに続けて置き、ステップS105に戻る。以後、入力される音符及び音高に対応する歌声用HV−ScriptがHV歌声DB4bから選択・抽出され、HV歌声データ用領域に順次並べられる。この段階で生成されたHV歌声データは、HV歌声再生プレイヤー1に、ある発声文字(例えば、“ら”など)の声でメロディを発音させるものとなっている。
ここで、音符及び音高等の入力が無く、音符入力終了の操作があったとする。すると、ステップS105でNoと判定され、さらにステップS107でYesと判定されて、ステップS108に移行する。そして、ステップS108にて、歌詞入力開始の操作があるか否かの判断がなされる。ここで、歌詞入力開始の操作がされず、試聴操作がなされた場合、ステップS108にてNoと判定され、さらにステップS109にてYesと判定されてステップS110に移行する。
ステップS110では、HV歌声プレイヤー1a及びHVドライバ2aによって、HV歌声データを、フォルマントフレーム列に変換する処理をしてHV音源4aに送る。HV音源4aは、与えられたフォルマントフレーム列に従った音声信号をスピーカ5aに出力し、スピーカ5aから歌声が発音される。
一方、ステップS108の段階で、歌詞入力開始の操作がなされると、ステップS111に移行する。ステップS111では、歌詞入力部1b−4が、表示部2bに歌詞入力画面を表示させる。そして、歌詞入力が終了すると(ステップS112の判断で、Yesの判定)、ステップS113に移行する。ステップS113では、先に作成されたHV歌声データの各発声文字を、入力された歌詞の各文字に順次置き換える。
ここでは、発声文字置換部1b−5が、先に生成されたHV歌声データに含まれる各発声文字(例えば、“ら”、“ら”、“ら”、“ら”、…)を、歌詞入力部1b−4が入力を受け付けた歌詞を構成する文字(例えば、“お”、“し”、“え”、“て”、…)に置換する。この段階で生成されるHV歌声データは、HV歌声再生プレイヤー1に、入力された歌詞とメロディをもつ歌声を発音させるものとなる。
そして、ステップS114にて、置き換えられたHV歌声データを制御部1bが有するメモリに保存して終了する。
以上のように、本実施の形態では、テンポ毎に、各音符・休符の種類(音長)、音の高さ(ドレミ...)に対応する部品となる歌声用HV−Scriptを、発声文字の「あ」「い」等に対しそれぞれ揃えておき、上記歌声データ作成装置により、歌詞付きの楽譜を書くように音符・音高を選択していくと、順に歌声用HV−Scriptが並べられ、HV歌声データが自動的に生成される。
なお、上記例では、1音符を入力するごとに歌声用HV−Scriptを置いているが、すべての音符を入力してからまとめて置いてもよい。また、試聴はどのタイミングで行ってもよい。また、試聴により変更したい場合は前に戻って音符や歌詞を変更するようにしてもよい。また、すべての歌詞を入力してからHVを置き換えているが、歌詞の1文字入力するごとに対応するHV歌声データの発声文字を置き換えてもよい。
また、ビブラートを付加した歌声用HV−Script等、歌声用HV−Scriptのその他のバリエーションを利用できる場合は、上記フローにおいて、それらの選択のための処理が付加される。例えば、ビブラートを付ける場合は、入力した音符の直後に“V”を入力することで、この場合にその音符に対してはビブラート有りのデータが選択されるような処理を付加する。
以上のようにして生成されたHV歌声データは、歌声生成装置に含まれるHV歌声再生プレイヤー1によって下記のように再生される。なお、上記ステップS110における試聴時も同様にして再生される。
ここで、HV歌声再生プレイヤー1の動作を、図10のフローチャートを用いて説明する。はじめに、ユーザによってスタート指示がなされると、図10に示す処理が実行される。
HV−Scriptプレイヤー1はHV歌声データに記述された各歌声用HV−Scriptをなすテキスト文字列の解釈を開始する。HV−Scriptプレイヤー1は、HV歌声データに含まれる歌声用HV−Script(ただし、ヘッダーを除く)を順次HVドライバ2へ出力する(ステップS201)。
上記発声文字列を受けたHVドライバ2は、合成辞書用メモリ3に格納された合成辞書を参照し、フォルマントフレーム列に変換する。さらに、この発声文字列に含まれる韻律記号に応じて変更を加えたフォルマントフレーム列をHV音源4aに出力する(ステップS202)。
HV音源4aは、HVドライバ2から受けたフォルマントフレーム列に基づき音声合成を行い、その音声信号をスピーカ5aへ出力する(ステップS203)。これにより、スピーカ5aから音声合成された歌声が発音される。
以後、ステップS204の判断で当該HV歌声データの最後が検出されるまで、HV歌声プレイヤー1は、ステップS201〜S204の処理を繰り返し、HV歌声データの最後が検出された時点で以上の処理を終了する。
なお、上記で説明した各動作フローは一例であり、本発明は上記の処理の流れに限定されるものではない。
以上に説明したように、本実施の形態の歌声生成装置では、楽譜と歌詞を見て、その音符と音高を選択入力し、さらに、その音符を発音したい文字(歌詞)との組み合わせで選んでいくだけで、歌声再生のためのデータを作ることができるので、テキスト記述によるHV−Scriptを1から構成するのに比べて、労力がかからず、また、簡単に歌声の再生を行うことができる。
次に、上述の歌声生成装置を携帯電話機に適用した場合の例を説明する。
図11は本実施形態による歌声再生装置を具備する携帯電話機の構成例を示すブロック図である。
同図において21は各部を制御するCPUである。22はデータ送受信用のアンテナである。23は通信部であり、送信用データを変調してアンテナ22へ出力すると共に、アンテナ22によって受信された受信用データを復調する。24は音声処理部であり、通話時に通信部23から出力される通話相手の音声データを音声信号に変換してイヤスピーカ(図示せず)へ出力し、マイク(図示せず)から出力される音声信号を音声データに変換して通信部23へ出力する。
25は音源であり、楽曲データを読み込んで楽曲を再生する機能を有しており、例えば着信時に着信メロディを再生する。また、音源25は、図1で示したHV音源4aと同様の機能も有している。26はスピーカであり、歌声や楽音を発音する。27はユーザによる操作を受け付ける入力部である。28はHV歌声データや楽曲データなどを記憶するRAMである。無線通信によってWebサーバから楽曲フレーズデータがダウンロードされた場合、この楽曲フレーズデータがRAM28に格納される。29はCPU21が実行するプログラムや、前述の合成辞書、HV歌声DBなどが格納されたROMである。30は表示部であり、ユーザによる操作結果や携帯電話機の状態などを表示する。なお、上記各部はバスを介して接続されている。
CPU21はROM29に格納されたプログラムに従って、図1で示したHV−Scriptプレイヤー1、HVドライバ2、ならびに図7に示した制御部1bと同様の動作を実行できる。CPU21は、前述のようにして作成されるHV歌声データをRAM28に保存し、再生指示がなされた場合には、RAM28から、HV歌声データを読み出し、その中の記述を解釈する。このとき、CPU21はROM29から合成辞書を参照し、このHV歌声データをフォルマントフレーム列へ変換し、音源25へ出力する。
音源25は、CPU21からフォルマントフレーム列が出力された場合、そのフォルマントフレーム列に基づいて音声信号を生成し、スピーカ26へ出力する。また、CPU21の制御のもと、RAM28から楽曲データが出力された場合、この楽曲データに基づいて楽音信号を生成し、スピーカ26へ出力する。そして、スピーカ26は音声信号、または楽音信号に基づいて音声(歌声)または楽音を発する。
ユーザは入力部27を操作することによって、前述した歌声データ作成装置の制御部1bの機能を実現するソフトウェアを起動し、表示部30に表示される表示内容を視認しながら楽譜データ(音符及びその音高等)を選択入力しHV歌声データを作成することができる。また作成したHV歌声データをRAM28に保存することができる。
さらに、作成したHV歌声データを着信メロディに応用することもできる。この場合の動作は以下のようになる。なお、着信時にHV歌声データを用いることが設定情報としてRAM28に予め格納されているとする。通信部23がアンテナ22を介して、他の携帯電話等から送信された発呼情報を受信すると、通信部23はCPU21へ着信を通知する。通知を受けたCPU21はRAM28から設定情報を読み出し、設定情報が示すHV歌声データをRAM28から読み出し、その解釈を開始する。以後の動作は前述した通りであり、HV歌声データの記述に従って、スピーカ26から歌声が発せられる。
ユーザは電子メールにHV歌声データを含ませて他の端末に送信することもできる。例えば、所定の添付ファイル(例えば、その拡張子(hvs)により、HV歌声データが含まれていることが識別できる添付ファイル)の中に記述し、送信する電子メールに添付するようにしてもよい。そして、CPU21がこの添付ファイルの内容をHV歌声データとして解釈し、ユーザによって指示がなされたときに添付ファイル中の記述に従って音源25へ再生指示を出力するようにしてもよい。
なお、HV−Scriptプレイヤー1、HVドライバ2の機能は必ずしもCPU21(CPU21が実行するプログラムを含む)が具備する必要はない。音源25が前記機能のいずれかを具備するようにしてもよい。また、携帯電話機に限らず、PHS(登録商標)(Personal handyphone system)、携帯情報端末(PDA:Personal Digital Assistance)などの携帯端末が本実施形態による歌声生成装置と同様の構成を備えていてもよい。
また、図1におけるHV−Scriptプレイヤー1及びHVドライバ2、あるいは、図7における制御部1bの機能を実現するためのプログラムを、音声合成可能が可能なコンピュータシステムに読み込ませ、実行することによりHV−Scriptによる歌声の生成を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、この発明の実施形態を、図面を参照して詳述してきたが、本発明の具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の構成等も含む。例えば、(1)音符の入力は、楽曲データ(MIDIデータ等)を入力することによって、そこから音符及び音高の情報を抽出するようにしてもよい。例えば、メロディを含む複数パートの楽曲であれば、メロディのパートから音符を抽出する。(2)歌声を再生する際に、伴奏の楽曲も同時に再生させることで伴奏付の歌とすることもできる。その場合、(1)の方法で制作したのであれば、その楽曲データのメロディパートのみ消音して歌声と同時に再生すればよい。
また、上記実施形態では、テンポ毎に前述の歌声用HV−Scriptのデータをもつものとしているが、特定のテンポ用のデータのみ持ち、その他のテンポに対しては、HV歌声DBが保持している特定のテンポ用のデータから自動生成させるようにしてもよい。上記実施形態で示した歌声用HV−Scriptの例では、テンポ=120の場合を説明しているが、この場合四分音符は、音長が0.5秒であり、テンポ=60の場合は、これが1秒となる(発音時間が2倍になる)関係にある。
各歌声用HV−Scriptは、その記述からその発音時間が一義的に定まるので、テンポ=120用のデータを基に、テンポ=60用のデータを生成する場合、発音の長さが倍となるように、制御記号“S**”を変更したりまたは長音“−”を付加することで、テンポ=60のときの四分音符に相当する歌声用HV−Scriptを自動生成することができる。こうしたテンポの比に応じた発音の時間長を変えるための歌声用HV−Scriptの記述の変更ルールは別途定めればよい。
本発明の一実施の形態である歌声生成装置を構成する歌声再生装置の機能構成を示すブロック図である。 HV音源の構成を示す図である。 フォルマント生成部の構成を示す図である。 韻律記号(代表例)の意味を示す図である。 歌声用HV−Scriptを説明する表である。 HV歌声データについて説明するための楽譜の例である。 同実施の形態の歌声生成装置を構成する歌声データ作成装置の機能構成を示すブロック図である。 同実施形態の歌声生成装置の動作(HV歌声データ作成)を説明するフローチャートである。 同実施形態の歌声生成装置の動作(HV歌声データ作成)を説明するフローチャート(図8の続き)である。 同実施形態の歌声生成装置の動作(HV歌声データ再生)を説明するフローチャートである。 同実施形態による歌声生成装置を具備する携帯電話機の構成例を示すブロック図である。
符号の説明
1a…HV歌声プレイヤー、2a…HVドライバ、3a…合成辞書、4a…HV音源(発音手段)、5a…スピーカ(発音手段)、1b…制御部(制御手段)、1b−1…選択入力部、1b−2…歌声用HV−Script抽出部、1b−3…HV歌声データ生成部、1b−4…歌詞入力部、1b−5…発声文字置換部、2b…表示部、3b…操作部(入力手段)、4b…HV歌声DB(記憶手段)、21…CPU(制御手段)、22…アンテナ、23…通信部、24…音声処理部、25…音源(発音手段)、26…スピーカ(発音手段)、27…入力部(入力手段)、28…RAM、29…ROM(記憶手段)、30…表示部、40a〜40h…フォルマント生成部、41…波形発生器、42…ノイズ発生器、43…加算器、44…増幅器、50…ピッチ生成部、60…ミキシング部

Claims (7)

  1. 歌声にするためのメロディを表す楽譜データであって、所望の音符とその音符の音高が順次記述された楽譜データを入力する入力手段と、
    音声を発音する発音手段と、
    一つの発声文字と該発声文字を前記発音手段に発音させる際の音高・音長を規定するテキストとにより規定された該発声文字の音声を表す発音データを、種々の音高・音長毎に記憶する記憶手段と、
    前記楽譜データにおける各音符の音高・音長に相当する前記発音データを順次前記記憶手段から抽出し、抽出した発音データを並べいくことで発音データ列を生成する制御手段と
    を具備し、
    前記制御手段は、前記抽出された発音データの発声文字を、前記入力手段により入力されたユーザの所望の文字に変換し、
    前記発音手段は、前記制御手段によって生成した前記発音データ列に従って音声を発音することを特徴とする歌声生成装置。
  2. 前記入力手段は、歌詞を表すテキスト文字列の入力を受け、
    前記制御手段は、前記発音データ列を生成する際には、前記楽譜データで示される各音符の音高・音長毎に、ある一つの発声文字に対する発音データを抽出し、その後生成される前記発音データ列を構成する各発音データに含まれる発声文字を、対応する歌詞のテキスト文字に置き換えることを特徴とする請求項に記載の歌声生成装置。
  3. 前記発音データは、少なくとも一つのテンポに対応するものであり、
    前記制御手段は、前記楽譜データのテンポが、前記記憶手段に記憶される発音データが対応するテンポと異なる場合、これらのテンポの比に従って、前記発音データ列を生成する際に、これに含まれる発音データの韻律記号に対し音長を調整する変更を加え、入力された楽譜データのテンポに合わせることを特徴とする請求項1または請求項2に記載の歌声生成装置。
  4. 一つの発声文字に対応する前記発音データは、その発声文字を前記発音手段に発音させる際、最初は楽譜データで指定された音高より低い音高で発音させ、その後指定された音高に戻すように記述されていることを特徴とする請求項1から請求項のいずれかに記載の歌声生成装置。
  5. 前記記憶手段は、一つの発声文字を前記発音手段に発音させる際に発音途中で音高を上下させるように記述されているビブラート用の発音データをさらに記憶していることを特徴とする請求項1から請求項4のいずれか記載の歌声生成装置。
  6. 発音データ列に従って音声を発音する発音手段を有するコンピュータシステムに、
    一つの発声文字と該発声文字を前記発音手段に発音させる際の音高・音長を規定するテキストとにより規定された該発声文字の音声を表す発音データを、種々の音高・音長毎に記憶させるステップと、
    歌声にするためのメロディを表す楽譜データであって、所望の音符とその音符の音高が順次記述された楽譜データの入力を受けるステップと、
    前記楽譜データにおける各音符の音高・音長に相当する前記発音データを順次前記記憶手段から抽出するステップと、
    抽出した発音データを並べいくことで発音データ列を生成するステップとを実行させるためのプログラムであって、
    前記発音データ列を生成するステップは、前記抽出された発音データの発声文字を、前記楽譜データの入力を受けるステップにより入力されたユーザの所望の文字に変換することを特徴とするプログラム。
  7. 帯通信端末において、
    歌声にするためのメロディを表す楽譜データであって、所望の音符とその音符の音高が順次記述された楽譜データを入力する入力手段と、
    音声を発音する発音手段と、
    一つの発声文字と該発声文字を前記発音手段に発音させる際の音高・音長を規定するテキストとにより規定された該発声文字の音声を表す発音データを、種々の音高・音長毎にする記憶手段と、
    前記楽譜データにおける各音符の音高・音長に相当する前記発音データを順次前記記憶手段から抽出し、抽出した発音データを並べいくことで発音データ列を生成する制御手段と
    を具備し、
    前記制御手段は、前記抽出された発音データの発声文字を、前記入力手段により入力されたユーザの所望の文字に変換し、
    前記発音手段は、前記制御手段によって生成した前記発音データ列に従って音声を発音することを特徴とする携帯通信端末。
JP2004015777A 2004-01-23 2004-01-23 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末 Expired - Fee Related JP4277697B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004015777A JP4277697B2 (ja) 2004-01-23 2004-01-23 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末
CNB2005100055433A CN100342426C (zh) 2004-01-23 2005-01-20 歌声生成装置及具有歌声生成功能的便携通信终端
HK05109169A HK1077390A1 (en) 2004-01-23 2005-10-18 Apparatus for generating singing voice and portable communication terminal having function of generating singing voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004015777A JP4277697B2 (ja) 2004-01-23 2004-01-23 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末

Publications (2)

Publication Number Publication Date
JP2005208394A JP2005208394A (ja) 2005-08-04
JP4277697B2 true JP4277697B2 (ja) 2009-06-10

Family

ID=34901148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004015777A Expired - Fee Related JP4277697B2 (ja) 2004-01-23 2004-01-23 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末

Country Status (3)

Country Link
JP (1) JP4277697B2 (ja)
CN (1) CN100342426C (ja)
HK (1) HK1077390A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901598A (zh) * 2010-06-30 2010-12-01 北京捷通华声语音技术有限公司 一种哼唱合成方法和系统
JP5974436B2 (ja) * 2011-08-26 2016-08-23 ヤマハ株式会社 楽曲生成装置
US9620092B2 (en) * 2012-12-21 2017-04-11 The Hong Kong University Of Science And Technology Composition using correlation between melody and lyrics
JP5920266B2 (ja) * 2013-03-25 2016-05-18 カシオ計算機株式会社 楽譜演奏装置、楽譜演奏方法及びプログラム
KR101427666B1 (ko) * 2013-09-09 2014-09-23 (주)티젠스 악보 편집 서비스 제공 방법 및 장치
CN106547789B (zh) * 2015-09-22 2021-02-05 阿里巴巴集团控股有限公司 一种歌词生成方法及装置
CN108829751B (zh) * 2018-05-25 2022-02-25 腾讯音乐娱乐科技(深圳)有限公司 生成歌词、显示歌词的方法、装置、电子设备及存储介质
CN108877766A (zh) * 2018-07-03 2018-11-23 百度在线网络技术(北京)有限公司 歌曲合成方法、装置、设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731847A (en) * 1982-04-26 1988-03-15 Texas Instruments Incorporated Electronic apparatus for simulating singing of song
JPH0227397A (ja) * 1988-07-15 1990-01-30 Matsushita Electric Works Ltd 音声合成歌唱装置
JPH04175049A (ja) * 1990-11-08 1992-06-23 Toshiba Corp 音声応答装置
US6046395A (en) * 1995-01-18 2000-04-04 Ivl Technologies Ltd. Method and apparatus for changing the timbre and/or pitch of audio signals
JP3405123B2 (ja) * 1997-05-22 2003-05-12 ヤマハ株式会社 音声データ処理装置及びデータ処理プログラムを記録した媒体
JPH11184490A (ja) * 1997-12-25 1999-07-09 Nippon Telegr & Teleph Corp <Ntt> 規則音声合成による歌声合成方法
JPH11327544A (ja) * 1998-05-15 1999-11-26 Roland Corp 音符入力装置及び音符入力用プログラムを記録した記録媒体
JP4729171B2 (ja) * 2000-12-28 2011-07-20 インテレクチュアル ベンチャーズ ホールディング 56 エルエルシー 電子書籍装置および音声再生システム
JP2002221978A (ja) * 2001-01-26 2002-08-09 Yamaha Corp ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置
JP2002366186A (ja) * 2001-06-11 2002-12-20 Hitachi Ltd 音声合成方法及びそれを実施する音声合成装置
JP4483188B2 (ja) * 2003-03-20 2010-06-16 ソニー株式会社 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置
JP4415573B2 (ja) * 2003-06-13 2010-02-17 ソニー株式会社 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置

Also Published As

Publication number Publication date
JP2005208394A (ja) 2005-08-04
HK1077390A1 (en) 2006-02-10
CN1661674A (zh) 2005-08-31
CN100342426C (zh) 2007-10-10

Similar Documents

Publication Publication Date Title
CN110634460B (zh) 电子乐器、电子乐器的控制方法以及存储介质
KR101274961B1 (ko) 클라이언트단말기를 이용한 음악 컨텐츠 제작시스템
JP4168621B2 (ja) 歌唱音声合成を用いた携帯電話装置及び携帯電話システム
US20210193114A1 (en) Electronic musical instruments, method and storage media
CN110634464A (zh) 电子乐器、电子乐器的控制方法以及存储介质
CN110634461A (zh) 电子乐器、电子乐器的控制方法以及存储介质
CN107430849B (zh) 声音控制装置、声音控制方法和存储声音控制程序的计算机可读记录介质
US20210295819A1 (en) Electronic musical instrument and control method for electronic musical instrument
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
CN114155822A (zh) 电子乐器、方法及程序
JP4277697B2 (ja) 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末
JP2020190676A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
US20220301530A1 (en) Information processing device, electronic musical instrument, and information processing method
JP6167503B2 (ja) 音声合成装置
JP2020003762A (ja) 簡易操作声質変換システム
JP3307283B2 (ja) 歌唱音合成装置
JP5360489B2 (ja) 音素符号変換装置および音声合成装置
JP2004294816A (ja) 携帯端末装置
JP3233036B2 (ja) 歌唱音合成装置
JP5106437B2 (ja) カラオケ装置及びその制御方法並びにその制御プログラム
KR100612780B1 (ko) 음성 및 악곡 재생 장치
JP3265995B2 (ja) 歌唱音声合成装置及び方法
KR100650071B1 (ko) 악음·음성 재생 장치 및 악음·음성 재생 방법
JP7456430B2 (ja) 情報処理装置、電子楽器システム、電子楽器、音節進行制御方法及びプログラム
JP5471138B2 (ja) 音素符号変換装置および音声合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees