JP6390130B2 - 楽曲演奏装置、楽曲演奏方法及びプログラム - Google Patents

楽曲演奏装置、楽曲演奏方法及びプログラム Download PDF

Info

Publication number
JP6390130B2
JP6390130B2 JP2014055831A JP2014055831A JP6390130B2 JP 6390130 B2 JP6390130 B2 JP 6390130B2 JP 2014055831 A JP2014055831 A JP 2014055831A JP 2014055831 A JP2014055831 A JP 2014055831A JP 6390130 B2 JP6390130 B2 JP 6390130B2
Authority
JP
Japan
Prior art keywords
data
spectrum envelope
accompaniment
sound
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014055831A
Other languages
English (en)
Other versions
JP2015179143A (ja
Inventor
広 岩瀬
広 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014055831A priority Critical patent/JP6390130B2/ja
Publication of JP2015179143A publication Critical patent/JP2015179143A/ja
Application granted granted Critical
Publication of JP6390130B2 publication Critical patent/JP6390130B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子楽器を用いた楽曲演奏装置、楽曲演奏方法及びプログラムに関する。
従来から鍵盤を押すタイミングや、どの鍵盤を押せばよいかを光鍵盤で光らせることで押鍵操作すべき鍵を教示しながら演奏を行う楽曲演奏装置が知られている。
このような楽曲演奏装置によるレッスンで使われる曲では、歌が入ったポップス(歌謡曲)が人気があり、歌唱入りの楽曲のメロディーを教習することが多い。
しかしながら、従来は、歌のメロディーを教習するにもかかわらず、歌ではない他の楽器音(オルガンやサックス等)の音で演奏音が発音されていたので、演奏される楽曲が単調で楽しくレッスンすることができなかった。
一方、従来より、楽器演奏に合わせて、演奏者が口ずさむことによりマイクから入力される音声信号のフォルマント特性を検出し、楽器演奏で発生される楽音信号をそのフォルマント特性を有するフィルタバンクに入力することにより、演奏により発生する楽音信号をあたかも歌っているように変調するボコーダ装置が知られている。
また、従来、このようなボコーダ装置において、軽い計算負荷で出力音の演奏表現を向上させることができる技術も知られている(例えば特許文献1に記載の技術)。
しかし、このような従来のボコーダ装置は、楽器演奏時に効果を付加する目的で使用されるものであり、前述のように歌のメロディーを教習する目的で使用するためには、演奏者は楽器演奏に加えてマイクに対して歌を口ずさまなくてはならず、メロディー演奏に集中することが難しいという課題があった。
特開2004−287171号公報
そこで、本発明は、楽器演奏において発生する演奏楽音に簡単に歌詞を歌う効果を付加可能とすることを目的とする。
態様の一例では、楽曲の歌詞音声に対応する音声スペクトルエンベロープデータを記憶する歌詞音声スペクトルエンベロープデータ記憶部と、前記楽曲の演奏に対応する伴奏データを記憶する伴奏データ記憶部と、ユーザの演奏操作により指定された音高を入力する音高入力部と、前記入力された音高に基づいた音波形データを生成する音源部と、前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを順次読み出すとともに、前記音源部からの音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力するフィルタ部と、を備え、前記音源部は、前記フィルタ部による前記歌詞音声スペクトルエンベロープデータ記憶部からの前記音声スペクトルエンベロープデータの読出しに同期して、前記伴奏データ記憶部から前記伴奏データを順次読み出し、当該読み出された伴奏データに基づいて伴奏用の音波形データを生成して、前記放音部に出力することを特徴とする
本発明によれば、楽器演奏において発生する演奏楽音に簡単に歌詞を歌う効果を付加することが可能となる。
楽曲演奏装置の実施形態のブロック図である。 ボコーダ復調装置の詳細構成を示すブロック図である。 ボコーダ変調装置300のブロック図である。 ボコーダ変調装置の詳細構成を示すブロック図である。 歌詞音声データメモリのデータ構成例を示す図である。 楽曲演奏制御処理の例を示すフローチャートである。 鍵盤処理の詳細例を示すフローチャートである。 ボコーダ復調処理の詳細例を示すフローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、楽曲演奏装置100の実施形態のブロック図である。楽曲演奏装置100は、歌詞音声データメモリ101、鍵盤102、音源103、ボコーダ復調装置104、サウンドシステム105、曲データメモリ106、マイコン107、操作子群108を備える。
歌詞音声データメモリ101は、楽曲の歌詞音声に対応する音声スペクトルエンベロープデータを時系列で記憶する歌詞音声スペクトルエンベロープデータ記憶部として機能する。より具体的には、歌詞音声データメモリ101は、ボコーダ復調装置105を構成する複数のバンドパスフィルタ群の各バンドパスフィルタの利得を制御する複数の振幅データからなる振幅データ群110を時系列に記憶する。
鍵盤102は、ユーザの演奏操作により指定された音高を入力する音高入力部として機能する。
音源103は、鍵盤102からマイコン107を介して入力された音高に基づいて音波形データ109、例えばメロディ楽器の楽音波形データを生成出力する音源部として機能する。
ボコーダ復調装置104は、マイコン107によって歌詞音声データメモリ101から振幅データ群110を順次読み出すとともに、音源103で生成された音波形データ109に対して、読み出された振幅データ群110に対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行するフィルタ部として機能する。
サウンドシステム105は、ボコーダ復調装置104から出力されるフィルタリング処理された音波形データ111を放音する。
操作子群108は、ユーザが楽曲のレッスン(教習)を行うときに、様々な指示をマイコン107に対して入力する入力部として機能する。例えば、操作子群108は、ユーザにレッスンのテンポを指定させるテンポ入力部として機能する。これに対して、マイコン107は、歌詞音声データメモリ101から、振幅データ群110を、操作子群108で指定されたテンポに応じた速度で順次読み出してボコーダ復調装置104に入力させる。
曲データメモリ106は、楽曲の演奏に対応する伴奏データを時系列に記憶する伴奏データ記憶部として機能する。伴奏データは例えば、各伴奏音のノートオン情報や、発音タイミング情報である。この場合、マイコン107は、歌詞音声データメモリ101からの振幅データ群110の順次読出しに同期して、曲データメモリ106から伴奏データを順次読み出して音源103に入力させる。音源103は、入力される伴奏データに基づいて、伴奏楽器用の音波形データ112を生成し、サウンドシステム105に出力し、放音させる。
マイコン107は、楽曲演奏装置100の全体の制御を実行する。マイコン107は、特には図示しないCPU(中央演算処理装置)、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)、図1の101、102,103、106、108の各部に対する入出力を行うインタフェース回路、およびこれらを相互に接続するバス等を備えたマイクロコンピュータである。マイコン107では、CPUが、ROMに記憶された楽曲演奏処理プログラムを、RAMをワークメモリとして実行することにより、上述した楽曲演奏のための制御処理を実現する。
以上の構成により、ユーザが鍵盤102を演奏することにより音源103が出力する音波形データ109に対して、ボコーダ復調装置104が、振幅データ群110によって表現される楽曲の歌詞音声の音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行する。
これによって、音源部103が生成したメロディー楽器音などの音波形データに対して歌詞を歌う音声のニュアンスが反映された音波形データ111を出力し放音することが可能となる。また、音源部103からの音をメロディー楽器音として用いた場合、これに合わせて、伴奏用楽器音も出力し放音することが可能となる。
図2は、図1のボコーダ復調装置104の詳細構成を示すブロック図である。
ボコーダ復調装置104は、図1の音源103が出力する音波形データ109を入力し、複数の周波数帯域のそれぞれを通過させる複数のバンドパスフィルタ(BPF#1、BPF#2、BPF#3、・・・、BPF#n)からなるバンドパスフィルタ群201を備える。
また、ボコーダ復調装置104は、各バンドパスフィルタ(BPF#1、BPF#2、BPF#3、・・・、BPF#n)の各出力に、マイコン107から入力する振幅データ群110の各振幅データ#1〜#nの値を乗算する複数の乗算器(×#1〜×#n)からなる乗算器群202を備える。
さらに、ボコーダ復調装置104は、乗算器群202の各乗算器(×#1〜×#n)の出力を加算して図1の音波形データ111を出力する加算器203を備える。
上述した図2のボコーダ復調装置104の構成により、振幅データ群110に基づいてフィルタリング特性が制御されるバンドパスフィルタ群201によって、楽曲の歌詞音声に対応する音声スペクトルエンベロープ特性(フォルマント特性)を、入力される音波形データ109に付加することが可能となる。
図3は、図1の歌詞音声データメモリ101に記憶される振幅データ群110を生成するボコーダ変調装置300のブロック図である。ボコーダ変調装置300は、歌詞音声波形データ301を入力して、振幅データ群110を生成し、図1の歌詞音声データメモリ101に記憶させる。
図4は、図3のボコーダ変調装置300の詳細を示すブロック図である。
ボコーダ変調装置300は、図3の歌詞音声波形データ301を入力し、複数の周波数帯域のそれぞれを通過させる複数のバンドパスフィルタ(BPF#1、BPF#2、BPF#3、・・・、BPF#n)からなるバンドパスフィルタ群401を備える。このバンドパスフィルタ群401は、図1のボコーダ復調装置104を構成する図2のバンドパスフィルタ群201と同じ特性のものである。
また、ボコーダ変調装置300は、複数のエンベロープフォロア(EF#1、EF#2、EF#3、・・・、EF#n)からなるエンベロープフォロア群402を備える。各エンベロープフォロア(EF#1、EF#2、EF#3、・・・、EF#n)は、各バンドパスフィルタ(BPF#1、BPF#2、BPF#3、・・・、BPF#n)の各出力の時間変化のエンベロープデータをそれぞれ抽出し、それぞれ一定時間(例えば10msec(ミリ秒))毎にサンプリングして、各振幅データ(#1〜#n)として出力する。エンベロープフォロア(EF#1、EF#2、EF#3、・・・、EF#n)は例えば、各バンドパスフィルタ(BPF#1、BPF#2、BPF#3、・・・、BPF#n)の各出力の振幅の絶対値を算出し、各算出値をそれぞれ入力して時間変化のエンベロープ特性を抽出するために十分に低い周波数成分のみを通過させるローパスフィルタである。
図5は、図1の歌詞音声データメモリ101のデータ構成例を示す図である。楽曲の歌詞音声の時間経過を例えば10msec毎に区切った時間(time)毎に、図4のボコーダ変調装置300から出力される複数の振幅データ#1、#2、#3、・・・、#nの組が振幅データ群110(図1)として記憶される。
図6は、図1のマイコン107が実行する楽曲演奏制御処理の例を示すフローチャートである。この楽曲演奏制御処理は、前述したように、マイコン107において、内部のCPUが、内部のROMに記憶された図6のフローチャートとして例示される楽曲演奏制御処理プログラムをRAMをワークメモリとして実行する動作として実現される。
ユーザが図1の操作子群108からレッスンの開始を指示すると、図6のフローチャートの処理が開始され、鍵盤処理(ステップS601)、ボコーダ復調処理(ステップS602)、および伴奏再生処理(ステップS603)が、繰り返し実行される。ユーザが図1の操作子群108からレッスンの終了を指示する図6のフローチャートの処理が終了する。
図7は、図6のステップS601の鍵盤処理の詳細例を示すフローチャートである。
まず、図1の鍵盤102において、押鍵があったか否かが判定される(ステップS701)。
ステップS701の判定がYESならば、押鍵された音高に従い、キャリアとなる音波形データ、例えばメロディ楽器の楽音波形データ等を所定の音高で出力するよう図1の音源103に発音開始(ノートオン)指示が出力される(ステップS702)。ステップS701の判定がNOならば、ステップS702の処理はスキップされる。
次に、離鍵があったか否かが判定される(ステップS703)。
ステップS703の判定がYESならば、離鍵された音高の音波形データを消音するよう図1の音源103に発音終了(ノートオフ)指示が出力される。
その後、図7のフローチャートの処理が終了し、図6のステップS601の鍵盤処理が終了する。
図8は、図6のステップS602のボコーダ復調処理の詳細例を示すフローチャートである。
まず、ユーザが図1の操作子を操作することにより指定し予めマイコン107内のRAMに記憶されているテンポ値tempoが読み出される(ステップS801)。
そして、図1の歌詞音声データメモリ101に記憶されている「曲の進行時間×tempo」に該当する時間に対応する各バンドの振幅データ#1〜#nの組(図5参照)が読み出され、図1の振幅データ群110として、図1のボコーダ復調装置104内の図2の乗算器群202を構成する各乗算器(×#1〜×#n)に出力される(ステップS802)。なお、曲の進行時間は例えば、ユーザがレッスン開始を指示した時点から、マイコン107が内蔵するタイマによって計時されている。ここで、「曲の進行時間×tempo」に該当する時間が図5に例示される歌詞音声データメモリ101に記憶されていない場合には、「曲の進行時間×tempo」の時間値の前後の歌詞音声データメモリ101に記憶されている時間の振幅データからの補間演算により、「曲の進行時間×tempo」の時間値に対応する振幅データが演算されてよい。
ステップS802の後、図8のフローチャートの処理が終了し、図6のステップS602のボコーダ復調処理が終了する。
図6のステップS603の伴奏再生処理では、マイコン107内のCPUが、図1の曲データメモリ106から「曲の進行時間×tempo」に対応する伴奏データの時系列を順次読み出して、音源103に対して発音開始指示または発音終了指示を出力する動作される。
以上説明した実施形態により、図1の音波形データ109に対してボコーダ復調装置104によって歌詞を歌う音声のニュアンスを反映させた音波形データ111を得ることが可能となる。また、音波形データ109に合わせて、伴奏用の音波形データ112も出力し、サウンドシステム105から両者を合わせて放音することが可能となる。このとき、ユーザは、鍵盤102で指定する音高を間違えば、間違ったなりの音高で歌う音痴な感じの音波形データ111が生成される。このようにして、ユーザは、楽しくレッスンを行うことが可能となる。鍵盤102を弾くたびに、その楽曲の歌詞音声が発音されるため、楽曲がよりリアルになり、楽しくレッスンができるという利点がある。
歌詞音声は、予め録音された歌唱音声をPCM(パルスコード変調)データで内蔵し、その音声を発音させる方法も考えられるが、この方式では音声データが大きくなることや、演奏者が弾き間違えたときに、間違えたなりの音高で発音させることが比較的難しい。また、歌詞データを内蔵し、そのデータを元に音声合成された音声信号を発音させる方法があるが、この方式の欠点として、音声合成には多くの計算量とデータが必要となるため、リアルタイムの制御が困難である。
本実施形態によるボコーダー方式で合成するものとすることで、周波数毎の振幅変化を予め分析しておくことで、分析フィルタ群を不要とできるので、PCMデータで内蔵しておくよりも、回路規模や計算量、データ量を削減することができる。さらに、間違った鍵盤102を弾いた場合、歌詞音声をPCM音声データで保持していた場合は、その音声を間違った鍵盤のピッチ合わせるためのピッチ変換を行う必要があるが、ボコーダー方式にすることで、ピッチ変換もキャリアのピッチを変えるだけなので、容易であるという利点もある。
図1のボコーダ復調装置104は、マイコン107との協調制御によって、歌詞音声データメモリ101から音声スペクトルエンベロープデータの時系列を順次読み出して入力しながら、音波形データ109に対して、音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、このフィルタリング処理の実行された音波形データ111を出力するフィルタ部として機能する。ここで、フィルタ部は、ボコーダ復調装置104のほかに、線形予測分析またはスペクトル最尤推定に基づいて構成される線形予測合成フィルタ、偏相関分析に基づいて構成されるPARCOR合成フィルタ、または線スペクトル対分析に基づいて構成されるLSP合成フィルタなどのディジタルフィルタによって実現することも可能である。このとき、音声スペクトルエンベロープデータは、上述のディジタルフィルタを構成するための線形予測係数データ、PARCOR係数データ、またはLSP係数データのいずれかのパラメータ群であってよい。
図1において、曲データメモリ106は、教習を行う楽曲のメロディーの音高や発音および消音のタイミング情報を含んでよい。そして、楽曲の進行に合わせてユーザが鍵盤102を演奏することによって入力するメロディー演奏音と曲データメモリ106中の各メロディーの音高と発音および消音のタイミングとが比較されることにより、レッスンの達成度が計算されて特には図示しないディスプレイなどに表示されてもよい。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
楽曲の歌詞音声に対応する音声スペクトルエンベロープデータを記憶する歌詞音声スペクトルエンベロープデータ記憶部と、
ユーザの演奏操作により指定された音高を入力する音高入力部と、
前記入力された音高に基づいた音波形データを生成する音源部と、
前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを順次読み出すとともに、前記音源部からの音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力するフィルタ部と、
を備えることを特徴とする楽曲演奏装置。
(付記2)
前記音声スペクトルエンベロープデータは、複数の振幅データからなる振幅データ群であり、
前記フィルタ部は、前記音波形データを入力して複数の音声周波数帯域のそれぞれを通過させる複数のバンドパスフィルタからなるバンドパスフィルタ群と、前記各バンドパスフィルタの各出力に前記各振幅データの値を乗算する複数の乗算器からなる乗算器群と、該各乗算器の出力を加算して出力する加算器とを含むボコーダ復調部である
ことを特徴とする付記1に記載の楽曲演奏装置。
(付記3)
前記フィルタ部は、線形予測分析またはスペクトル最尤推定に基づいて構成される線形予測合成フィルタ、偏相関分析に基づいて構成されるPARCOR合成フィルタ、または線スペクトル対分析に基づいて構成されるLSP合成フィルタのいずれかのディジタルフィルタであり、
前記音声スペクトルエンベロープデータは、前記ディジタルフィルタを構成するための線形予測係数データ、PARCOR係数データ、またはLSP係数データのいずれかのパラメータ群である、
ことを特徴とする付記1に記載の楽曲演奏装置。
(付記4)
前記ユーザに演奏のテンポを指定させるテンポ入力部をさらに備え、
前記フィルタ部は、前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを前記指定されたテンポに応じた速度で順次読み出して前記フィルタリング処理を実行する、
ことを特徴とする付記1ないし3のいずれかに記載の楽曲演奏装置。
(付記5)
前記楽曲の演奏に対応する伴奏データを記憶する伴奏データ記憶部をさらに備え、
前記音源部は、前記フィルタ部による前記歌詞音声スペクトルエンベロープデータ記憶部からの前記音声スペクトルエンベロープデータの読出しに同期して、前記伴奏データ記憶部から前記伴奏データを順次読み出し、当該読み出された伴奏データに基づいて、伴奏用の音波形データを生成して、前記放音部に出力する、
ことを特徴とする付記1ないし4のいずれかに記載の楽曲演奏装置。
(付記6)
楽曲の歌詞音声に対応する音声スペクトルエンベロープデータの時系列を記憶する歌詞音声スペクトルエンベロープデータ記憶部を有する楽曲演奏装置に用いられる楽曲演奏方法であって、前記楽曲演奏装置は、
ユーザの演奏操作により指定された音高を入力し、
前記入力された音高に基づいて音波形データを生成し、
前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータの時系列を順次読み出すとともに、前記生成された音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力する、楽曲演奏方法。
(付記7)
楽曲の歌詞音声に対応する音声スペクトルエンベロープデータの時系列を記憶する歌詞音声スペクトルエンベロープデータ記憶部を有する楽曲演奏装置として用いられるコンピュータに、
ユーザの演奏操作により指定される音高を入力する音高入力処理と、
前記入力された音高に基づいた音波形データを生成する音源処理と、
前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータの時系列を順次読み出すとともに、前記生成された音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力するフィルタ処理と、
を実行させるための楽曲演奏プログラム。
100 楽曲演奏装置
101 歌詞音声データメモリ
102 鍵盤
103 音源
104 ボコーダ復調装置
105 サウンドシステム
106 曲データメモリ
107 マイコン
108 操作子群
109 メロディー楽器の音波形データ
110 振幅データ群
111 フィルタリング処理された音波形データ
112 伴奏楽器の音波形データ
201、401 バンドパスフィルタ群
202 乗算器群
203 加算器
300 ボコーダ変調装置
301 歌詞音声波形データ
402 エンベロープフォロア群

Claims (6)

  1. 楽曲の歌詞音声に対応する音声スペクトルエンベロープデータを記憶する歌詞音声スペクトルエンベロープデータ記憶部と、
    前記楽曲の演奏に対応する伴奏データを記憶する伴奏データ記憶部と、
    ユーザの演奏操作により指定された音高を入力する音高入力部と、
    前記入力された音高に基づいた音波形データを生成する音源部と、
    前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを順次読み出すとともに、前記音源部からの音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力するフィルタ部と、
    を備え、
    前記音源部は、前記フィルタ部による前記歌詞音声スペクトルエンベロープデータ記憶部からの前記音声スペクトルエンベロープデータの読出しに同期して、前記伴奏データ記憶部から前記伴奏データを順次読み出し、当該読み出された伴奏データに基づいて伴奏用の音波形データを生成して、前記放音部に出力することを特徴とする楽曲演奏装置。
  2. 前記音声スペクトルエンベロープデータは、複数の振幅データからなる振幅データ群であり、
    前記フィルタ部は、前記音波形データを入力して複数の周波数帯域のそれぞれを通過させる複数のバンドパスフィルタからなるバンドパスフィルタ群と、前記各バンドパスフィルタの各出力に前記各振幅データの値を乗算する複数の乗算器からなる乗算器群と、該各乗算器の出力を加算して出力する加算器とを含むボコーダ復調部である
    ことを特徴とする請求項1に記載の楽曲演奏装置。
  3. 前記フィルタ部は、線形予測分析またはスペクトル最尤推定に基づいて構成される線形予測合成フィルタ、偏相関分析に基づいて構成されるPARCOR合成フィルタ、または線スペクトル対分析に基づいて構成されるLSP合成フィルタのいずれかのディジタルフィルタであり、
    前記音声スペクトルエンベロープデータは、前記ディジタルフィルタを構成するための線形予測係数データ、PARCOR係数データ、またはLSP係数データのいずれかのパラメータ群である、
    ことを特徴とする請求項1に記載の楽曲演奏装置。
  4. 前記ユーザに演奏のテンポを指定させるテンポ入力部をさらに備え、
    前記フィルタ部は、前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを前記指定されたテンポに応じた速度で順次読み出して前記フィルタリング処理を実行する、
    ことを特徴とする請求項1ないし3のいずれかに記載の楽曲演奏装置。
  5. 楽曲の歌詞音声に対応する音声スペクトルエンベロープデータを記憶する歌詞音声スペクトルエンベロープデータ記憶部と、前記楽曲の演奏に対応する伴奏データを記憶する伴奏データ記憶部と、を有する楽曲演奏装置に用いられる楽曲演奏方法であって、前記楽曲演奏装置は、
    ユーザの演奏操作により指定された音高を入力し、
    前記入力された音高に基づいた音波形データを生成し、
    前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを順次読み出すとともに、前記生成された音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力するとともに
    前記歌詞音声スペクトルエンベロープデータ記憶部からの前記音声スペクトルエンベロープデータの読出しに同期して、前記伴奏データ記憶部から前記伴奏データを順次読み出し、当該読み出された伴奏データに基づいて伴奏用の音波形データを生成して、前記放音部に出力する、楽曲演奏方法。
  6. 楽曲の歌詞音声に対応する音声スペクトルエンベロープデータの時系列を記憶する歌詞音声スペクトルエンベロープデータ記憶部と、前記楽曲の演奏に対応する伴奏データを記憶する伴奏データ記憶部と、を有する楽曲演奏装置として用いられるコンピュータに、
    ユーザの演奏操作により指定された音高を入力する音高入力処理と、
    前記入力された音高に基づいて音波形データを生成する音源処理と、
    前記歌詞音声スペクトルエンベロープデータ記憶部から前記音声スペクトルエンベロープデータを順次読み出すとともに、前記生成された音波形データに対して、前記読み出された音声スペクトルエンベロープデータに対応する音声スペクトルエンベロープ特性を有するフィルタリング処理を実行し、当該フィルタリング処理された音波形データを放音部へ出力するフィルタ処理と、
    を実行させ
    前記音源処理は、前記歌詞音声スペクトルエンベロープデータ記憶部からの前記音声スペクトルエンベロープデータの読出しに同期して、前記伴奏データ記憶部から前記伴奏データを順次読み出し、当該読み出された伴奏データに基づいて伴奏用の音波形データを生成して、前記放音部に出力することを特徴とする、楽曲演奏プログラム。
JP2014055831A 2014-03-19 2014-03-19 楽曲演奏装置、楽曲演奏方法及びプログラム Active JP6390130B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014055831A JP6390130B2 (ja) 2014-03-19 2014-03-19 楽曲演奏装置、楽曲演奏方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014055831A JP6390130B2 (ja) 2014-03-19 2014-03-19 楽曲演奏装置、楽曲演奏方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015179143A JP2015179143A (ja) 2015-10-08
JP6390130B2 true JP6390130B2 (ja) 2018-09-19

Family

ID=54263245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014055831A Active JP6390130B2 (ja) 2014-03-19 2014-03-19 楽曲演奏装置、楽曲演奏方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6390130B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6569712B2 (ja) * 2017-09-27 2019-09-04 カシオ計算機株式会社 電子楽器、電子楽器の楽音発生方法、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59131796U (ja) * 1983-02-23 1984-09-04 山水電気株式会社 効果音合成装置
JPH0777979A (ja) * 1993-06-30 1995-03-20 Casio Comput Co Ltd 音声制御音響変調装置
JPH10187180A (ja) * 1996-12-25 1998-07-14 Casio Comput Co Ltd 楽音発生装置
JP3430985B2 (ja) * 1999-08-05 2003-07-28 ヤマハ株式会社 合成音生成装置
JP4076887B2 (ja) * 2003-03-24 2008-04-16 ローランド株式会社 ボコーダ装置
JP2006337450A (ja) * 2005-05-31 2006-12-14 Casio Comput Co Ltd 楽音発生装置および楽音発生プログラム
JP2008097022A (ja) * 2007-11-12 2008-04-24 Casio Comput Co Ltd 楽音発生装置

Also Published As

Publication number Publication date
JP2015179143A (ja) 2015-10-08

Similar Documents

Publication Publication Date Title
JP6547878B1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP6569712B2 (ja) 電子楽器、電子楽器の楽音発生方法、及びプログラム
KR100949872B1 (ko) 악곡 연습 지원 장치, 악곡 연습 지원 장치의 제어 방법, 악곡 연습 지원 장치를 제어하는 제어 방법을 컴퓨터로 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
JP3598598B2 (ja) カラオケ装置
JP7059972B2 (ja) 電子楽器、鍵盤楽器、方法、プログラム
JP7476934B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP6175812B2 (ja) 楽音情報処理装置及びプログラム
WO2017057531A1 (ja) 音響処理装置
JP6390130B2 (ja) 楽曲演奏装置、楽曲演奏方法及びプログラム
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP5267495B2 (ja) 楽器音分離装置、及びプログラム
KR20190121080A (ko) 미디어 컨텐츠 서비스 시스템
JP6819732B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP6801766B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP6075314B2 (ja) プログラム,情報処理装置,及び評価方法
JPH11338480A (ja) カラオケ装置
JP5983670B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP7158331B2 (ja) カラオケ装置
JP2009237590A (ja) 音声効果付与装置
WO2022054496A1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP4033146B2 (ja) カラオケ装置
JP2016057389A (ja) コード決定装置及びコード決定プログラム
JPH08234772A (ja) カラオケ装置
JP5104293B2 (ja) 自動演奏装置
TWM491896U (zh) 哼唱聲音轉樂譜的辨識轉換系統及辨識轉換裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6390130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150