JP2015102741A - Musical performance device and musical performance processing program - Google Patents
Musical performance device and musical performance processing program Download PDFInfo
- Publication number
- JP2015102741A JP2015102741A JP2013244085A JP2013244085A JP2015102741A JP 2015102741 A JP2015102741 A JP 2015102741A JP 2013244085 A JP2013244085 A JP 2013244085A JP 2013244085 A JP2013244085 A JP 2013244085A JP 2015102741 A JP2015102741 A JP 2015102741A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- data
- mute
- chord
- music data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ユーザの楽器演奏に基づく演奏信号に対し各種の処理を行う楽音演奏装置及びこれに用いる楽音演奏処理プログラムに関する。 The present invention relates to a musical tone performance apparatus that performs various processes on performance signals based on a musical instrument performance of a user, and a musical tone performance processing program used therefor.
ユーザの楽器演奏時の演奏信号が入力されて検出され、その検出結果に対応して、ユーザの娯楽性を向上させるための各種の処理(例えば、演奏に対する採点や各種表示等)を行う技術が既に知られている。例えば、特許文献1に記載の従来技術では、予め用意された楽曲についての目標音高データ(曲データ)と、上記ユーザの演奏により楽器から出力された演奏信号に対応した実音高データ(演奏データ)とが比較される。そして、それらの比較結果に基づき、ユーザの演奏内容に対する採点が行われる。
A technique for performing various types of processing (for example, scoring and various types of display for performances) for improving the entertainment of the user in response to the detection result when the performance signal of the user playing the musical instrument is detected. Already known. For example, in the prior art described in
ところで、一般に、弦楽器(特にギター)には、各弦が略同時に発音されたり(いわゆるストローク奏法)、各弦が経時的に順を追って発音されたり(いわゆるアルペジオ奏法)等の種々の奏法がある。特に、エレキギターにより比較的テンポの速い(例えばロック調の)楽曲が演奏される場合、楽曲のドライブ感(ノリが良い雰囲気)を強調するために、各弦をミュート状態としつつ刻むように発音させて演奏する(いわゆるミュート奏法)場合がある。このミュート奏法では、各弦の発音時間が極めて短く、またピックが弦をはじいた後に弦の振動がユーザの手により強制減衰させられることから、それ以外の通常の奏法(上記ストローク奏法やアルペジオ奏法等)とは著しく異なる、独特の発音態様となる。したがって、上記ミュート奏法が行われるときに、上記通常の奏法と同様の処理を一律に行った場合には、演奏信号を正確に検出できなくなり、この結果、上記各種の処理を行うことができずにユーザにとっての利便性や娯楽性を低下させる可能性がある。 By the way, in general, stringed instruments (particularly guitars) have various performance methods such as each string being pronounced substantially simultaneously (so-called stroke playing method), and each string being pronounced over time (so-called arpeggio playing method). . In particular, when a relatively fast-tempo (for example, rock-like) music is played by an electric guitar, each string is muted while being muted in order to emphasize the drive feeling (smooth atmosphere) of the music. Playing (so-called mute playing method). In this mute playing method, the sounding time of each string is extremely short, and after the pick hits the string, the vibration of the string is forcibly attenuated by the user's hand, so other normal playing methods (the above-mentioned stroke playing method and arpeggio playing method) Etc.) and a distinctive pronunciation. Therefore, when the mute performance is performed, if the same processing as the normal performance is performed uniformly, the performance signal cannot be accurately detected, and as a result, the various processes cannot be performed. In addition, there is a possibility that convenience and entertainment for the user may be reduced.
本発明の目的は、ユーザがミュート奏法を行った場合でも演奏信号を正確に検出して、ユーザの利便性や娯楽性の低下を防止できる、楽音演奏装置及び楽音演奏処理プログラムを提供することにある。 An object of the present invention is to provide a musical tone performance apparatus and musical tone performance processing program capable of accurately detecting a performance signal even when the user performs a mute performance and preventing deterioration of user convenience and entertainment. is there.
上記目的を達成するために、第1の発明は、所定の弦楽器の演奏パートを含み、複数のコードの進行からなるコード情報が対応づけられたカラオケ楽曲データを記憶する楽曲データ記憶手段と、前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手段と、前記ミュート奏法検出手段による検出結果を出力するミュート奏法出力手段と、を有することを特徴とする。 In order to achieve the above object, the first invention includes music data storage means for storing karaoke music data including chord information consisting of a plurality of chord progressions, including a performance part of a predetermined stringed instrument, Music data playback means for reading out and playing back the karaoke music data stored in the music data storage means, and according to the playback of the karaoke music data by the music data playback means, the instrument player performs the string instrument from the string instrument. A performance signal input means for inputting a performance signal to be output, and a mute for detecting the performance of the instrument performer by the mute performance method in distinction from other performance styles based on the performance signal input from the performance signal input means. Rendition style detection means, and mute performance style output means for outputting a detection result by the mute performance style detection means, Characterized in that it.
本願第1発明の楽音演奏装置では、楽曲データ記憶手段に記憶されたカラオケ楽曲データが、楽曲データ再生手段によって読み出されて再生される。このとき、本願第1発明では、カラオケ楽曲データの再生とともにユーザ(楽器演奏者)が楽器を演奏することができる。すなわち、上記再生に合わせてユーザが弦楽器を演奏すると、弦楽器から出力された演奏信号が演奏信号入力手段を介し入力されて検出され、その検出結果に対応して、ユーザの娯楽性を向上させるための各種の処理(例えば、演奏に対する採点や各種表示等)が実行される。 In the musical tone performance apparatus according to the first aspect of the present invention, the karaoke music data stored in the music data storage means is read and reproduced by the music data reproducing means. At this time, in the first invention of the present application, the user (musical instrument player) can play the musical instrument along with the reproduction of the karaoke music data. That is, when the user plays a stringed instrument in accordance with the reproduction, the performance signal output from the stringed instrument is input and detected via the performance signal input means, and the user's entertainment is improved according to the detection result. The various processes (for example, scoring and various displays for performance) are executed.
本願第1発明においては、先に述べた現実のユーザの演奏傾向に鑑み、ミュート奏法検出手段が、上記入力された演奏信号に基づき、楽器演奏者のミュート奏法による演奏をそれ以外の奏法と区別して検出し、ミュート奏法出力手段が、その検出結果を出力する。これにより、上記の弊害を回避し、ユーザがミュート奏法を行った場合であっても演奏信号を正確に検出することができるので、上記各種の処理を正しく行うことができ、ユーザの利便性や娯楽性の低下を防止することができる。 In the first invention of the present application, in consideration of the performance tendency of the actual user described above, the mute performance method detection means performs the performance by the musical instrument player based on the input performance signal. Separately detected, the mute performance output means outputs the detection result. As a result, the above-described adverse effects can be avoided and the performance signal can be accurately detected even when the user performs the mute performance, so that the various processes described above can be performed correctly, and user convenience and A decrease in entertainment can be prevented.
第2発明は、上記第1発明において、前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記ミュート奏法に対応した第1目標音高データを生成する第1目標データ生成手段と、前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記それ以外の奏法に対応した第2目標音高データを生成する第2目標データ生成手段と、前記演奏信号入力手段から入力される前記演奏信号に基づく実音高データを生成する実データ生成手段と、を有し、前記ミュート奏法検出手段は、前記第1目標音高データ及び前記第2目標音高データ、のうち少なくとも一方と、対応する前記実音高データとの一致度を決定可能な一致度決定手段と、前記一致度決定手段により決定された前記一致度に応じて、前記楽器演奏者による、前記ミュート奏法による演奏及び前記それ以外の奏法による演奏の少なくとも一方に対する採点を実行可能な採点手段と、を含み、前記ミュート奏法出力手段は、前記採点手段による採点結果を出力する手段であることを特徴とする。 The second invention corresponds to the chord in the stringed instrument for each chord included in the corresponding chord information in accordance with the reproduction of the karaoke song data in the song data reproducing means in the first invention. First target data generating means for generating first target pitch data corresponding to the mute playing method, and each code included in the code information corresponding to the reproduction of the karaoke music data by the music data reproducing means For each of the performance signals input from the performance signal input means, second target data generation means for generating second target pitch data corresponding to the other performance methods corresponding to the chord in the stringed instrument. Real data generation means for generating actual pitch data based on the mute performance method detection means, wherein the mute playing style detection means includes the first target pitch data and the second The degree of coincidence determination means capable of determining the degree of coincidence between at least one of the pitch data and the corresponding actual pitch data, and the musical instrument performance according to the degree of coincidence determined by the degree of coincidence determination means Scoring means capable of scoring at least one of the performance by the mute performance method and the performance by the other performance method by the person, and the mute performance output means is means for outputting the scoring result by the scoring means. It is characterized by being.
本願第2発明では、カラオケ楽曲データの再生に合わせてユーザが弦楽器を演奏すると、その演奏に対する採点が行われる。すなわち、上記再生されるカラオケ楽曲データには、コード情報が対応づけられている。そして、当該カラオケ楽曲データの再生に応じて、上記コード情報に含まれる各コードごとに上記弦楽器の目標音高データが生成される。このとき、前述のような現実のユーザの演奏傾向に鑑み、本願第2発明では、第1目標データ生成手段及び第2目標データ生成手段の2つが設けられる。第1目標データ生成手段では、上記ミュート奏法に対応した第1目標音高データが生成される。第2目標データ生成手段では、ミュート奏法以外の通常の奏法に対応した第2目標データが生成される。 In the second invention of this application, when a user plays a stringed instrument in accordance with the reproduction of karaoke music data, the performance is scored. That is, code information is associated with the reproduced karaoke music data. And according to the reproduction | regeneration of the said karaoke music data, the target pitch data of the said stringed instrument are produced | generated for every chord contained in the said chord information. At this time, in view of the performance tendency of the actual user as described above, in the second invention of the present application, the first target data generating means and the second target data generating means are provided. The first target data generating means generates first target pitch data corresponding to the mute performance method. The second target data generating means generates second target data corresponding to a normal performance method other than the mute performance method.
一方、上記ユーザの演奏により弦楽器から出力された演奏信号は演奏信号入力手段によって入力された後、実データ生成手段により(例えば当該演奏信号の周波数成分が抽出されてクロマベクトル処理が行われることで)対応する実音高データが生成される。 On the other hand, after the performance signal output from the stringed instrument by the user's performance is input by the performance signal input means, the actual data generation means (for example, the frequency component of the performance signal is extracted and chroma vector processing is performed). ) Corresponding actual pitch data is generated.
そして、一致度決定手段が、上記生成された実音高データと対応する目標音高データとの一致度を決定し、採点手段がその一致度に応じて採点を行う。このとき、本願第2発明では、目標音高データとして、上記第1目標音高データ及び第2目標音高データのうち少なくとも一方が用いられる。これにより、ミュート奏法とそれ以外の奏法を一切区別せずに一致度を決定し採点を行う場合に比べて、弦楽器の演奏における採点精度を向上できる。この結果、ユーザにとっての利便性及び娯楽性を確実に高めることができる。 Then, the coincidence determination means determines the coincidence between the generated actual pitch data and the corresponding target pitch data, and the scoring means scores according to the coincidence. At this time, in the second invention of the present application, at least one of the first target pitch data and the second target pitch data is used as the target pitch data. This makes it possible to improve the scoring accuracy in the performance of the stringed instrument as compared with the case where the degree of coincidence is determined and scored without distinguishing between the mute performance method and other performance methods. As a result, convenience and entertainment for the user can be reliably improved.
第3発明は、上記第2発明において、前記一致度決定手段は、前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に付加された奏法情報に基づき、前記第1目標音高データ及び前記第2目標音高データのうちいずれか一方を選択的に切り替えて用いて、対応する前記実音高データとの一致度を決定することを特徴とする。 According to a third invention, in the second invention, the coincidence degree determining means is based on rendition style information added to the corresponding chord information in accordance with the reproduction of the karaoke music data by the music data reproducing means. One of the first target pitch data and the second target pitch data is selectively switched and used to determine the degree of coincidence with the corresponding actual pitch data.
一般的に、ユーザがミュート奏法を行うかそれ以外の通常の奏法を行うかは、楽曲ごと、あるいは各楽曲の中の演奏区間ごとに、概ね一意的に決まっている。本願第3発明ではこれに対応して、カラオケ楽曲データに対応づけられたコード情報(あるいはカラオケ楽曲データそのものでもよい)に、予め奏法情報が付加されている。この奏法情報は、例えば、演奏者がミュート奏法により演奏すべき区間(あるいは楽曲)であるか、それ以外の奏法により演奏すべき区間(あるいは楽曲)であるか、等を表している。そして、一致度決定手段は、当該奏法情報に基づき、第1目標音高データ若しくは第2目標音高データを選択的に切り替えて用いて、上記一致度を決定する。 Generally, whether the user performs the mute performance or the other normal performance is generally uniquely determined for each music piece or for each performance section in each music piece. In the third invention of the present application, in response to this, performance method information is added in advance to code information associated with karaoke song data (or karaoke song data itself). This rendition style information represents, for example, whether the performer is a section (or music piece) to be played by the mute playing technique, or is a section (or music piece) to be played by other performance techniques. Then, the coincidence determination means determines the coincidence by selectively switching the first target pitch data or the second target pitch data based on the performance information.
これにより、ミュート奏法により演奏すべき曲とそれ以外の奏法により演奏すべき曲とを混在させつつユーザが演奏を行う場合や、ユーザが演奏する1つの曲の中でミュート奏法により演奏すべき区間とそれ以外の奏法により演奏すべき区間とが混在する場合等であっても、高い精度で採点を行うことができる。この結果、ユーザにとっての利便性及び娯楽性をさらに確実に高めることができる。 Thus, when the user performs a performance while mixing a song to be played by the mute playing method and a song to be played by another playing method, or a section to be played by the mute playing method in one song played by the user Even if there is a mixture of sections to be played by other playing methods, scoring can be performed with high accuracy. As a result, the convenience and entertainment for the user can be further improved.
上記目的を達成するために、本願第4発明の楽音演奏処理プログラムは、所定の弦楽器の演奏パートを含み、複数のコードの進行からなるコード情報が対応づけられたカラオケ楽曲データを記憶する楽曲データ記憶手段と、前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、を有する楽音演奏装置に備えられた演算手段に対し、前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手順と、前記ミュート奏法検出手順での検出結果を出力するミュート奏法出力手順と、を実行させる。 In order to achieve the above object, a musical tone performance processing program according to the fourth invention of the present application stores musical piece data that includes karaoke musical piece data that includes a performance part of a predetermined stringed instrument and that is associated with chord information consisting of a plurality of chord progressions. According to the reproduction of the karaoke music data by the music data reproduction means, the music data reproduction means for reading out and reproducing the karaoke music data stored in the music data storage means, The musical instrument based on the performance signal input from the performance signal input means to the arithmetic means provided in the musical sound performance device, which has a performance signal input means for inputting a performance signal output from the stringed instrument by performance A mute playing method detection procedure for detecting a player's performance using the mute playing method separately from other playing methods, And mute playing output procedure for outputting the result of detection by the serial mute playing detection procedure is executed.
本発明によれば、ユーザがミュート奏法を行った場合でも演奏信号を正確に検出して、ユーザの利便性や娯楽性の低下を防止することができる。 ADVANTAGE OF THE INVENTION According to this invention, even when a user performs a mute performance method, a performance signal can be detected correctly and the fall of a user's convenience and amusement can be prevented.
以下、本発明の一実施の形態について、図面を参照しつつ説明する。本実施形態では、ユーザがカラオケ楽曲の演奏と共に主として自らエレキギターを演奏する場合を説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case will be described in which a user mainly plays an electric guitar by himself along with the performance of karaoke music.
<主要構成>
図1は、本実施形態の楽音演奏装置であるカラオケ装置の主要構成を示す説明図である。図1に示すように、カラオケ装置10には、歌詞を示す歌詞テロップ、歌詞テロップの背景に表示する背景映像、選曲番号を示す映像などをCRTに表示するモニタテレビ(以下、モニタと略称する)13と、ユーザ用のモニタ14と、エレキギター4(所定の弦楽器に相当)やエレキベースなどの電子楽器を接続するための楽器接続ボード8と、複数の楽器演奏パートにより構成されるカラオケ用の楽曲(カラオケ楽曲。以下、適宜「曲」と略称する)の選曲及び曲の再生の予約などの選曲制御や、選曲された曲の送信要求を示すリクエスト信号のサーバへの送信、及びリクエスト信号により示される曲に対応する楽曲データ(カラオケ楽曲データに相当)の受信などの通信制御や、受信された楽曲データに含まれる楽音種類指定情報たるMIDIデータのうち楽器接続ボード8に接続された楽器と同じ種類の楽器の音源を指定する等を行う制御装置20と、が備えられている。
<Main configuration>
FIG. 1 is an explanatory diagram showing a main configuration of a karaoke apparatus which is a musical tone performance apparatus of the present embodiment. As shown in FIG. 1, the karaoke apparatus 10 has a monitor television (hereinafter, abbreviated as a monitor) that displays a lyrics telop indicating lyrics, a background video displayed on the background of the lyrics telop, a video showing a music selection number, etc. on the CRT. 13, a
さらに、カラオケ装置10には、この例では、楽器接続ボード8から入力される楽器の演奏信号とマイクロフォン17,18から入力される音声信号と曲の再生信号とのミキシング(後述の図2に示すミキシング回路9参照)や、音声と曲との音量バランス調整や、エコー調整や、ディレィ調整や、ミキシング信号の増幅や、再生される曲の音程制御(キーコントロール)や、高音・低音の制御(トーンコントロール)等を行うアンプ16と、このアンプ16から出力される増幅信号を音として再生するフロアータイプの1組のスピーカ11,11と、天井吊下げ用の1組のスピーカ12,12と、制御装置20を遠隔操作するリモコン30と、が備えられている。リモコン30には、各種の操作ボタン30a,30bが備えられている。
Further, in this example, the karaoke apparatus 10 mixes a musical instrument performance signal inputted from the musical
楽器接続ボード8は、図示を省略するが、電子ドラム、キーボード、エレキベース、エレキギター4の出力端子(フォンプラグ)を接続するそれぞれの入力端子(フォンジャック。演奏信号入力手段に相当)と、各入力端子に入力される演奏信号をそれぞれ出力する出力端子と、が設けられている。そして、楽器接続ボード8は、各楽器の出力端子を入力端子に接続することによって各楽器が接続されたこと及びその楽器の種類を自動検出するとともに、接続された楽器の1つの演奏信号を選択し、その選択された演奏信号を制御装置20の入力端子44(後述の図2参照)へ出力する役割をする。例えばエレキギター4から出力される演奏信号は、エレキギター4のフォンプラグを接続するフォンジャック4a(後述の図2参照)を介して楽器接続ボード8へ入力され、楽器接続ボード8の出力端子から出力される演奏信号は、制御装置20の入力端子44へ入力される。なお、上記のように楽器の接続及びその種類を自動検出するのに代え、ユーザが、既に接続済みの楽器に対応した設定等をリモコン30等において手動で行うようにしてもよい。またその場合、エレキギター4のような電子弦楽器ではなく、ガットギターやフォークギターのようなアコースティック発音のギターの音を、マイクロフォンで集音してフォンジャック4aへ入力してもよい。
Although not shown, the musical
<制御系>
上記制御装置20の制御系の構成について図2を参照して説明する。図2は、制御装置20の制御系の主要構成を示す機能ブロック図である。制御装置20は、装置筺体に、LAN回線15を接続する通信端子40と、楽器接続ボード8の出力端子と接続される入力端子44と、アンプ16の音声入力端子と接続される音声出力端子41と、モニタ13の映像入力端子と接続される映像出力端子42と、モニタ14の映像入力端子と接続される映像出力端子43とを備えている。
<Control system>
The configuration of the control system of the
また、制御装置20には、制御プログラムにしたがって各種制御を実行するCPU45(演算手段に相当)が設けられている。CPU45には、リモコン30から送信されるデータ、選曲された曲の選曲番号を示す選曲番号データ、予約された曲の選曲番号データなどを一時保存するためのRAM46と、CPU45により実行されるプログラム(後述の図12、図13、及び図11に示すフローを実行する楽音演奏処理プログラムを含む)及び必要なデータテーブルなどが記憶されたROM47とが接続されている。
Further, the
また、CPU45には、モニタ13,14に歌詞テロップや各種メッセージ映像を表示するための文字映像データが記憶されたビデオRAM48と、サーバ58から送信される楽曲データやコード譜情報(詳細は後述)、歌詞データ、及び映像データを通信端子40を介して受信するためのLANボード50と、このLANボード50により受信される楽曲データ及び歌詞データ等を一時保存するためのRAM49(楽曲データ記憶手段に相当)とが接続されている。
Further, the
さらに、CPU45には、RAM49から読み出された曲データに含まれるMIDIデータを入力するとともに、その入力されたMIDIデータにより指定される音源から音源信号を出力するMIDI音源ボード51が接続されている。また、CPU45には、上記出力された音源信号を入力してアンプ16により増幅可能な信号に変換する音声制御回路52と、一般的な背景映像を示す背景映像データを読み出すCD−ROMプレーヤ53とが接続されている。
Further, the
また、CPU45には、CD−ROMプレーヤ53から読み出された一般的な背景映像データ、及びRAM49から読み出された曲固有の背景データや曲データに含まれる歌詞テロップデータ等を入力し、モニタ13の表示画面に表示される背景映像中に歌詞テロップがスーパーインポーズされた映像を作成したり、曲の進行にしたがって歌詞テロップの色を変えたりする映像制御を行う映像制御回路54が接続されている。
The
さらに、CPU45には、制御装置20の受光部38により受光されたリモコン30からの光信号をデジタル信号に変換する変換回路55と、制御装置20の筺体に設けられた各種ボタン及びキー(テンキー、選曲ボタン等)を押したときに点灯するLEDへ表示信号を出力する表示回路56と、上記各種ボタン及びキーを押したときに発生するスイッチング信号を入力する入力回路57とが接続されている。
Further, the
<カラオケ装置の基本動作>
以上の基本構成のカラオケ装置10において、ユーザがリモコン30により例えばエレキギター4の演奏パートを含むカラオケ楽曲を選曲し、選曲に対応してサーバ58から送信された楽曲データを受信すると、楽曲データが演奏される。そのエレキギター4の演奏パートを含む楽曲データの演奏に合わせてユーザ(楽器演奏者に相当)がエレキギター4を演奏すると、エレキギター4から出力される演奏信号は、楽器接続ボード8を介して制御装置20の入力端子44へ入力される。そして、音声制御回路52において、音源信号が音声出力端子41へ出力される。なお、いわゆるマイナスワン再生状態の場合には、音声制御回路52において、音源信号のエレキギターの楽曲パート一部をエレキギター4の演奏信号と置き換えたマイナスワン再生状態で、音声出力端子41へ出力される。
<Basic operation of karaoke equipment>
In the karaoke apparatus 10 having the basic configuration described above, when the user selects a karaoke piece including, for example, a performance part of the
このとき、本実施形態では、サーバ58より歌詞データや映像データとともに受信した当該エレキギター4のギター演奏パートを含む楽曲データに対し、予め演奏支援用にコード譜情報及び奏法情報(詳細は後述)が対応付けられており、当該楽曲データの再生時にはモニタ13,14によってコード譜情報及び奏法情報が歌詞データや映像データと共に表示される。これにより、演奏者であるユーザは、モニタ13,14に表示されるコード譜情報を活用することで、再生されるカラオケ楽曲に合わせてエレキギター4の演奏パートを、奏法情報に対応した奏法により自ら容易に演奏して、当該エレキギター4の練習を行ったり、カラオケ楽曲全体のアンサンブルを楽しむことができる。
At this time, in this embodiment, chord score information and performance method information (to be described in detail later) for performance support in advance for music data including the guitar performance part of the
<データ構造>
図3は、本実施形態における、サーバ58より受信した楽曲データを含む受信データのデータ構造を示す説明図である。図3に示す例では、サーバから受信されるデータの、カラオケ楽曲の4小節分を示している。受信データは、4小節分の演奏の進行に対応した複数の楽器演奏パート(この例では、エレキギター4に対応するギターパート、ベースパート、ドラムパート)の楽曲データと、上記コード譜情報と、上記奏法情報と、歌詞データ(歌詞テロップデータ)と、映像データと、を備えている。
<Data structure>
FIG. 3 is an explanatory diagram showing a data structure of received data including music data received from the server 58 in the present embodiment. In the example shown in FIG. 3, four bars of karaoke music pieces of data received from the server are shown. The received data includes music data of a plurality of musical instrument performance parts (in this example, a guitar part, a bass part, and a drum part corresponding to the electric guitar 4) corresponding to the progress of the performance for four bars, the chord score information, The rendition style information, lyric data (lyric telop data), and video data are provided.
楽曲データは、歌詞データ及び映像データとともに、図3に示すデータ中の1番目の小節(以下、単に「第1小節」等という)から再生され、時間の経過に従って第2小節、第3小節、第4小節へと再生が進行して行く。またその再生に対応して、歌詞データ及び映像データに基づく表示も進行していく。なお、楽曲データの種類が複数ある場合には、楽曲データ毎に、曲名(例えば、上述した選曲に用いる楽曲ID)、楽曲演奏用のMIDIデータ、歌詞データ、演奏支援用のコード譜データが対応付けられたデータ構造であればよい。楽曲データ構造は周知であるので、図3には必要な部分だけを図示する。 The music data is reproduced from the first bar (hereinafter simply referred to as “first bar” or the like) in the data shown in FIG. 3 together with the lyrics data and the video data, and the second bar, the third bar, Playback proceeds to the fourth measure. Corresponding to the reproduction, display based on the lyrics data and the video data also proceeds. When there are a plurality of types of music data, each music data corresponds to a music name (for example, music ID used for music selection described above), MIDI data for music performance, lyrics data, and chord data for performance support. Any data structure may be used. Since the music data structure is well known, only the necessary parts are shown in FIG.
<コード譜情報>
コード譜情報は、楽曲データに対応付けられており、この例では、図中の第1小節が、コードC、コードG、コードAm、コードFとなっている。また第2小節、第3小節、及び第4小節も、それぞれ、同様のコード進行となっている(各小節互いに異なるコード進行であってもよい)。
<Cord score information>
The chord score information is associated with music data. In this example, the first bar in the figure is chord C, chord G, chord Am, chord F. The second measure, the third measure, and the fourth measure have the same chord progression (may be chord progressions different from each other).
<奏法情報>
奏法情報は、上記エレキギター4の奏法を指定するデータで、上記コード譜情報と同様、楽曲データに対応付けられている。この例では、図中の第1小節がミュート奏法、第2小節がミュート奏法でない通常の奏法、第3小節がミュート奏法、第4小節が上記通常の奏法、となっている。この奏法情報の詳細については後述する。
<Performance information>
The rendition style information is data for specifying the rendition style of the
なお、この例では、上記コード譜情報や奏法情報が楽曲データと同一ファイルにより構成されているが、これに限られず、コード譜情報や奏法情報が楽曲データと別ファイル(以下、コード譜情報ファイル)で構成され、同じ曲名で対応付けられていてもよい。
例えば、以下の構成と処理(1)〜(4)によって、コード譜情報や奏法情報が楽曲データと別ファイル(コード譜情報ファイル)であっても、コード譜情報や奏法情報が楽曲データと同一ファイルの場合と、同じ作用が得られる。
(1)コード譜・奏法情報ファイルとは、楽曲データの再生の時間進行に応じて出現するコード譜情報・奏法情報を、予め、楽曲の進行時間と対応付けたテーブルのファイルである。テーブルは具体的には、(演奏時間t1:コードEm、t2:コードBm、・・・最後の演奏時間tX:最後のコード譜情報(又は奏法情報)X)の情報が記録されている。
(2)上記コード譜・奏法情報ファイルを、楽曲データとともに、RAM49に記憶しておく。
(3)入力回路57から楽曲の再生が指定された場合に、CPU45は、楽曲データとともに、対応するコード譜・奏法情報ファイルもRAM49から読み出す。
(4)CPU45は、ROM47の実行プログラムに従い楽曲データを再生し、再生の進行時間に応じて、コード譜・奏法情報ファイルからコード譜情報・奏法情報を読み出す。具体的には、楽曲データの再生の進行時間がt1(秒)に到達した場合には、コード譜・奏法情報ファイルからt1に対応するコードEmを読み出し、t2(秒)の到達で、t2に対応するコードBmを読み出す。以下同様に、楽曲データの再生終了(tX)迄、コード譜・奏法情報ファイルから進行時間に応じたコード譜を読み出し続ける。
In this example, the chord score information and rendition style information are composed of the same file as the music data. However, the present invention is not limited to this, and the chord score information and rendition style information are separate from the music data (hereinafter referred to as the chord score information file). ) And may be associated with the same music title.
For example, the chord score information and the performance information are the same as the music data even if the chord score information and the performance information are separate from the music data (code music information file) by the following configurations and processes (1) to (4). The same effect is obtained as with files.
(1) A chord score / playing style information file is a file of a table in which chord score information / playing style information that appears in accordance with the progress of music data reproduction is associated with the progress time of the music in advance. Specifically, information of (performance time t1: chord Em, t2: chord Bm,... Last performance time tX: last chord score information (or rendition style information) X) is recorded in the table.
(2) The chord score / performance method information file is stored in the
(3) When the reproduction of the music is designated from the input circuit 57, the
(4) The
図4は、楽曲データの再生時に上記コード譜情報及び奏法情報に対応してモニタ13,14に表示される表示内容の一例を示す説明図である。この例では、上記図3に示した4小節分の楽曲データに対応した表示の例を示している。すなわち、モニタ13,14の表示内容は、上記4小節分の歌詞「からだでなく涙でなく 君の言葉で愛をきかせて」と、歌詞の上側に添えられたコード譜(第1小節:C,G,Am,F、第2小節:C,G,Am,F、第3小節:C,G,Am,F、第4小節:C,G,Am,F)と、上記同様に歌詞の上側に添えられたエレキギター4の奏法指定(第1小節:ミュート奏法、第2小節:通常奏法、第3小節:ミュート奏法、第4小節:通常奏法)、歌詞の下側に2小節分ずつ設けられた再生進行バーと、からなっている。再生進行バーは、楽曲データの再生の進行状態を帯状に延びる黒色部分によって示されている。エレキギター4のユーザは、楽曲データの再生時、モニタ13,14に表示される上記コード譜及び奏法指定を見て、再生進行バーの延び状態に対応してコード進行順にエレキギター4のコードを押さえることで、カラオケ楽曲のエレキギターパートを上記指定された奏法により容易に弾くことができる。
FIG. 4 is an explanatory diagram showing an example of display contents displayed on the
図4(a)は、第1小節(コードC)の冒頭から始まった上記楽曲データの再生が第1小節の途中(歌詞「からだでなく」の「な」の部分の直前)まで進行している状態であり、1つ目の再生進行バーの黒色部分が、上記第1小節の途中まで延びている。図4(b)は、上記図4(a)の状態からさらに再生が進み、第1小節が終了して、第2小節の途中の部分(歌詞「涙でなく」の「で」の部分)が再生されている状態であり、上記黒色部分が第2小節の途中まで延びている。図4(c)は、上記図4(b)の状態からさらに再生が進み、第2小節の終わりのコードFの部分(歌詞「涙でなく」の「く」の後の部分)が再生されている状態であり、上記黒色部分が第2小節の終わりまで延びている。 FIG. 4 (a) shows that the reproduction of the music data starting from the beginning of the first bar (code C) proceeds to the middle of the first bar (immediately before the “na” portion of the lyrics “body”). The black portion of the first reproduction progress bar extends partway through the first bar. In FIG. 4 (b), playback further proceeds from the state of FIG. 4 (a), the first measure ends, and the middle part of the second measure (the “de” portion of the lyrics “not tears”). Is being reproduced, and the black portion extends partway through the second bar. In FIG. 4C, the reproduction further proceeds from the state of FIG. 4B, and the part of the chord F at the end of the second measure (the part after “ku” of the lyrics “not tears”) is reproduced. The black portion extends to the end of the second bar.
<本実施形態の特徴>
ところで、カラオケ装置においてユーザの歌唱に対する採点を行う手法は既に広く行われている。ここで、上記のようにコード譜情報を用いてユーザが弦楽器(この例ではエレキギター4)の演奏を行うとき、その演奏に対する採点を行い採点結果を表示するようにすれば、ユーザにとっての楽しみをさらに増大させることができる。
<Features of this embodiment>
By the way, the method of scoring a user's song in a karaoke apparatus has already been widely performed. Here, when the user plays a stringed instrument (in this example, the electric guitar 4) using the chord score information as described above, if the player scores the performance and displays the score result, the enjoyment for the user is achieved. Can be further increased.
そこで、本実施形態では、ユーザがエレキギター4を演奏することで出力された演奏信号の周波数成分が、公知のFFT(高速フーリエ変換)の手法により抽出された後にクロマベクトル処理が行われることで、所定の時間区分ごとに、上記演奏に対応した実音高データ(詳細は後述)が生成される。その実音高データと、上記コード譜情報及び奏法情報に基づき生成された目標音高データ(詳細は後述)との一致度に基づき、上記採点が行われる。以下、その詳細を図5〜図10を用いて説明する。
Therefore, in this embodiment, the chroma vector processing is performed after the frequency component of the performance signal output by the user playing the
<CPUの詳細機能>
上記の採点を行うために、本実施形態の上記CPU45が備える機能的構成を、図5に示す。図示のように、CPU45は、FFT処理部45a、特徴パラメータ取得部45b、実データバッファ45c、目標データ生成部45g、目標データバッファ45e、マッチング処理部45d、及び、採点結果生成部45f等の各機能部を備えている。
<Detailed functions of CPU>
FIG. 5 shows a functional configuration of the
前述のようにしてユーザのエレキギター4の演奏により出力され制御装置20に入力された演奏信号は、デジタルデータに変換された後にFFT処理部45a及び特徴パラメータ取得部45bに入力される。FFT処理部45aでは、入力されたサンプリングデータ列である演奏音声データを所定の時間区分(例えば186msec)毎に分割して高速フーリエ変換する。このFFTによって得られた周波数スペクトルは、FFT処理部45aから特徴パラメータ取得部45bに入力される。
The performance signal output by the user's performance of the
特徴パラメータ取得部45bは、上記演奏音声データが入力されるとともに、FFT処理部45aから、周波数領域の情報である周波数スペクトルが入力される。特徴パラメータ取得部45bは、上記演奏音声データ及びその周波数スペクトルから、演奏音声データの様々な特徴を示す複数の特徴パラメータを取得し、公知のクロマベクトル化の手法によりその取得結果に対応した実音高データ(上記演奏信号に含まれる和音の各音を表すデータ)を生成し出力する。この特徴パラメータの取得は、上記時間区分ごとのフレームで行われる。具体的には、特徴パラメータ取得部45bは、上記入力された演奏音声データから時間領域の特徴パラメータを割り出す時間領域情報取得部45baと、FFT処理部45aから入力された周波数スペクトルから周波数領域の特徴パラメータを割り出す周波数領域情報取得部45bbを備えている。
The characteristic
時間領域情報取得部45baは、入力された演奏音声データをFFT処理部45aと同期した上記時間区分ごとのフレームに分割し、各フレームごとに時間領域の特徴パラメータを取得する。領域情報取得部45baが取得する特徴パラメータの例としては、例えば、エネルギ、エネルギ変化度、持続時間等がある。周波数領域情報取得部45bbは、上記FFT処理部45aから入力された上記時間区分の長さの波形の周波数スペクトルから周波数領域の特徴パラメータを取得する。周波数領域情報取得部45bbが取得する特徴パラメータの例としては、例えば、ピッチ、倍音周波数、倍音レベル、倍音位相、等がある。これらのピッチ(ギターの音階を示す音高)、その倍音周波数、倍音レベルなどのパラメータは、後述する図6の表示に用いられる。
The time domain information acquisition unit 45ba divides the input performance sound data into frames for each of the time segments synchronized with the
上記のようにして時間領域情報取得部45ba及び周波数領域情報取得部45bbで取得された特徴パラメータに基づき生成され出力された上記実音高データは、実データバッファ45cに入力される。実データバッファ45cは、入力された上記実音高データを時間情報(タイムスタンプ)を付して記憶する。 The actual pitch data generated and output based on the characteristic parameters acquired by the time domain information acquisition unit 45ba and the frequency domain information acquisition unit 45bb as described above are input to the actual data buffer 45c. The actual data buffer 45c stores the input actual pitch data with time information (time stamp).
一方、目標データ生成部45gには、上記カラオケ楽曲データに同期した上記コード譜情報及び奏法情報が入力される。目標データ生成部45gは、それらコード譜情報及び奏法情報に基づき、目標音高データ(本実施形態では、ミュート奏法用目標音高データと通常奏法用目標音高データとの2種類がある。詳細は後述)を生成する。この目標音高データは、例えば、コード譜情報に含まれる各コードの和音を構成する複数の音に対応したデータ(各コードのルート音と当該ルート音に対して5度上の音程となる音とからなるパワーコードのデータであってもよい)である。生成された目標音高データは、目標データバッファ45eへ出力されて目標データバッファ45eに記憶される。
On the other hand, the chord score information and performance information synchronized with the karaoke song data are input to the target
マッチング処理部45dは、上述のようにして実データバッファ45cに記憶された実音高データと、これに対応する、目標データバッファ45eに記憶された上記目標音高データと、を公知の手法で比較し、一致度を例えば演算により数値的に算出する。算出された一致度は採点結果生成部45fへ出力される。なお、一致度を演算によって算出するのではなく、予め複数の区分に分けられ各区分ごとに一致度の値が対応づけられたテーブルが用意されており、上記比較結果が当該テーブルのどの区分に属するかによって一致度を決定するようにしてもよい。
The matching
採点結果生成部45fは、マッチング処理部18から入力された上記一致度に基づいてユーザによる演奏(この例ではエレキギター4の演奏)を評価し、一致度が高いほど演奏に高い評価をつける。採点結果生成部45fは、この評価を例えば100点を満点とした得点として採点し、採点結果をモニタ13,14に入力する。モニタ13,14は、入力された採点結果を表示する。
The scoring
<弦楽器の奏法>
ところで、一般に、弦楽器(特に上記エレキギター4)には、各弦が略同時に発音されたり(いわゆるストローク奏法)、各弦が経時的に順を追って発音されたり(いわゆるアルペジオ奏法)等の種々の奏法がある。特に、エレキギター4により比較的テンポの速い(例えばロック調の)楽曲が演奏される場合、楽曲のドライブ感(ノリが良い雰囲気)を強調するために、各弦をミュート状態としつつ刻むように発音させて演奏する(いわゆるミュート奏法)場合がある。このミュート奏法では、各弦の発音時間が極めて短く、またピックが弦をはじいた後に弦の振動がユーザの手により強制減衰させられることから、それ以外の通常の奏法(上記ストローク奏法やアルペジオ奏法等)とは著しく異なる、独特の発音態様となる。したがって、上記ミュート奏法が行われるときに、上記通常の奏法と同様の処理、例えば、奏法に関係なく一律の上記目標音高データを用いて上記一致度の算出又は決定(以下適宜、これらをまとめて単に「決定」と称する)を行った場合、正確な処理(この例では採点)を行うことが困難となる。
<Performance of stringed instruments>
By the way, generally, in stringed instruments (especially the electric guitar 4), each string is pronounced substantially simultaneously (so-called stroke playing method), and each string is pronounced in order with time (so-called arpeggio playing method). There is a playing style. In particular, when a music with a relatively fast tempo (for example, a rock tone) is played by the
<ミュート奏法及び通常奏法における演奏信号の違い>
上述したミュート奏法及び通常奏法における演奏信号の違いについて、図6〜図9を用いて説明する。
<Difference in performance signal between mute performance and normal performance>
Differences in performance signals between the mute performance method and the normal performance method will be described with reference to FIGS.
<通常奏法 単音の演奏信号>
例えば、通常奏法での演奏信号の一例として、エレキギター4の6弦の3フレットを押さえて「G」の音を演奏したときの、演奏信号をFFT処理したスペクトル画像を図6に示す。横軸は信号のレベルを表し、「55Hz以上110Hz未満」の帯域、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域、「440Hz以上880Hz未満」の帯域、「880Hz以上1.76KHz未満」の帯域、「1.76KHz以上3.52KHz未満」の帯域、「3.52KHz以上」の帯域、にそれぞれ、入力された音高に対する倍音周波数、倍音レベルの関係が判るようにオクターブ単位で区分して示している。また、縦軸には「A」「A#」「B」「B#」「C」「C#」「D」「D#」「E」「F」「F#」「G」「G#」の各音階(音高)を取って表している。
<Normal playing method Single tone performance signal>
For example, as an example of a performance signal in the normal playing method, FIG. 6 shows a spectrum image obtained by performing FFT processing on the performance signal when the “G” sound is played by pressing the
図示のように、「55Hz以上110Hz未満」の帯域、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域、の3つにおいて、「G」の音階のスペクトルが比較的大きなレベルで生じている。また「440Hz以上880Hz未満」の帯域でも、「G」の音階のスペクトルが比較的小さなレベルで生じている。 As shown in the figure, the spectrum of the scale of “G” has a relatively large level in three bands of “55 Hz to less than 110 Hz”, “110 Hz to less than 220 Hz”, and “220 Hz to less than 440 Hz”. Has occurred. Even in a band of “440 Hz or more and less than 880 Hz”, the spectrum of the “G” scale occurs at a relatively small level.
その一方で、「220Hz以上440Hz未満」の帯域において「D」の音階のスペクトルがかなり大きなレベルで生じている(枠線ア参照)。これは、弦楽器に固有の倍音の影響が現れたものである。また、同様に倍音の影響で、「440Hz以上880Hz未満」の帯域でも、「D」の音階のスペクトルが比較的小さなレベルで生じている。 On the other hand, in the band of “220 Hz or more and less than 440 Hz”, the spectrum of the “D” scale is generated at a considerably large level (see the frame line a). This is the manifestation of the harmonic overtone specific to stringed instruments. Similarly, due to the influence of overtones, the spectrum of the scale of “D” occurs at a relatively small level even in a band of “440 Hz or more and less than 880 Hz”.
なお、上記以外のノイズとして、「440Hz以上880Hz未満」の帯域において「B」の音階のスペクトルと「F」の音階のスペクトルがある程度のレベルで生じている。 As noise other than the above, the spectrum of the scale of “B” and the spectrum of the scale of “F” are generated at a certain level in a band of “440 Hz or more and less than 880 Hz”.
<ミュート奏法 単音の演奏信号>
上記同様、6弦の3フレットを押さえて、ミュート奏法で「G」の音を演奏したときの、演奏信号をFFT処理したスペクトル画像を図7に示す。
<Mute playing signal>
Similarly to the above, FIG. 7 shows a spectrum image obtained by performing FFT processing on the performance signal when the “G” sound is played with the mute playing method while pressing the 6th string 3rd fret.
図7に示すように、このスペクトル画像は、(同一音高の発音であるにもかかわらず)図6に示したスペクトル画像とは異なる点が含まれる。例えば、図7に示すミュート奏法では、「55Hz以上110Hz未満」の帯域及び「110Hz以上220Hz未満」の帯域の2つにおける、「G」の音階のスペクトルが、上記通常奏法のときよりも大きなレベルとなっている。また、「220Hz以上440Hz未満」の帯域の「G」の音階のスペクトルは、上記通常奏法のときよりも小さなレベルとなり、「440Hz以上880Hz未満」の帯域の「G」の音階のスペクトルは、ほとんどなくなっている。 As shown in FIG. 7, this spectral image includes differences from the spectral image shown in FIG. 6 (although it has the same pitch). For example, in the mute performance method shown in FIG. 7, the spectrum of the scale of “G” in two bands of “55 Hz to less than 110 Hz” and “110 Hz to less than 220 Hz” is higher than that in the normal performance method. It has become. Further, the spectrum of the “G” scale in the “220 Hz or more and less than 440 Hz” band is smaller than that in the normal performance, and the spectrum of the “G” scale in the “440 Hz or more and less than 880 Hz” band is almost the same. It is gone.
一方、図7に示すミュート奏法では、上記倍音の影響を表す、「220Hz以上440Hz未満」の帯域における「D」の音階のスペクトルのレベルが上記通常奏法のときよりも小さくなり(枠線イ参照)、「440Hz以上880Hz未満」の帯域では、「D」の音階のスペクトルはほとんどなくなっている。また、上記ノイズとしての、「440Hz以上880Hz未満」の帯域における、「B」の音階のスペクトルと「F」の音階のスペクトルも、上記通常奏法のときよりもかなり小さくなっている。 On the other hand, in the mute playing method shown in FIG. 7, the level of the spectrum of “D” scale in the band “220 Hz or more and less than 440 Hz” representing the influence of the above harmonics is smaller than that in the normal playing method (see frame a). ) In the band of “440 Hz or more and less than 880 Hz”, the spectrum of the scale of “D” almost disappears. In addition, the spectrum of the scale of “B” and the spectrum of the scale of “F” in the band of “440 Hz or more and less than 880 Hz” as the noise are considerably smaller than those in the normal performance method.
<通常奏法 和音の演奏信号>
例えば、通常奏法での演奏信号の一例として、エレキギター4の6弦の3フレットと5弦5フレットとを押さえて「コードG」をパワーコードで演奏したときの、演奏信号をFFT処理したスペクトル画像を図8に示す。
<Normal performance chord performance signal>
For example, as an example of a performance signal in the normal playing method, a spectrum obtained by performing FFT processing on a performance signal when “Cord G” is played with a power chord while pressing the 6th string 3rd fret and the 5th string 5th fret of the
図示のように、まず、「55Hz以上110Hz未満」の帯域、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域(枠線ウ参照)、の3つにおいて、「G」の音階のスペクトルが比較的大きなレベルで生じている。また「440Hz以上880Hz未満」の帯域でも、「G」の音階のスペクトルが比較的小さなレベルで生じている。 As shown in the figure, first, in a band of “55 Hz or more and less than 110 Hz”, a band of “110 Hz or more and less than 220 Hz”, and a band of “220 Hz or more and less than 440 Hz” (see frame C), the scale of “G” Of the spectrum occurs at a relatively large level. Even in a band of “440 Hz or more and less than 880 Hz”, the spectrum of the “G” scale occurs at a relatively small level.
また、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域(枠線エ参照)、の2つにおいて、「D」の音階のスペクトルが比較的大きなレベルで生じている。また「440Hz以上880Hz未満」の帯域でも、「D」の音階のスペクトルが比較的小さなレベルで生じている。 In addition, the spectrum of the scale of “D” is generated at a relatively large level in two bands of “110 Hz to less than 220 Hz” and “220 Hz to less than 440 Hz” (see frame line D). Even in the band of “440 Hz or more and less than 880 Hz”, the spectrum of “D” scale occurs at a relatively small level.
なお、上記以外のノイズとして、「440Hz以上880Hz未満」の帯域において、「F#」の音階のスペクトル、「F」の音階のスペクトル、「B」の音階のスペクトル、「A」の音階のスペクトル、がある程度のレベルで生じている。また、「880Hz以上1.76KHz未満」の帯域において、「A」の音階のスペクトルがある程度のレベルで生じている。 As noise other than the above, in the band of “440 Hz or more and less than 880 Hz”, the spectrum of the scale of “F #”, the spectrum of the scale of “F”, the spectrum of the scale of “B”, the spectrum of the scale of “A” , Has occurred at a certain level. In the band of “880 Hz or more and less than 1.76 KHz”, the spectrum of the scale of “A” occurs at a certain level.
<ミュート奏法 和音の演奏信号>
上記同様、6弦の3フレットと5弦5フレットとを押さえて、ミュート奏法で「コードG」をパワーコードで演奏したときの、演奏信号をFFT処理したスペクトル画像を図9に示す。
<Mute playing chord performance signal>
Similarly to the above, FIG. 9 shows a spectrum image obtained by performing FFT processing on the performance signal when the “chord G” is played with the power chord by mute playing while pressing the 6th string 3rd fret and the 5th string 5th fret.
図9に示すように、このスペクトル画像は、(同一運指によるパワーコードの発音であるにもかかわらず)図8に示したスペクトル画像とは異なる点が含まれる。例えば、図9に示すミュート奏法では、「110Hz以上220Hz未満」の帯域における、「G」の音階のスペクトルが、上記通常奏法のときよりもかなり大きなレベルとなっている。これに対して、「55Hz以上110Hz未満」の帯域及び220Hz以上440Hz未満」の帯域の「G」の音階のスペクトルは、上記通常奏法のときよりも小さなレベルとなり(枠線オ参照)、440Hz以上880Hz未満」の帯域の「G」の音階のスペクトルは、ほとんどなくなっている。 As shown in FIG. 9, this spectral image includes points different from the spectral image shown in FIG. 8 (although the power code is generated by the same fingering). For example, in the mute playing method shown in FIG. 9, the spectrum of the scale of “G” in the band “110 Hz or more and less than 220 Hz” is considerably larger than that in the normal playing method. On the other hand, the spectrum of the “G” scale in the “55 Hz to less than 110 Hz” band and the “220 Hz to less than 440 Hz” band is at a lower level than that in the above-described normal performance (see frame line o), 440 Hz or more. The spectrum of the scale of “G” in the band “less than 880 Hz” is almost gone.
また、図9に示すミュート奏法では、「220Hz以上440Hz未満」の帯域における「D」の音階のスペクトルのレベルが上記通常奏法のときよりもかなり小さくなり(枠線カ参照)、「110Hz以上220Hz未満」の帯域における「D」の音階のスペクトルのレベルも上記通常奏法のときより小さくなっている。そして、「440Hz以上880Hz未満」の帯域では、「D」の音階のスペクトルはほとんどなくなっている。また、上記ノイズとしての、「440Hz以上880Hz未満」の帯域における、「F#」の音階のスペクトル、「F」の音階のスペクトル、「B」の音階のスペクトル、及び「A」の音階のスペクトルも、上記通常奏法のときより小さくなっている。 Further, in the mute playing method shown in FIG. 9, the spectrum level of the scale “D” in the band “220 Hz or more and less than 440 Hz” is considerably smaller than that in the normal playing method (see the frame line K). The level of the spectrum of the scale of “D” in the “less than” band is also smaller than that in the normal playing method. In the band of “440 Hz or more and less than 880 Hz”, the spectrum of the scale of “D” is almost lost. Further, the spectrum of the scale of “F #”, the spectrum of the scale of “F”, the spectrum of the scale of “B”, and the spectrum of the scale of “A” in the band of “440 Hz or more and less than 880 Hz” as the noise. Is smaller than that in the normal playing method.
<奏法に応じた2種類の目標音高データの生成>
上記のような、奏法による演奏信号の違いに基づき、本実施形態においては、上記目標音高データとして、上記通常奏法に対応し図6及び図8を用いて上述したようなスペクトル特性(例えば特定帯域における倍音成分のレベルが大きい)を加味した通常奏法用目標音高データと、上記ミュート奏法に対応し図7及び図9を用いて上述したようなスペクトル特性(例えば特定帯域における倍音成分のレベルが小さい。かつノイズが少ない)を加味したミュート奏法用目標音高データと、の2つが生成される。すなわち、上記図5に示したように、CPU45の上記目標データ生成部45gは、前述のようにして入力されたコード譜情報に基づき上記ミュート奏法用目標音高データを生成するミュート奏法用目標データ生成部45g1と、上記入力されたコード譜情報に基づき上記通常奏法用目標音高データを生成する通常奏法用目標データ生成部45g2と、を備えている。そして、本実施形態では、上記楽曲データに対応付けられる奏法情報に応じた、上記ミュート奏法用目標データ生成部45gからのミュート奏法用目標音高データ、若しくは、通常奏法用目標データ生成部45g2からの通常奏法用目標音高データ、が選択的に切り替えられて目標データバッファ45eへと入力され、記憶される。したがって、目標データバッファ45eには、1つの楽曲データに対応づけられた目標音高データであって、奏法指定がミュート奏法である楽曲部位には上記ミュート奏法用目標音高データが組み込まれ、奏法指定が通常奏法である楽曲部位には上記通常奏法用目標音高データが組み込まれた、目標音高データが記憶される。そして、この目標音高データと、(ユーザがパワーコードを用いて演奏した)上記実音高データとが、上記マッチング処理部45dにより比較される。この手法を図10を用いて説明する。
<Generation of two types of target pitch data according to the playing style>
Based on the difference in performance signal depending on the performance method as described above, in the present embodiment, as the target pitch data, the spectrum characteristic (for example, the specified pitch data) corresponding to the normal performance method described above with reference to FIGS. Normal pitch target pitch data that takes into account the high harmonic component level in the band and the spectrum characteristics (for example, the level of the harmonic component in a specific band) described above with reference to FIGS. And mute performance target pitch data in consideration of small noise and low noise). That is, as shown in FIG. 5, the target
<2種類の目標音高データを用いた比較>
図10において、この例では、上記図3、図4に示した楽曲データにおける、前述した、コードC→コードG→コードAm→コードFかつミュート奏法指定の第1小節、コードC→コードG→コードAm→コードFかつ通常奏法指定の第2小節、コードC→コードG→コードAm→コードFかつミュート奏法指定の第3小節、コードC→コードG→コードAm→コードFかつ通常奏法指定の第4小節、・・・の順のコード進行で楽曲が再生され、ユーザが当該再生に合わせてエレキギター4を演奏した状態を示している。
<Comparison using two types of target pitch data>
10, in this example, in the music data shown in FIGS. 3 and 4, the above-described first measure of chord C → chord G → chord Am → chord F and mute playing method designation, chord C → chord G → Code Am-> Code F and 2nd bar with normal performance specification, Code C-> Code G-> Code Am-> Code F-> 3rd bar with mute performance specification, Code C-> Code G-> Code Am-> Code F-Normal performance method specification The music is played by the progression of chords in the order of the fourth measure,..., And the user has played the
上記のようなコード進行に対応する上記目標音高データは、前述したように、ミュート奏法指定の区間にはミュート奏法用目標音高データであり、通常奏法指定の区間には通常奏法用目標音高データとなっている。そして、それらミュート奏法用目標音高データ及び通常奏法用目標音高データのいずれもが、この例では、(ユーザがパワーコードにより演奏することを前提として)各コードのルート音と当該ルート音に対して5度上の音程となる音とからなる上記パワーコードのデータとなっている。
As described above, the target pitch data corresponding to the chord progression as described above is the mute performance target pitch data in the mute performance-designated section, and the normal performance target sound in the normal performance-designated section. High data. Then, both the target pitch data for mute performance and the target pitch data for normal performance are, in this example, the root sound of each chord and the root sound (assuming that the user performs with the power chord). On the other hand, the power code data is composed of a sound having a
すなわち、第1小節において、コードCに対しては、4弦の5フレットと5弦の3フレットとの2箇所を押さえる運指態様により発音される音高が、指定されている(すなわち図10中では便宜的にTAB譜で表記しているが、実際の目標音高データはこのTAB譜により表現される特定の音高データとして設定されている。以下同様)。同様に、コードGに対しては5弦の5フレットと6弦の3フレットとが指定され、コードAmに対しては5弦の7フレットと6弦の5フレットとが指定され、コードFに対しては5弦の3フレットと6弦の1フレットとが指定されている。なお、この例では上述したように第2小節〜第4小節も第1小節と全く同一のコード進行であることから、同一の運指態様が指定されている。 In other words, in the first measure, for the chord C, a pitch that is pronounced in a fingering manner of pressing two places of the 4th string 5th fret and the 5th string 3rd fret is designated (that is, FIG. 10). For convenience, the TAB score is used for convenience, but the actual target pitch data is set as specific pitch data expressed by this TAB score (the same applies hereinafter). Similarly, for chord G, the 5th fret of the 5th string and the 3rd fret of the 6th string are designated, and for the chord Am, the 7th fret of the 5th string and the 5th fret of the 6th string are designated. On the other hand, 3rd fret of 5 strings and 1st fret of 6 strings are designated. In this example, as described above, the second bar to the fourth bar have the same chord progression as the first bar, so the same fingering mode is designated.
そして、上記第1小節〜第4小節において、ユーザによるエレキギター4の演奏による演奏信号に基づき、上述のようにしてFFT処理による周波数成分の抽出及びクロマベクトル処理が行われた結果、対応する実音高データが生成されている。
Then, in the first bar to the fourth bar, as a result of performing frequency component extraction and chroma vector processing by FFT processing as described above on the basis of the performance signal by the user playing the
この例では、ユーザのエレキギター4の演奏により、第1小節において、コードCに対しては、4弦の6フレットと5弦の3フレットとの2箇所を押さえる運指態様により発音される音高のデータが、入力された演奏信号から生成されている(すなわち、上記目標音高データと同様、実際の実音高データは特定の音高データとして生成される。図10中ではそのデータを便宜的にTAB譜で表記しているのみである。以下同様)。その後、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の7フレットと6弦の5フレットとが押さえられ、コードFに対しては5弦の3フレットと6弦の1フレットとが押さえられている。
In this example, when the user plays the
上記の結果、第1小節において、上記目標音高データ(詳細にはこの例では上記ミュート奏法用目標音高データ)と上記実音高データとが比較されることで、最初のコードCにおいて、目標音高データにおける4弦の5フレットの指定に対し実音高データでは4弦の6フレットが押さえられ、これのみが不一致データとなっていることがわかる。このような一致度に対応して採点が行われことにより、この例では『80点』という採点結果となっている。 As a result, in the first bar, the target pitch data (specifically, the target pitch data for mute performance in this example) and the actual pitch data are compared with each other in the first chord C. It can be seen that the 6th fret of the 4th string is pressed in the actual pitch data while only the 5th fret of the 4th string is specified in the pitch data, and this is the only discrepancy data. In this example, the scoring result is “80 points” by scoring according to the degree of coincidence.
同様に、第2小節においては、ユーザのエレキギター4の演奏により、コードCに対しては、4弦の5フレットと5弦の3フレットとが押さえられ、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の7フレットと6弦の5フレットとが押さえられ、コードFに対しては5弦の3フレットと6弦の1フレットとが押さえられている。この結果、第2小節において、上記目標音高データ(詳細にはこの例では上記通常奏法用目標音高データ)と上記実音高データとが比較されることで、上記のような不一致データがないことがわかる。このような一致度(=100%)に対応して採点が行われことにより、この例では『100点』という採点結果となっている。
Similarly, in the second measure, by playing the
また、第3小節においては、ユーザのエレキギター4の演奏により、コードCに対しては、4弦の5フレットと5弦の3フレットとが押さえられ、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の6フレットと6弦の4フレットとが押さえられ、コードFに対しては5弦の2フレットと6弦の1フレットとが押さえられている。この結果、第3小節において、上記目標音高データ(詳細にはこの例では上記ミュート奏法用目標音高データ)と上記実音高データとが比較されることで、3番目のコードAmにおいて、目標音高データにおける5弦の7フレットの指定に対し実音高データでは5弦の6フレットが押さえられ、目標音高データにおける6弦の5フレットの指定に対し実音高データでは6弦の4フレットが押さえられ、不一致データとなっていることがわかる。また、4番目のコードFにおいて、目標音高データにおける5弦の3フレットの指定に対し実音高データでは5弦の2フレットが押さえられ、不一致データとなっていることがわかる。このような一致度に対応して採点が行われことにより、この例では『60点』という採点結果となっている。
In the third measure, the user plays the
さらに、第4小節においては、ユーザのエレキギター4の演奏により、コードCに対しては、4弦の5フレットと5弦の3フレットとが押さえられ、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の7フレットと6弦の5フレットとが押さえられ、コードFに対しては5弦の3フレットと6弦の1フレットとが押さえられている。この結果、第4小節において、上記目標音高データ(詳細にはこの例では上記通常奏法用目標音高データ)と上記実音高データとが比較されることで、上記のような不一致データがないことがわかる。このような一致度(=100%)に対応して採点が行われことにより、上記第2小節と同様、『100点』という採点結果となっている。
Further, in the fourth measure, the user plays the
なお、上記の例では、上記奏法情報に基づき、目標データ生成部45gが、通常奏法用目標音高データ若しくはミュート奏法用目標音高データを選択的に目標バッファデータ45eへ出力され記憶されていた。すなわち比較に用いる目標音高データが、予め、通常奏法指定区間では通常奏法用目標音高データで構成されると共にミュート奏法指定区間ではミュート奏法用目標音高データで構成されており、マッチング処理部45dでは、その1つの目標音高データを用いて上記比較を行い、一致度が算出された。しかしながら、これに限られない。すなわち、目標データ生成部45gからは、通常奏法用目標音高データとミュート奏法用目標音高データとの両方が、例えば目標バッファデータ45eの別領域に個別に出力され記憶されてもよい。この場合は、マッチング処理部45dでは、それら2つの目標音高データを用いてそれぞれ上記比較を行い、それぞれについて一致度を算出し、それら算出された2つの一致度(通常奏法用目標音高データに基づく一致度とミュート奏法用目標音高データに基づく一致度)のうち、より高い値となったほうを最終的な一致度としてもよい。この場合は、通常奏法用目標音高データとミュート奏法用目標音高データとの両方が予め用意されていれば足り、上記奏法情報は必要ではない。
In the above example, the target
また、上記の例では、ミュート奏法による演奏区間(上記の例では第1小節、第3小節)、通常奏法による演奏区間(上記の例では第2小節、第4小節)、のいずれにおいても、和音(上記の例では2音によるパワーコード)全体で一致度の算出を行い、いずれの区間においても一部でも一致しない音があれば減点対象となったが、これに限られない。すなわち、ミュート奏法による演奏区間についてのみ、上記不一致による減点対象から除外するようにしてもよい。 Also, in the above example, in the performance section using the mute performance (first and third measures in the above example) and the performance section using the normal performance (second and fourth measures in the above example), The degree of coincidence is calculated for the entire chord (power code with two sounds in the above example), and if there is a sound that does not match even in any section, it is subject to deduction, but this is not restrictive. That is, only the performance section by the mute playing method may be excluded from the deduction points due to the mismatch.
上記のような採点結果生成部45fによる採点結果に応じて、上記モニタ13,14に表示される表示例を図11(a)〜(c)に示す。図11(a)は採点結果が100点であった場合(通常奏法であることを併せて表示)の例、図11(a)は採点結果が100点であった場合(ミュート奏法であることを併せて表示)の例、図11(b)は採点結果が60点であった場合(ミュート奏法であることを併せて表示)の例、図11(c)は採点結果が0点であった場合の例である。これ以外にも、楽曲データ再生の進行中の時間区分毎に、ユーザによるギター演奏の採点結果表示に加え、歌詞、コード譜も併せて表示するなど、各得点の値に応じて種々の表示態様が予め用意されている(図示省略)。
11A to 11C show display examples displayed on the
<制御手順>
上記のような本実施形態の手法を実現するために、カラオケ装置10の楽曲再生時にCPU45により実行される処理内容を、図12のフローチャートにより説明する。
<Control procedure>
In order to realize the method of the present embodiment as described above, processing contents executed by the
図12において、このフローは、例えばカラオケ装置10のユーザが、制御装置20の電源ボタンを押して制御装置20の電源を立ち上げると、開始される。制御装置20の電源の立ち上がりに連動して、アンプ16、楽器接続ボード8及びモニタ13,14の電源が立ち上がる。なお、前述したように、この例では、カラオケ装置10のユーザが、楽器接続ボード8にエレキギター4を接続して演奏する場合を例にとって説明する。ユーザがエレキギター4のフォンプラグを楽器接続ボード8の入力端子(フォンジャック)4aに接続すると、楽器接続ボード8はエレキギター4が接続されたことを検知する。
In FIG. 12, this flow is started when, for example, the user of the karaoke device 10 presses the power button of the
図12において、まず、ステップS10において、CPU45は、ユーザによる選曲が終了したか否かを判定する。選曲は、例えば、ユーザがエレキギター4を演奏したい曲の選曲番号をリモコン30のテンキーにより入力し、選曲ボタンを押すと、選曲が終了する。選曲が終了するまではステップS10の判定が満たされず(ステップS10:NO)、ループ待機する。選曲が終了した場合はステップS10の判定が満たされ(ステップS10:YES)、ステップS15に移る。
In FIG. 12, first, in step S10, the
ステップS15では、CPU45は、ステップS10での選曲結果に対応し、上記選曲番号を示す選曲番号データをRAM46に一時保存するとともに、LANボード50を介し、上記選曲番号に対応する曲データの送信を要求するリクエスト信号を、LAN回線15を介してサーバ58へ送信する。これにより、サーバ58は、図示しない記憶装置から、上記リクエスト信号に示される選曲番号に対応する楽曲データ及び上記コード譜情報並びに上記奏法情報と当該楽曲データに対応した歌詞データ及び映像データとを検索して読み出し、その読み出された曲データ等を、LAN回線15を介して制御装置20に送信する。ステップS15が終了したら、ステップS20に移る。
In step S15, the
ステップS20では、CPU45は、LANボード50を介し、サーバ58からLAN回線15を介して送信された(コード譜情報・奏法情報を含む)楽曲データ等を受信する。その後、ステップS25に移る。
In step S20, the
ステップS25では、CPU45は、上記ステップS20で受信した楽曲データ等をRAM49に一時保存する。その後、ステップS30に移る。
なお、ステップS15,ステップS20、ステップS25の処理として、選曲番号に対応付けられた、楽曲データ、及び、コード譜情報・奏法情報等は、選曲毎にサーバ58からオンデマンドで取得する処理を行う。そのほか、カラオケ装置10の制御装置20に大容量の補助記憶手段(図示せず)を設けて、予め、楽曲データ等を、補助記憶手段に記憶し、選曲毎に、選曲番号に対応付けられた情報群を補助記憶手段から読み出して、目的とする情報を取得する処理としてもよい。
In step S25, the
In addition, as a process of step S15, step S20, and step S25, the music data, chord score information, performance method information, etc. matched with the music selection number are acquired on demand from the server 58 for each music selection. . In addition, a large-capacity auxiliary storage means (not shown) is provided in the
ステップS30では、CPU45は、上記ステップS25でRAM49に記憶されているMIDIデータの読み出しを開始し、読み出されたMIDIデータをMIDI音源ボード51に書き込む。ステップS30が終了したら、ステップS35に移る。
In step S30, the
ステップS35では、CPU45は、MIDI音源ボード51に制御信号を出力し、上記ステップS30で書き込んだMIDIデータに対応した音源信号を、MIDI音源ボード51から出力させる。MIDI音源ボード51から出力される音源信号は、音声制御回路52へ出力されるとともに、アンプ16により増幅可能な音楽信号に変換され、この変換された音楽信号は、音声出力端子41からアンプ16へ出力される。また、マイクロフォン17,18から入力された音声信号は、アンプ16に内蔵されたミキシング回路9において上記音楽信号とミキシングされる。このとき、エレキギター4の出力端子から出力された演奏信号は、楽器接続ボード8及び制御装置20を介してミキシング回路9に入力され、上記音声信号及び音楽信号とミキシングされる。そして、そのミキシングされたミキシング信号は、アンプ16に内蔵された図示しない増幅回路により増幅された後にスピーカ11及びスピーカ12へ出力され、両スピーカによって再生される。なお、このステップS35の手順が各請求項記載の楽曲データ再生手段として機能する。ステップS35が終了すると、ステップS40に移る。
In step S35, the
ステップS40では、CPU45は、モニタ13,14に制御信号を出力し、ステップS25で保存したコード譜情報及び歌詞等をモニタ13,14により表示させる(なお、後述のステップS100による採点結果についてもこのときに併せて表示される)。これにより、エレキギター4の演奏者であるユーザは、モニタ13,14に表示されるコード譜にしたがいつつ指定された奏法でエレキギター4を演奏することにより、再生されるカラオケ楽曲に合わせてエレキギター演奏パートを容易に演奏することができる。その後、ステップS50に移る。
In step S40, the
ステップS50では、CPU45は、上記ユーザのエレキギター4の演奏により入力端子44から入力された演奏信号を演奏データとして例えば上記RAM49に蓄積する。その後、ステップS55に移る。
In step S50, the
ステップS55では、CPU45は、前述のFFT(高速フーリエ変換)の処理単位に対応した1つの上記時間区分が終了したか否かを判定する。上記時間区分が終了していなければ判定が満たされず(S55:NO)、上記ステップS30に戻って同様の手順を繰り返す。上記時間区分が終了したら判定が満たされ(S55:YES)、ステップS100に移る。
In step S55, the
ステップS100では、CPU45は、前述した手法による採点処理を行う。この採点処理の詳細を、図13に示す。
In step S100, the
図13において、まずステップS110で、CPU45は、上記ステップS50で蓄積した(上記1つの区分に対応した)演奏データを読み出し、上記FFT処理部45aにより、公知のFFT(高速フーリエ変換)の手法により各周波数成分を抽出し解析する。その後、ステップS120に移る。
In FIG. 13, first, in step S110, the
ステップS120では、CPU45は、上記特徴パラメータ取得部45bにより、上記ステップS110での解析結果を公知の手法によりクロマベクトル化することにより、前述の実音高データを生成する。なお、このステップS120を実行するCPU45が実データ生成手段として機能する。その後、ステップS130に移る。
In step S120, the
ステップS130では、CPU45は、上記目標データ生成部45gのミュート奏法用目標データ生成部45g1及び通常奏法用目標データ生成部45g2により、上記ステップS20で取得されステップS40で表示されたコード譜情報及び奏法情報に基づき、各コードごとに、前述のようにして上記ミュート奏法用目標音高データ(第1目標音高データに相当)又は通常奏法用目標音高データを用いて目標音高データ(第2目標音高データに相当)を生成し、上記目標データバッファ45eに記憶する。なお、このステップS130を実行するCPU45が第1目標データ生成手段及び第2目標生成手段として機能する。その後、ステップS140に移る。
In step S130, the
ステップS140では、CPU45は、上記マッチング処理部45dにより、上記ステップS130で生成された目標音高データを、上記ステップS120で生成された、対応する実音高データと比較し、一致度を算出する。その後、ステップS150に移る。なお、このステップS140を実行するCPU45が一致度決定手段として機能する。
In step S140, the
ステップS150では、CPU45は、上記ステップS140で算出された上記一致度に基づき、適宜の手法により上記演奏データに対応した採点を行い、採点結果を例えば上記RAM49に出力して記憶させる。なお、この採点結果は、前述のステップS30に戻った後に実行されるステップS40においてモニタ13,14において表示される(上記図11(a)〜(c)参照)。このステップS150が完了すると、このルーチンを終了する。なお、このステップS150を実行するCPU45が採点手段として機能する。
In step S150, the
また、上記ステップS140において一致度の算出対象となる演奏区間が上記ミュート奏法を行うべき区間(言い換えれば前述の例では奏法情報が「mute」となっている区間)であって、その後のステップS150で一致度に基づく採点結果がある程度の値(例えば60点)以上となった場合(あるいは一致度自体の値がある程度の値以上となった場合でもよい)には、そのことをもって、ユーザがエレキギター4を上記通常奏法ではなくミュート奏法で演奏したことを検出したとも言える。したがって、その意味で、上記ステップS140及びステップS150を実行するCPU45は、ミュート奏法による演奏を検出する、各請求項記載のミュート奏法検出手順に相当しかつミュート奏法検出手段としても機能している。またこの場合のステップS150を実行して採点結果を出力するCPU45は、上記ミュート奏法の検出結果を出力する、各請求項記載のミュート奏法出力手順に相当しかつミュート奏法出力手段としても機能している。
In addition, the performance section for which the degree of coincidence is calculated in step S140 is a section in which the mute performance method is to be performed (in other words, the section in which the performance method information is “mute” in the above example), and subsequent step S150. When the scoring result based on the degree of matching becomes a certain value (for example, 60 points) or more (or the value of the degree of matching itself may be a certain value or more), the user can It can also be said that it has been detected that the
また、前述したように、目標音高データと実音高データとの一致度の値がある程度の値以上となったことで、(採点とは無関係に、あるいは採点を行わずに)ユーザによるエレキギター4のミュート奏法の演奏を検出する場合には、モニタ13,14における上記図11(a)〜(c)のような表示に代え、例えば図14(a)及び(b)に示すように、その時点でのユーザの演奏が、ミュート奏法によるものであるか(図14(a)参照)、通常奏法によるものであるか(図14(b)参照)、のみを表示するようにしてもよい。
In addition, as described above, the degree of coincidence between the target pitch data and the actual pitch data becomes a certain value or more, so that the electric guitar by the user (regardless of scoring or without scoring). In the case of detecting the performance of the 4 mute performance, instead of the display as shown in FIGS. 11 (a) to 11 (c) on the
図12に戻り、上記ステップS150が終了すると、CPU45は、ステップS65において、楽曲データの再生が終了したか(言い換えれば、ステップS30でのMIDIデータの読み出しが楽曲データの最後のMIDIデータまで終了したか)否かを判定する。楽曲データの再生が終了していれば判定が満たされ(ステップS65:YES)、このフローを終了する。楽曲データの再生が終了するまでは判定が満たされず(ステップS65:NO)、上記ステップS30に戻り、上記ステップS30〜ステップS65の手順を繰り返す。
Returning to FIG. 12, when step S150 is completed, the
<実施形態の効果>
以上説明したように、本実施形態においては、楽曲の再生に応じてユーザがエレキギター4を演奏すると、その演奏信号の周波数成分がFFTの手法により抽出された後にクロマベクトル処理が行われ、これによって所定の時間区分ごとに、上記演奏に対応した実音高データが生成される。そして、その実音高データと、楽曲データに対応づけられたコード譜情報に基づき生成された目標音高データとの一致度に基づき、上記演奏に対する採点が行われる。
<Effect of embodiment>
As described above, in the present embodiment, when the user plays the
その際、本実施形態においては、前述のようなエレキギター4等の弦楽器をユーザが実際に演奏するときの傾向に鑑み、上記ユーザによるミュート奏法を、それ以外の通常奏法と区別して検出する。具体的には、上記ミュート奏法に対応したミュート奏法用目標音高データ及び通常奏法用目標音高データを含む目標音高データが生成され、その目標音高データと対応する実音高データとの一致度が算出される。この結果、エレキギター4等の弦楽器の演奏に対する、ユーザの娯楽性を向上させるための所定の処理(上記の例では、採点)を精度よく実行することができる。上記採点の例では、ミュート奏法と通常奏法とを一切区別せずに一致度を決定し採点を行う場合に比べ、採点精度を向上することができる。この結果、ユーザにとっての利便性及び娯楽性を高めることができる。
In this case, in the present embodiment, in consideration of the tendency when the user actually plays the stringed instrument such as the
また、一般的に、ユーザがミュート奏法を行うかそれ以外の通常の奏法を行うかは、楽曲ごと、あるいは各楽曲の中の演奏区間ごとに、概ね一意的に決まっている。本実施形態ではこれに対応して、上記カラオケ楽曲データに対応づけられた上記コード情報(あるいはカラオケ楽曲データそのものでもよい)に、予め奏法情報が付加されている(図3参照)。そして、目標データ生成部45gでは、上記奏法情報に基づき、ミュート奏法用目標データ生成部45g1からのミュート奏法用目標データ、若しくは、通常奏法用目標データ生成部45g2からの通常奏法用目標音高データを選択的に目標データバッファ45へ出力し、それらの合成データである目標音高データを記憶する。そして、マッチング処理部45dでは、上記目標データバッファ45に記憶された上記目標音高データを用いて前述の一致度を決定することから、結果的に、上記奏法情報に基づき、ミュート奏法用目標データ生成部45g1からのミュート奏法用目標データ、若しくは、通常奏法用目標データ生成部45g2からの通常奏法用目標音高データを選択的に切り替えて用いて、上記一致度を決定することとなる。
In general, whether the user performs the mute performance or other normal performance is generally uniquely determined for each piece of music or for each performance section in each piece of music. In the present embodiment, in response to this, rendition style information is added in advance to the chord information (or karaoke song data itself) associated with the karaoke song data (see FIG. 3). Then, in the target
これにより、マッチング処理部45d及び採点結果生成部45fでは、ミュート奏法により演奏すべき曲と通常奏法により演奏すべき曲とを混在させつつユーザが複数の曲の演奏を行う場合や、ユーザが演奏する1つの曲の中でミュート奏法により演奏すべき区間と通常奏法により演奏すべき区間とが混在する場合等であっても、高い精度で採点を行うことができる。この結果、ユーザにとっての利便性及び娯楽性をさらに確実に高めることができる。
Thereby, in the
なお、以上において、図5等の各図中に示す矢印は信号の流れの一例を示すものであり、信号の流れ方向を限定するものではない。 In addition, in the above, the arrow shown in each figure of FIG. 5 etc. shows an example of the flow of a signal, and does not limit the flow direction of a signal.
また、図12、図13等に示すフローチャートは本発明を上記フローに示す手順に限定するものではなく、発明の趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。 In addition, the flowcharts shown in FIGS. 12 and 13 do not limit the present invention to the procedure shown in the above-described flow, and add / delete procedures or change the order within the scope of the gist and technical idea of the invention. You may do.
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。 In addition to those already described above, the methods according to the above-described embodiments and modifications may be used in appropriate combination.
その他、一々例示はしないが、本発明は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。 In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.
4 エレキギター(弦楽器)
10 カラオケ装置(楽音演奏装置)
45 CPU(演算手段)
49 RAM(楽曲データ記憶手段)
4 Electric guitar (stringed instrument)
10 Karaoke equipment (musical performance equipment)
45 CPU (calculation means)
49 RAM (music data storage means)
Claims (4)
前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、
前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、
前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手段と、
前記ミュート奏法検出手段による検出結果を出力するミュート奏法出力手段と、
を有する
ことを特徴とする楽音演奏装置。 Music data storage means for storing karaoke music data including chord information consisting of a plurality of chord progressions, including a performance part of a predetermined stringed instrument;
Music data reproducing means for reading out and reproducing the karaoke music data stored in the music data storage means;
A performance signal input means for inputting a performance signal output from the stringed instrument by a performance of the stringed instrument by a musical instrument player according to the reproduction of the karaoke music data by the music data reproducing means;
Based on the performance signal input from the performance signal input means, the mute performance method detection means for detecting the performance by the mute performance method of the musical instrument player separately from other performance methods;
Mute performance output means for outputting a detection result by the mute performance detection means;
A musical performance device characterized by comprising:
前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記ミュート奏法に対応した第1目標音高データを生成する第1目標データ生成手段と、
前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記それ以外の奏法に対応した第2目標音高データを生成する第2目標データ生成手段と、
前記演奏信号入力手段から入力される前記演奏信号に基づく実音高データを生成する実データ生成手段と、
を有し、
前記ミュート奏法検出手段は、
前記第1目標音高データ及び前記第2目標音高データ、のうち少なくとも一方と、対応する前記実音高データとの一致度を決定可能な一致度決定手段と、
前記一致度決定手段により決定された前記一致度に応じて、前記楽器演奏者による、前記ミュート奏法による演奏及び前記それ以外の奏法による演奏の少なくとも一方に対する採点を実行可能な採点手段と、
を含み、
前記ミュート奏法出力手段は、
前記採点手段による採点結果を出力する手段である
ことを特徴とする楽音演奏装置。 In the musical sound performance device according to claim 1,
A first target pitch corresponding to the mute playing method corresponding to the chord in the stringed instrument for each chord included in the corresponding chord information in accordance with the reproduction of the karaoke song data by the music data reproducing means. First target data generating means for generating data;
A second target corresponding to the other performance method corresponding to the chord in the stringed instrument for each chord included in the corresponding chord information in accordance with the reproduction of the karaoke music data by the music data reproducing means. Second target data generating means for generating pitch data;
Actual data generating means for generating actual pitch data based on the performance signal input from the performance signal input means;
Have
The mute playing style detecting means includes
A degree of coincidence determination means capable of determining a degree of coincidence between at least one of the first target pitch data and the second target pitch data and the corresponding actual pitch data;
In accordance with the degree of coincidence determined by the coincidence degree determining means, scoring means capable of performing scoring on at least one of the performance by the mute performance method and the performance by the other performance method by the instrument player;
Including
The mute performance output means is
A musical tone performance apparatus, characterized in that it is means for outputting a scoring result by the scoring means.
前記一致度決定手段は、
前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に付加された奏法情報に基づき、前記第1目標音高データ及び前記第2目標音高データのうちいずれか一方を選択的に切り替えて用いて、対応する前記実音高データとの一致度を決定する
ことを特徴とする楽音演奏装置。 In the musical sound performance device according to claim 2,
The coincidence degree determining means includes
One of the first target pitch data and the second target pitch data based on the rendition style information added to the corresponding chord information according to the playback of the karaoke song data by the song data playback means. A musical performance device characterized by determining the degree of coincidence with the corresponding actual pitch data by selectively switching one of them.
前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手順と、
前記ミュート奏法検出手順での検出結果を出力するミュート奏法出力手順と、
を実行させるための楽音演奏処理プログラム。 Music data storage means for storing karaoke music data including chord information consisting of a plurality of chord progressions including a performance part of a predetermined stringed instrument, and reading out the karaoke music data stored in the music data storage means Music data reproducing means for reproducing, and performance signal input means for inputting a performance signal output from the stringed instrument by the performance of the stringed instrument by a musical instrument player according to the reproduction of the karaoke music data by the music data reproducing means; For the arithmetic means provided in the musical sound performance device having
Based on the performance signal input from the performance signal input means, the mute performance method detection procedure for detecting the performance by the mute performance method of the musical instrument player separately from other performance methods;
A mute performance method output procedure for outputting a detection result in the mute performance method detection procedure;
A musical performance processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013244085A JP2015102741A (en) | 2013-11-26 | 2013-11-26 | Musical performance device and musical performance processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013244085A JP2015102741A (en) | 2013-11-26 | 2013-11-26 | Musical performance device and musical performance processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015102741A true JP2015102741A (en) | 2015-06-04 |
Family
ID=53378463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013244085A Pending JP2015102741A (en) | 2013-11-26 | 2013-11-26 | Musical performance device and musical performance processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015102741A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006276894A (en) * | 2006-07-18 | 2006-10-12 | Yamaha Corp | Device and method for automatically determining way of playing |
JP2011069900A (en) * | 2009-09-24 | 2011-04-07 | Xing Inc | Thrumming stringed instrument performance evaluation device |
JP2015001623A (en) * | 2013-06-14 | 2015-01-05 | ブラザー工業株式会社 | Musical tone performance device and musical tone performance processing program |
JP2015031711A (en) * | 2013-07-31 | 2015-02-16 | ブラザー工業株式会社 | Musical sound playing device and musical sound playing process program |
-
2013
- 2013-11-26 JP JP2013244085A patent/JP2015102741A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006276894A (en) * | 2006-07-18 | 2006-10-12 | Yamaha Corp | Device and method for automatically determining way of playing |
JP2011069900A (en) * | 2009-09-24 | 2011-04-07 | Xing Inc | Thrumming stringed instrument performance evaluation device |
JP2015001623A (en) * | 2013-06-14 | 2015-01-05 | ブラザー工業株式会社 | Musical tone performance device and musical tone performance processing program |
JP2015031711A (en) * | 2013-07-31 | 2015-02-16 | ブラザー工業株式会社 | Musical sound playing device and musical sound playing process program |
Non-Patent Citations (1)
Title |
---|
JPN7016000163; 三宅 俊輔、三浦雅展: 'エレキベースソロ演奏の奏法推定' 音楽音響研究会資料 第30巻第3号, 20110806, 87-90頁, 日本音響学会 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4212446B2 (en) | Karaoke equipment | |
JP5704368B2 (en) | Musical performance device and musical performance processing program | |
JP5884992B2 (en) | Musical performance device and musical performance processing program | |
JP5708730B2 (en) | Musical performance device and musical performance processing program | |
JP4211388B2 (en) | Karaoke equipment | |
JP2006251697A (en) | Karaoke device | |
JP5005445B2 (en) | Code name detection device and code name detection program | |
JP4171680B2 (en) | Information setting device, information setting method, and information setting program for music playback device | |
JP6141737B2 (en) | Karaoke device for singing in consideration of stretch tuning | |
JP2014026213A (en) | Musical sound playing device | |
JP5787279B2 (en) | Musical performance device | |
JP2009003225A (en) | Chord name detector and program for chord name detection | |
JP2007078724A (en) | Electronic musical instrument | |
JP2007057727A (en) | Electronic percussion instrument amplifier system with musical sound reproducing function | |
JP2006301019A (en) | Pitch-notifying device and program | |
JP6065827B2 (en) | Musical performance device and musical performance processing program | |
JP2015102741A (en) | Musical performance device and musical performance processing program | |
JP5825533B2 (en) | Music search device, music search system, and music search program | |
JP5648877B1 (en) | Musical performance device and musical performance processing program | |
JP5413749B2 (en) | Musical performance device | |
JP4182898B2 (en) | Karaoke equipment | |
JP3873914B2 (en) | Performance practice device and program | |
JP5983670B2 (en) | Program, information processing apparatus, and data generation method | |
JP5382378B2 (en) | Karaoke equipment | |
JP2017049428A (en) | Musical sound performance device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160324 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160808 |