JP2015102741A - Musical performance device and musical performance processing program - Google Patents

Musical performance device and musical performance processing program Download PDF

Info

Publication number
JP2015102741A
JP2015102741A JP2013244085A JP2013244085A JP2015102741A JP 2015102741 A JP2015102741 A JP 2015102741A JP 2013244085 A JP2013244085 A JP 2013244085A JP 2013244085 A JP2013244085 A JP 2013244085A JP 2015102741 A JP2015102741 A JP 2015102741A
Authority
JP
Japan
Prior art keywords
performance
data
mute
chord
music data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013244085A
Other languages
Japanese (ja)
Inventor
永介 山下
Eisuke Yamashita
永介 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013244085A priority Critical patent/JP2015102741A/en
Publication of JP2015102741A publication Critical patent/JP2015102741A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a musical performance signal correctly and prevent deterioration of convenience and amusement felt by a user, even when a user performs mute musical performance.SOLUTION: A karaoke device 10 has a RAM including a musical performance part of an electric guitar 4, and storing karaoke music data to which code information formed of progress of plural codes is corresponded, and the karaoke device 10 reads stored karaoke music data and reproduce it, and according to reproduction of the karaoke music data, inputs a musical performance signal outputted from the electric guitar 4 by playing of the electric guitar 4 by a player of musical instrument, and based on the inputted musical performance signal, detects musical performance by mute musical performance of the player of musical instrument with discrimination from other musical performance methods, and outputs the detection result.

Description

本発明は、ユーザの楽器演奏に基づく演奏信号に対し各種の処理を行う楽音演奏装置及びこれに用いる楽音演奏処理プログラムに関する。   The present invention relates to a musical tone performance apparatus that performs various processes on performance signals based on a musical instrument performance of a user, and a musical tone performance processing program used therefor.

ユーザの楽器演奏時の演奏信号が入力されて検出され、その検出結果に対応して、ユーザの娯楽性を向上させるための各種の処理(例えば、演奏に対する採点や各種表示等)を行う技術が既に知られている。例えば、特許文献1に記載の従来技術では、予め用意された楽曲についての目標音高データ(曲データ)と、上記ユーザの演奏により楽器から出力された演奏信号に対応した実音高データ(演奏データ)とが比較される。そして、それらの比較結果に基づき、ユーザの演奏内容に対する採点が行われる。   A technique for performing various types of processing (for example, scoring and various types of display for performances) for improving the entertainment of the user in response to the detection result when the performance signal of the user playing the musical instrument is detected. Already known. For example, in the prior art described in Patent Document 1, target pitch data (song data) for music prepared in advance and actual pitch data (performance data) corresponding to a performance signal output from a musical instrument by the user's performance are described. ) Is compared. And based on those comparison results, the user's performance is scored.

特開2012−83540号公報JP 2012-83540 A

ところで、一般に、弦楽器(特にギター)には、各弦が略同時に発音されたり(いわゆるストローク奏法)、各弦が経時的に順を追って発音されたり(いわゆるアルペジオ奏法)等の種々の奏法がある。特に、エレキギターにより比較的テンポの速い(例えばロック調の)楽曲が演奏される場合、楽曲のドライブ感(ノリが良い雰囲気)を強調するために、各弦をミュート状態としつつ刻むように発音させて演奏する(いわゆるミュート奏法)場合がある。このミュート奏法では、各弦の発音時間が極めて短く、またピックが弦をはじいた後に弦の振動がユーザの手により強制減衰させられることから、それ以外の通常の奏法(上記ストローク奏法やアルペジオ奏法等)とは著しく異なる、独特の発音態様となる。したがって、上記ミュート奏法が行われるときに、上記通常の奏法と同様の処理を一律に行った場合には、演奏信号を正確に検出できなくなり、この結果、上記各種の処理を行うことができずにユーザにとっての利便性や娯楽性を低下させる可能性がある。   By the way, in general, stringed instruments (particularly guitars) have various performance methods such as each string being pronounced substantially simultaneously (so-called stroke playing method), and each string being pronounced over time (so-called arpeggio playing method). . In particular, when a relatively fast-tempo (for example, rock-like) music is played by an electric guitar, each string is muted while being muted in order to emphasize the drive feeling (smooth atmosphere) of the music. Playing (so-called mute playing method). In this mute playing method, the sounding time of each string is extremely short, and after the pick hits the string, the vibration of the string is forcibly attenuated by the user's hand, so other normal playing methods (the above-mentioned stroke playing method and arpeggio playing method) Etc.) and a distinctive pronunciation. Therefore, when the mute performance is performed, if the same processing as the normal performance is performed uniformly, the performance signal cannot be accurately detected, and as a result, the various processes cannot be performed. In addition, there is a possibility that convenience and entertainment for the user may be reduced.

本発明の目的は、ユーザがミュート奏法を行った場合でも演奏信号を正確に検出して、ユーザの利便性や娯楽性の低下を防止できる、楽音演奏装置及び楽音演奏処理プログラムを提供することにある。   An object of the present invention is to provide a musical tone performance apparatus and musical tone performance processing program capable of accurately detecting a performance signal even when the user performs a mute performance and preventing deterioration of user convenience and entertainment. is there.

上記目的を達成するために、第1の発明は、所定の弦楽器の演奏パートを含み、複数のコードの進行からなるコード情報が対応づけられたカラオケ楽曲データを記憶する楽曲データ記憶手段と、前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手段と、前記ミュート奏法検出手段による検出結果を出力するミュート奏法出力手段と、を有することを特徴とする。   In order to achieve the above object, the first invention includes music data storage means for storing karaoke music data including chord information consisting of a plurality of chord progressions, including a performance part of a predetermined stringed instrument, Music data playback means for reading out and playing back the karaoke music data stored in the music data storage means, and according to the playback of the karaoke music data by the music data playback means, the instrument player performs the string instrument from the string instrument. A performance signal input means for inputting a performance signal to be output, and a mute for detecting the performance of the instrument performer by the mute performance method in distinction from other performance styles based on the performance signal input from the performance signal input means. Rendition style detection means, and mute performance style output means for outputting a detection result by the mute performance style detection means, Characterized in that it.

本願第1発明の楽音演奏装置では、楽曲データ記憶手段に記憶されたカラオケ楽曲データが、楽曲データ再生手段によって読み出されて再生される。このとき、本願第1発明では、カラオケ楽曲データの再生とともにユーザ(楽器演奏者)が楽器を演奏することができる。すなわち、上記再生に合わせてユーザが弦楽器を演奏すると、弦楽器から出力された演奏信号が演奏信号入力手段を介し入力されて検出され、その検出結果に対応して、ユーザの娯楽性を向上させるための各種の処理(例えば、演奏に対する採点や各種表示等)が実行される。   In the musical tone performance apparatus according to the first aspect of the present invention, the karaoke music data stored in the music data storage means is read and reproduced by the music data reproducing means. At this time, in the first invention of the present application, the user (musical instrument player) can play the musical instrument along with the reproduction of the karaoke music data. That is, when the user plays a stringed instrument in accordance with the reproduction, the performance signal output from the stringed instrument is input and detected via the performance signal input means, and the user's entertainment is improved according to the detection result. The various processes (for example, scoring and various displays for performance) are executed.

本願第1発明においては、先に述べた現実のユーザの演奏傾向に鑑み、ミュート奏法検出手段が、上記入力された演奏信号に基づき、楽器演奏者のミュート奏法による演奏をそれ以外の奏法と区別して検出し、ミュート奏法出力手段が、その検出結果を出力する。これにより、上記の弊害を回避し、ユーザがミュート奏法を行った場合であっても演奏信号を正確に検出することができるので、上記各種の処理を正しく行うことができ、ユーザの利便性や娯楽性の低下を防止することができる。   In the first invention of the present application, in consideration of the performance tendency of the actual user described above, the mute performance method detection means performs the performance by the musical instrument player based on the input performance signal. Separately detected, the mute performance output means outputs the detection result. As a result, the above-described adverse effects can be avoided and the performance signal can be accurately detected even when the user performs the mute performance, so that the various processes described above can be performed correctly, and user convenience and A decrease in entertainment can be prevented.

第2発明は、上記第1発明において、前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記ミュート奏法に対応した第1目標音高データを生成する第1目標データ生成手段と、前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記それ以外の奏法に対応した第2目標音高データを生成する第2目標データ生成手段と、前記演奏信号入力手段から入力される前記演奏信号に基づく実音高データを生成する実データ生成手段と、を有し、前記ミュート奏法検出手段は、前記第1目標音高データ及び前記第2目標音高データ、のうち少なくとも一方と、対応する前記実音高データとの一致度を決定可能な一致度決定手段と、前記一致度決定手段により決定された前記一致度に応じて、前記楽器演奏者による、前記ミュート奏法による演奏及び前記それ以外の奏法による演奏の少なくとも一方に対する採点を実行可能な採点手段と、を含み、前記ミュート奏法出力手段は、前記採点手段による採点結果を出力する手段であることを特徴とする。   The second invention corresponds to the chord in the stringed instrument for each chord included in the corresponding chord information in accordance with the reproduction of the karaoke song data in the song data reproducing means in the first invention. First target data generating means for generating first target pitch data corresponding to the mute playing method, and each code included in the code information corresponding to the reproduction of the karaoke music data by the music data reproducing means For each of the performance signals input from the performance signal input means, second target data generation means for generating second target pitch data corresponding to the other performance methods corresponding to the chord in the stringed instrument. Real data generation means for generating actual pitch data based on the mute performance method detection means, wherein the mute playing style detection means includes the first target pitch data and the second The degree of coincidence determination means capable of determining the degree of coincidence between at least one of the pitch data and the corresponding actual pitch data, and the musical instrument performance according to the degree of coincidence determined by the degree of coincidence determination means Scoring means capable of scoring at least one of the performance by the mute performance method and the performance by the other performance method by the person, and the mute performance output means is means for outputting the scoring result by the scoring means. It is characterized by being.

本願第2発明では、カラオケ楽曲データの再生に合わせてユーザが弦楽器を演奏すると、その演奏に対する採点が行われる。すなわち、上記再生されるカラオケ楽曲データには、コード情報が対応づけられている。そして、当該カラオケ楽曲データの再生に応じて、上記コード情報に含まれる各コードごとに上記弦楽器の目標音高データが生成される。このとき、前述のような現実のユーザの演奏傾向に鑑み、本願第2発明では、第1目標データ生成手段及び第2目標データ生成手段の2つが設けられる。第1目標データ生成手段では、上記ミュート奏法に対応した第1目標音高データが生成される。第2目標データ生成手段では、ミュート奏法以外の通常の奏法に対応した第2目標データが生成される。   In the second invention of this application, when a user plays a stringed instrument in accordance with the reproduction of karaoke music data, the performance is scored. That is, code information is associated with the reproduced karaoke music data. And according to the reproduction | regeneration of the said karaoke music data, the target pitch data of the said stringed instrument are produced | generated for every chord contained in the said chord information. At this time, in view of the performance tendency of the actual user as described above, in the second invention of the present application, the first target data generating means and the second target data generating means are provided. The first target data generating means generates first target pitch data corresponding to the mute performance method. The second target data generating means generates second target data corresponding to a normal performance method other than the mute performance method.

一方、上記ユーザの演奏により弦楽器から出力された演奏信号は演奏信号入力手段によって入力された後、実データ生成手段により(例えば当該演奏信号の周波数成分が抽出されてクロマベクトル処理が行われることで)対応する実音高データが生成される。   On the other hand, after the performance signal output from the stringed instrument by the user's performance is input by the performance signal input means, the actual data generation means (for example, the frequency component of the performance signal is extracted and chroma vector processing is performed). ) Corresponding actual pitch data is generated.

そして、一致度決定手段が、上記生成された実音高データと対応する目標音高データとの一致度を決定し、採点手段がその一致度に応じて採点を行う。このとき、本願第2発明では、目標音高データとして、上記第1目標音高データ及び第2目標音高データのうち少なくとも一方が用いられる。これにより、ミュート奏法とそれ以外の奏法を一切区別せずに一致度を決定し採点を行う場合に比べて、弦楽器の演奏における採点精度を向上できる。この結果、ユーザにとっての利便性及び娯楽性を確実に高めることができる。   Then, the coincidence determination means determines the coincidence between the generated actual pitch data and the corresponding target pitch data, and the scoring means scores according to the coincidence. At this time, in the second invention of the present application, at least one of the first target pitch data and the second target pitch data is used as the target pitch data. This makes it possible to improve the scoring accuracy in the performance of the stringed instrument as compared with the case where the degree of coincidence is determined and scored without distinguishing between the mute performance method and other performance methods. As a result, convenience and entertainment for the user can be reliably improved.

第3発明は、上記第2発明において、前記一致度決定手段は、前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に付加された奏法情報に基づき、前記第1目標音高データ及び前記第2目標音高データのうちいずれか一方を選択的に切り替えて用いて、対応する前記実音高データとの一致度を決定することを特徴とする。   According to a third invention, in the second invention, the coincidence degree determining means is based on rendition style information added to the corresponding chord information in accordance with the reproduction of the karaoke music data by the music data reproducing means. One of the first target pitch data and the second target pitch data is selectively switched and used to determine the degree of coincidence with the corresponding actual pitch data.

一般的に、ユーザがミュート奏法を行うかそれ以外の通常の奏法を行うかは、楽曲ごと、あるいは各楽曲の中の演奏区間ごとに、概ね一意的に決まっている。本願第3発明ではこれに対応して、カラオケ楽曲データに対応づけられたコード情報(あるいはカラオケ楽曲データそのものでもよい)に、予め奏法情報が付加されている。この奏法情報は、例えば、演奏者がミュート奏法により演奏すべき区間(あるいは楽曲)であるか、それ以外の奏法により演奏すべき区間(あるいは楽曲)であるか、等を表している。そして、一致度決定手段は、当該奏法情報に基づき、第1目標音高データ若しくは第2目標音高データを選択的に切り替えて用いて、上記一致度を決定する。   Generally, whether the user performs the mute performance or the other normal performance is generally uniquely determined for each music piece or for each performance section in each music piece. In the third invention of the present application, in response to this, performance method information is added in advance to code information associated with karaoke song data (or karaoke song data itself). This rendition style information represents, for example, whether the performer is a section (or music piece) to be played by the mute playing technique, or is a section (or music piece) to be played by other performance techniques. Then, the coincidence determination means determines the coincidence by selectively switching the first target pitch data or the second target pitch data based on the performance information.

これにより、ミュート奏法により演奏すべき曲とそれ以外の奏法により演奏すべき曲とを混在させつつユーザが演奏を行う場合や、ユーザが演奏する1つの曲の中でミュート奏法により演奏すべき区間とそれ以外の奏法により演奏すべき区間とが混在する場合等であっても、高い精度で採点を行うことができる。この結果、ユーザにとっての利便性及び娯楽性をさらに確実に高めることができる。   Thus, when the user performs a performance while mixing a song to be played by the mute playing method and a song to be played by another playing method, or a section to be played by the mute playing method in one song played by the user Even if there is a mixture of sections to be played by other playing methods, scoring can be performed with high accuracy. As a result, the convenience and entertainment for the user can be further improved.

上記目的を達成するために、本願第4発明の楽音演奏処理プログラムは、所定の弦楽器の演奏パートを含み、複数のコードの進行からなるコード情報が対応づけられたカラオケ楽曲データを記憶する楽曲データ記憶手段と、前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、を有する楽音演奏装置に備えられた演算手段に対し、前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手順と、前記ミュート奏法検出手順での検出結果を出力するミュート奏法出力手順と、を実行させる。   In order to achieve the above object, a musical tone performance processing program according to the fourth invention of the present application stores musical piece data that includes karaoke musical piece data that includes a performance part of a predetermined stringed instrument and that is associated with chord information consisting of a plurality of chord progressions. According to the reproduction of the karaoke music data by the music data reproduction means, the music data reproduction means for reading out and reproducing the karaoke music data stored in the music data storage means, The musical instrument based on the performance signal input from the performance signal input means to the arithmetic means provided in the musical sound performance device, which has a performance signal input means for inputting a performance signal output from the stringed instrument by performance A mute playing method detection procedure for detecting a player's performance using the mute playing method separately from other playing methods, And mute playing output procedure for outputting the result of detection by the serial mute playing detection procedure is executed.

本発明によれば、ユーザがミュート奏法を行った場合でも演奏信号を正確に検出して、ユーザの利便性や娯楽性の低下を防止することができる。   ADVANTAGE OF THE INVENTION According to this invention, even when a user performs a mute performance method, a performance signal can be detected correctly and the fall of a user's convenience and amusement can be prevented.

本発明の一実施形態のカラオケ装置の主要構成を示す説明図である。It is explanatory drawing which shows the main structures of the karaoke apparatus of one Embodiment of this invention. カラオケ装置に備えられた制御装置の制御系の主要構成を示す機能ブロック図である。It is a functional block diagram which shows the main structures of the control system of the control apparatus with which the karaoke apparatus was equipped. 楽曲データを含むサーバからの受信データのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of the reception data from the server containing music data. 楽曲データの再生時にモニタに表示される表示内容の一例を示す説明図である。It is explanatory drawing which shows an example of the display content displayed on a monitor at the time of reproduction | regeneration of music data. CPUの詳細機能を表す機能ブロック図である。It is a functional block diagram showing the detailed function of CPU. 単音を通常奏法で演奏したときにおける、演奏信号をFFT処理したスペクトル画像の一例を表す図である。It is a figure showing an example of the spectrum image which performed the FFT process of the performance signal when a single sound was played by the normal performance method. 単音をミュート奏法で演奏したときにおける、演奏信号をFFT処理したスペクトル画像の一例を表す図である。It is a figure showing an example of the spectrum image which performed the FFT process of the performance signal when a single sound was performed by the mute performance method. パワーコードを通常奏法で演奏したときにおける、演奏信号をFFT処理したスペクトル画像の一例を表す図である。It is a figure showing an example of the spectrum image which performed the FFT process of the performance signal when a power chord is performed by the normal performance method. パワーコードをミュート奏法で演奏したときにおける、演奏信号をFFT処理したスペクトル画像の一例を表す図である。It is a figure showing an example of the spectrum image which performed the FFT process of the performance signal when playing a power code by the mute performance method. 目標音高データを生成し、実音高データと比較する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of producing | generating target pitch data and comparing with real pitch data. 採点結果の表示例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a display of a scoring result. カラオケ装置の楽曲再生時にCPUにより実行される処理内容を示すフローチャートであるIt is a flowchart which shows the processing content performed by CPU at the time of the music reproduction of a karaoke apparatus. ステップS100の詳細手順を表すフローチャートである。It is a flowchart showing the detailed procedure of step S100. ミュート奏法の検出結果の表示例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a display of the detection result of a mute performance.

以下、本発明の一実施の形態について、図面を参照しつつ説明する。本実施形態では、ユーザがカラオケ楽曲の演奏と共に主として自らエレキギターを演奏する場合を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case will be described in which a user mainly plays an electric guitar by himself along with the performance of karaoke music.

<主要構成>
図1は、本実施形態の楽音演奏装置であるカラオケ装置の主要構成を示す説明図である。図1に示すように、カラオケ装置10には、歌詞を示す歌詞テロップ、歌詞テロップの背景に表示する背景映像、選曲番号を示す映像などをCRTに表示するモニタテレビ(以下、モニタと略称する)13と、ユーザ用のモニタ14と、エレキギター4(所定の弦楽器に相当)やエレキベースなどの電子楽器を接続するための楽器接続ボード8と、複数の楽器演奏パートにより構成されるカラオケ用の楽曲(カラオケ楽曲。以下、適宜「曲」と略称する)の選曲及び曲の再生の予約などの選曲制御や、選曲された曲の送信要求を示すリクエスト信号のサーバへの送信、及びリクエスト信号により示される曲に対応する楽曲データ(カラオケ楽曲データに相当)の受信などの通信制御や、受信された楽曲データに含まれる楽音種類指定情報たるMIDIデータのうち楽器接続ボード8に接続された楽器と同じ種類の楽器の音源を指定する等を行う制御装置20と、が備えられている。
<Main configuration>
FIG. 1 is an explanatory diagram showing a main configuration of a karaoke apparatus which is a musical tone performance apparatus of the present embodiment. As shown in FIG. 1, the karaoke apparatus 10 has a monitor television (hereinafter, abbreviated as a monitor) that displays a lyrics telop indicating lyrics, a background video displayed on the background of the lyrics telop, a video showing a music selection number, etc. on the CRT. 13, a user monitor 14, a musical instrument connection board 8 for connecting an electronic musical instrument such as an electric guitar 4 (corresponding to a predetermined stringed musical instrument) or an electric bass, and a plurality of musical instrument performance parts By selecting a song (karaoke song; hereinafter abbreviated as “song” as appropriate) and selecting a song to be reserved for playback, sending a request signal indicating a request to send the selected song to the server, and by request signal Communication control such as reception of music data (corresponding to karaoke music data) corresponding to the displayed music, and musical tone type designation information included in the received music data And a control unit 20 that performs for designating the same type of instrument sound source and an instrument connected to the instrument connection board 8 of the IDI data, are provided.

さらに、カラオケ装置10には、この例では、楽器接続ボード8から入力される楽器の演奏信号とマイクロフォン17,18から入力される音声信号と曲の再生信号とのミキシング(後述の図2に示すミキシング回路9参照)や、音声と曲との音量バランス調整や、エコー調整や、ディレィ調整や、ミキシング信号の増幅や、再生される曲の音程制御(キーコントロール)や、高音・低音の制御(トーンコントロール)等を行うアンプ16と、このアンプ16から出力される増幅信号を音として再生するフロアータイプの1組のスピーカ11,11と、天井吊下げ用の1組のスピーカ12,12と、制御装置20を遠隔操作するリモコン30と、が備えられている。リモコン30には、各種の操作ボタン30a,30bが備えられている。   Further, in this example, the karaoke apparatus 10 mixes a musical instrument performance signal inputted from the musical instrument connection board 8, a voice signal inputted from the microphones 17 and 18, and a music reproduction signal (shown in FIG. 2 described later). Mixing circuit 9), volume balance adjustment between sound and music, echo adjustment, delay adjustment, amplification of mixing signal, pitch control (key control) of played music, high / low sound control ( An amplifier 16 that performs tone control), a set of floor type speakers 11 and 11 that reproduce the amplified signal output from the amplifier 16 as sound, a set of speakers 12 and 12 for hanging the ceiling, And a remote controller 30 for remotely operating the control device 20. The remote controller 30 is provided with various operation buttons 30a and 30b.

楽器接続ボード8は、図示を省略するが、電子ドラム、キーボード、エレキベース、エレキギター4の出力端子(フォンプラグ)を接続するそれぞれの入力端子(フォンジャック。演奏信号入力手段に相当)と、各入力端子に入力される演奏信号をそれぞれ出力する出力端子と、が設けられている。そして、楽器接続ボード8は、各楽器の出力端子を入力端子に接続することによって各楽器が接続されたこと及びその楽器の種類を自動検出するとともに、接続された楽器の1つの演奏信号を選択し、その選択された演奏信号を制御装置20の入力端子44(後述の図2参照)へ出力する役割をする。例えばエレキギター4から出力される演奏信号は、エレキギター4のフォンプラグを接続するフォンジャック4a(後述の図2参照)を介して楽器接続ボード8へ入力され、楽器接続ボード8の出力端子から出力される演奏信号は、制御装置20の入力端子44へ入力される。なお、上記のように楽器の接続及びその種類を自動検出するのに代え、ユーザが、既に接続済みの楽器に対応した設定等をリモコン30等において手動で行うようにしてもよい。またその場合、エレキギター4のような電子弦楽器ではなく、ガットギターやフォークギターのようなアコースティック発音のギターの音を、マイクロフォンで集音してフォンジャック4aへ入力してもよい。   Although not shown, the musical instrument connection board 8 is connected to the output terminals (phone plugs) of the electronic drum, keyboard, electric bass, and electric guitar 4 (phone jacks; corresponding to performance signal input means); And output terminals for outputting performance signals inputted to the respective input terminals. The musical instrument connection board 8 automatically detects that each musical instrument is connected and the type of the musical instrument by connecting the output terminal of each musical instrument to the input terminal, and selects one performance signal of the connected musical instrument. The selected performance signal is output to an input terminal 44 (see FIG. 2 described later) of the control device 20. For example, a performance signal output from the electric guitar 4 is input to the musical instrument connection board 8 via a phone jack 4 a (see FIG. 2 described later) for connecting a phone plug of the electric guitar 4, and is output from the output terminal of the musical instrument connection board 8. The output performance signal is input to the input terminal 44 of the control device 20. Note that instead of automatically detecting the connection and the type of the musical instrument as described above, the user may manually perform settings corresponding to the musical instrument already connected on the remote controller 30 or the like. In this case, acoustic guitar sounds such as gut guitars and folk guitars may be collected by a microphone and input to the phone jack 4a instead of an electronic stringed instrument such as the electric guitar 4.

<制御系>
上記制御装置20の制御系の構成について図2を参照して説明する。図2は、制御装置20の制御系の主要構成を示す機能ブロック図である。制御装置20は、装置筺体に、LAN回線15を接続する通信端子40と、楽器接続ボード8の出力端子と接続される入力端子44と、アンプ16の音声入力端子と接続される音声出力端子41と、モニタ13の映像入力端子と接続される映像出力端子42と、モニタ14の映像入力端子と接続される映像出力端子43とを備えている。
<Control system>
The configuration of the control system of the control device 20 will be described with reference to FIG. FIG. 2 is a functional block diagram showing the main configuration of the control system of the control device 20. The control device 20 includes a communication terminal 40 connected to the LAN line 15, an input terminal 44 connected to the output terminal of the musical instrument connection board 8, and an audio output terminal 41 connected to the audio input terminal of the amplifier 16. And a video output terminal 42 connected to the video input terminal of the monitor 13 and a video output terminal 43 connected to the video input terminal of the monitor 14.

また、制御装置20には、制御プログラムにしたがって各種制御を実行するCPU45(演算手段に相当)が設けられている。CPU45には、リモコン30から送信されるデータ、選曲された曲の選曲番号を示す選曲番号データ、予約された曲の選曲番号データなどを一時保存するためのRAM46と、CPU45により実行されるプログラム(後述の図12、図13、及び図11に示すフローを実行する楽音演奏処理プログラムを含む)及び必要なデータテーブルなどが記憶されたROM47とが接続されている。   Further, the control device 20 is provided with a CPU 45 (corresponding to a calculation means) that executes various controls according to a control program. The CPU 45 includes a RAM 46 for temporarily storing data transmitted from the remote controller 30, music selection number data indicating the music selection number of the selected music, music selection number data of the reserved music, and a program executed by the CPU 45 ( A ROM 47 that stores a musical tone performance processing program that executes a flow shown in FIGS. 12, 13, and 11 (to be described later) and a necessary data table is connected.

また、CPU45には、モニタ13,14に歌詞テロップや各種メッセージ映像を表示するための文字映像データが記憶されたビデオRAM48と、サーバ58から送信される楽曲データやコード譜情報(詳細は後述)、歌詞データ、及び映像データを通信端子40を介して受信するためのLANボード50と、このLANボード50により受信される楽曲データ及び歌詞データ等を一時保存するためのRAM49(楽曲データ記憶手段に相当)とが接続されている。   Further, the CPU 45 has a video RAM 48 in which character video data for displaying lyrics telop and various message videos on the monitors 13 and 14 and music data and chord score information transmitted from the server 58 (details will be described later). The LAN board 50 for receiving the lyrics data and the video data via the communication terminal 40, and the RAM 49 for temporarily storing the music data and the lyrics data received by the LAN board 50 (in the music data storage means) Equivalent).

さらに、CPU45には、RAM49から読み出された曲データに含まれるMIDIデータを入力するとともに、その入力されたMIDIデータにより指定される音源から音源信号を出力するMIDI音源ボード51が接続されている。また、CPU45には、上記出力された音源信号を入力してアンプ16により増幅可能な信号に変換する音声制御回路52と、一般的な背景映像を示す背景映像データを読み出すCD−ROMプレーヤ53とが接続されている。   Further, the CPU 45 is connected to a MIDI sound source board 51 that inputs MIDI data included in the song data read from the RAM 49 and outputs a sound source signal from a sound source specified by the input MIDI data. . Further, the CPU 45 inputs the output sound source signal and converts it into a signal that can be amplified by the amplifier 16, and a CD-ROM player 53 that reads background video data indicating a general background video. Is connected.

また、CPU45には、CD−ROMプレーヤ53から読み出された一般的な背景映像データ、及びRAM49から読み出された曲固有の背景データや曲データに含まれる歌詞テロップデータ等を入力し、モニタ13の表示画面に表示される背景映像中に歌詞テロップがスーパーインポーズされた映像を作成したり、曲の進行にしたがって歌詞テロップの色を変えたりする映像制御を行う映像制御回路54が接続されている。   The CPU 45 also receives general background video data read from the CD-ROM player 53, song-specific background data read from the RAM 49, lyrics telop data included in the song data, and the like. 13 is connected to a video control circuit 54 that performs video control for creating a video in which the lyrics telop is superimposed on the background video displayed on the display screen 13 and changing the color of the lyrics telop as the music progresses. ing.

さらに、CPU45には、制御装置20の受光部38により受光されたリモコン30からの光信号をデジタル信号に変換する変換回路55と、制御装置20の筺体に設けられた各種ボタン及びキー(テンキー、選曲ボタン等)を押したときに点灯するLEDへ表示信号を出力する表示回路56と、上記各種ボタン及びキーを押したときに発生するスイッチング信号を入力する入力回路57とが接続されている。   Further, the CPU 45 includes a conversion circuit 55 that converts an optical signal received from the light receiving unit 38 of the control device 20 into a digital signal, and various buttons and keys (tenkey, A display circuit 56 that outputs a display signal to an LED that lights when a music selection button or the like is pressed, and an input circuit 57 that inputs a switching signal generated when the various buttons and keys are pressed are connected.

<カラオケ装置の基本動作>
以上の基本構成のカラオケ装置10において、ユーザがリモコン30により例えばエレキギター4の演奏パートを含むカラオケ楽曲を選曲し、選曲に対応してサーバ58から送信された楽曲データを受信すると、楽曲データが演奏される。そのエレキギター4の演奏パートを含む楽曲データの演奏に合わせてユーザ(楽器演奏者に相当)がエレキギター4を演奏すると、エレキギター4から出力される演奏信号は、楽器接続ボード8を介して制御装置20の入力端子44へ入力される。そして、音声制御回路52において、音源信号が音声出力端子41へ出力される。なお、いわゆるマイナスワン再生状態の場合には、音声制御回路52において、音源信号のエレキギターの楽曲パート一部をエレキギター4の演奏信号と置き換えたマイナスワン再生状態で、音声出力端子41へ出力される。
<Basic operation of karaoke equipment>
In the karaoke apparatus 10 having the basic configuration described above, when the user selects a karaoke piece including, for example, a performance part of the electric guitar 4 by the remote controller 30, and receives the piece of music data transmitted from the server 58 in response to the selection, the piece of music data is obtained. Played. When a user (corresponding to a musical instrument player) plays the electric guitar 4 in accordance with the performance of the music data including the performance part of the electric guitar 4, the performance signal output from the electric guitar 4 is transmitted via the musical instrument connection board 8. Input to the input terminal 44 of the control device 20. Then, in the sound control circuit 52, the sound source signal is output to the sound output terminal 41. In the case of the so-called minus one playback state, the audio control circuit 52 outputs to the audio output terminal 41 in the minus one playback state in which a part of the music part of the electric guitar of the sound source signal is replaced with the performance signal of the electric guitar 4. Is done.

このとき、本実施形態では、サーバ58より歌詞データや映像データとともに受信した当該エレキギター4のギター演奏パートを含む楽曲データに対し、予め演奏支援用にコード譜情報及び奏法情報(詳細は後述)が対応付けられており、当該楽曲データの再生時にはモニタ13,14によってコード譜情報及び奏法情報が歌詞データや映像データと共に表示される。これにより、演奏者であるユーザは、モニタ13,14に表示されるコード譜情報を活用することで、再生されるカラオケ楽曲に合わせてエレキギター4の演奏パートを、奏法情報に対応した奏法により自ら容易に演奏して、当該エレキギター4の練習を行ったり、カラオケ楽曲全体のアンサンブルを楽しむことができる。   At this time, in this embodiment, chord score information and performance method information (to be described in detail later) for performance support in advance for music data including the guitar performance part of the electric guitar 4 received from the server 58 together with the lyrics data and video data. The chord score information and the performance information are displayed together with the lyrics data and the video data by the monitors 13 and 14 when the music data is reproduced. Thereby, the user who is a performer uses the chord score information displayed on the monitors 13 and 14 to change the performance part of the electric guitar 4 according to the performance method corresponding to the performance method information according to the karaoke music to be reproduced. You can easily play and practice the electric guitar 4 or enjoy an ensemble of the entire karaoke song.

<データ構造>
図3は、本実施形態における、サーバ58より受信した楽曲データを含む受信データのデータ構造を示す説明図である。図3に示す例では、サーバから受信されるデータの、カラオケ楽曲の4小節分を示している。受信データは、4小節分の演奏の進行に対応した複数の楽器演奏パート(この例では、エレキギター4に対応するギターパート、ベースパート、ドラムパート)の楽曲データと、上記コード譜情報と、上記奏法情報と、歌詞データ(歌詞テロップデータ)と、映像データと、を備えている。
<Data structure>
FIG. 3 is an explanatory diagram showing a data structure of received data including music data received from the server 58 in the present embodiment. In the example shown in FIG. 3, four bars of karaoke music pieces of data received from the server are shown. The received data includes music data of a plurality of musical instrument performance parts (in this example, a guitar part, a bass part, and a drum part corresponding to the electric guitar 4) corresponding to the progress of the performance for four bars, the chord score information, The rendition style information, lyric data (lyric telop data), and video data are provided.

楽曲データは、歌詞データ及び映像データとともに、図3に示すデータ中の1番目の小節(以下、単に「第1小節」等という)から再生され、時間の経過に従って第2小節、第3小節、第4小節へと再生が進行して行く。またその再生に対応して、歌詞データ及び映像データに基づく表示も進行していく。なお、楽曲データの種類が複数ある場合には、楽曲データ毎に、曲名(例えば、上述した選曲に用いる楽曲ID)、楽曲演奏用のMIDIデータ、歌詞データ、演奏支援用のコード譜データが対応付けられたデータ構造であればよい。楽曲データ構造は周知であるので、図3には必要な部分だけを図示する。   The music data is reproduced from the first bar (hereinafter simply referred to as “first bar” or the like) in the data shown in FIG. 3 together with the lyrics data and the video data, and the second bar, the third bar, Playback proceeds to the fourth measure. Corresponding to the reproduction, display based on the lyrics data and the video data also proceeds. When there are a plurality of types of music data, each music data corresponds to a music name (for example, music ID used for music selection described above), MIDI data for music performance, lyrics data, and chord data for performance support. Any data structure may be used. Since the music data structure is well known, only the necessary parts are shown in FIG.

<コード譜情報>
コード譜情報は、楽曲データに対応付けられており、この例では、図中の第1小節が、コードC、コードG、コードAm、コードFとなっている。また第2小節、第3小節、及び第4小節も、それぞれ、同様のコード進行となっている(各小節互いに異なるコード進行であってもよい)。
<Cord score information>
The chord score information is associated with music data. In this example, the first bar in the figure is chord C, chord G, chord Am, chord F. The second measure, the third measure, and the fourth measure have the same chord progression (may be chord progressions different from each other).

<奏法情報>
奏法情報は、上記エレキギター4の奏法を指定するデータで、上記コード譜情報と同様、楽曲データに対応付けられている。この例では、図中の第1小節がミュート奏法、第2小節がミュート奏法でない通常の奏法、第3小節がミュート奏法、第4小節が上記通常の奏法、となっている。この奏法情報の詳細については後述する。
<Performance information>
The rendition style information is data for specifying the rendition style of the electric guitar 4 and is associated with the music data as with the chord score information. In this example, the first measure in the figure is a mute playing method, the second measure is a normal playing method that is not a mute playing method, the third measure is a mute playing method, and the fourth measure is the normal playing method. Details of the rendition style information will be described later.

なお、この例では、上記コード譜情報や奏法情報が楽曲データと同一ファイルにより構成されているが、これに限られず、コード譜情報や奏法情報が楽曲データと別ファイル(以下、コード譜情報ファイル)で構成され、同じ曲名で対応付けられていてもよい。
例えば、以下の構成と処理(1)〜(4)によって、コード譜情報や奏法情報が楽曲データと別ファイル(コード譜情報ファイル)であっても、コード譜情報や奏法情報が楽曲データと同一ファイルの場合と、同じ作用が得られる。
(1)コード譜・奏法情報ファイルとは、楽曲データの再生の時間進行に応じて出現するコード譜情報・奏法情報を、予め、楽曲の進行時間と対応付けたテーブルのファイルである。テーブルは具体的には、(演奏時間t1:コードEm、t2:コードBm、・・・最後の演奏時間tX:最後のコード譜情報(又は奏法情報)X)の情報が記録されている。
(2)上記コード譜・奏法情報ファイルを、楽曲データとともに、RAM49に記憶しておく。
(3)入力回路57から楽曲の再生が指定された場合に、CPU45は、楽曲データとともに、対応するコード譜・奏法情報ファイルもRAM49から読み出す。
(4)CPU45は、ROM47の実行プログラムに従い楽曲データを再生し、再生の進行時間に応じて、コード譜・奏法情報ファイルからコード譜情報・奏法情報を読み出す。具体的には、楽曲データの再生の進行時間がt1(秒)に到達した場合には、コード譜・奏法情報ファイルからt1に対応するコードEmを読み出し、t2(秒)の到達で、t2に対応するコードBmを読み出す。以下同様に、楽曲データの再生終了(tX)迄、コード譜・奏法情報ファイルから進行時間に応じたコード譜を読み出し続ける。
In this example, the chord score information and rendition style information are composed of the same file as the music data. However, the present invention is not limited to this, and the chord score information and rendition style information are separate from the music data (hereinafter referred to as the chord score information file). ) And may be associated with the same music title.
For example, the chord score information and the performance information are the same as the music data even if the chord score information and the performance information are separate from the music data (code music information file) by the following configurations and processes (1) to (4). The same effect is obtained as with files.
(1) A chord score / playing style information file is a file of a table in which chord score information / playing style information that appears in accordance with the progress of music data reproduction is associated with the progress time of the music in advance. Specifically, information of (performance time t1: chord Em, t2: chord Bm,... Last performance time tX: last chord score information (or rendition style information) X) is recorded in the table.
(2) The chord score / performance method information file is stored in the RAM 49 together with the music data.
(3) When the reproduction of the music is designated from the input circuit 57, the CPU 45 reads out the corresponding chord score / performance method information file from the RAM 49 together with the music data.
(4) The CPU 45 reproduces the music data in accordance with the execution program stored in the ROM 47, and reads out the chord score information / performance style information from the chord score / performance style information file according to the playback progress time. Specifically, when the music data reproduction progress time reaches t1 (seconds), the chord Em corresponding to t1 is read from the chord score / performance method information file, and when t2 (seconds) arrives, t2 is reached. Read the corresponding code Bm. Similarly, the chord score corresponding to the progress time is continuously read from the chord score / performance method information file until the music data reproduction ends (tX).

図4は、楽曲データの再生時に上記コード譜情報及び奏法情報に対応してモニタ13,14に表示される表示内容の一例を示す説明図である。この例では、上記図3に示した4小節分の楽曲データに対応した表示の例を示している。すなわち、モニタ13,14の表示内容は、上記4小節分の歌詞「からだでなく涙でなく 君の言葉で愛をきかせて」と、歌詞の上側に添えられたコード譜(第1小節:C,G,Am,F、第2小節:C,G,Am,F、第3小節:C,G,Am,F、第4小節:C,G,Am,F)と、上記同様に歌詞の上側に添えられたエレキギター4の奏法指定(第1小節:ミュート奏法、第2小節:通常奏法、第3小節:ミュート奏法、第4小節:通常奏法)、歌詞の下側に2小節分ずつ設けられた再生進行バーと、からなっている。再生進行バーは、楽曲データの再生の進行状態を帯状に延びる黒色部分によって示されている。エレキギター4のユーザは、楽曲データの再生時、モニタ13,14に表示される上記コード譜及び奏法指定を見て、再生進行バーの延び状態に対応してコード進行順にエレキギター4のコードを押さえることで、カラオケ楽曲のエレキギターパートを上記指定された奏法により容易に弾くことができる。   FIG. 4 is an explanatory diagram showing an example of display contents displayed on the monitors 13 and 14 in correspondence with the chord score information and the performance information when the music data is reproduced. In this example, a display example corresponding to the music data for four bars shown in FIG. 3 is shown. In other words, the contents displayed on the monitors 13 and 14 are the above four bars of lyrics “Let's love with your words instead of the body and tears” and the chord score attached to the upper side of the lyrics (first bar: C , G, Am, F, 2nd bar: C, G, Am, F, 3rd bar: C, G, Am, F, 4th bar: C, G, Am, F) Designation of the electric guitar 4 attached to the upper side (1st bar: mute performance, 2nd bar: normal performance, 3rd bar: mute performance, 4th bar: normal performance), 2 bars below the lyrics And a playback progress bar provided. The reproduction progress bar is indicated by a black portion extending in a strip shape to indicate the progress of reproduction of the music data. The user of the electric guitar 4 looks at the chord score displayed on the monitors 13 and 14 and the performance method designation at the time of reproducing the music data, and reads the chords of the electric guitar 4 in the order of the chord progression corresponding to the extension state of the reproduction progress bar. By pressing it, it is possible to easily play the electric guitar part of the karaoke music piece according to the above-mentioned playing method.

図4(a)は、第1小節(コードC)の冒頭から始まった上記楽曲データの再生が第1小節の途中(歌詞「からだでなく」の「な」の部分の直前)まで進行している状態であり、1つ目の再生進行バーの黒色部分が、上記第1小節の途中まで延びている。図4(b)は、上記図4(a)の状態からさらに再生が進み、第1小節が終了して、第2小節の途中の部分(歌詞「涙でなく」の「で」の部分)が再生されている状態であり、上記黒色部分が第2小節の途中まで延びている。図4(c)は、上記図4(b)の状態からさらに再生が進み、第2小節の終わりのコードFの部分(歌詞「涙でなく」の「く」の後の部分)が再生されている状態であり、上記黒色部分が第2小節の終わりまで延びている。   FIG. 4 (a) shows that the reproduction of the music data starting from the beginning of the first bar (code C) proceeds to the middle of the first bar (immediately before the “na” portion of the lyrics “body”). The black portion of the first reproduction progress bar extends partway through the first bar. In FIG. 4 (b), playback further proceeds from the state of FIG. 4 (a), the first measure ends, and the middle part of the second measure (the “de” portion of the lyrics “not tears”). Is being reproduced, and the black portion extends partway through the second bar. In FIG. 4C, the reproduction further proceeds from the state of FIG. 4B, and the part of the chord F at the end of the second measure (the part after “ku” of the lyrics “not tears”) is reproduced. The black portion extends to the end of the second bar.

<本実施形態の特徴>
ところで、カラオケ装置においてユーザの歌唱に対する採点を行う手法は既に広く行われている。ここで、上記のようにコード譜情報を用いてユーザが弦楽器(この例ではエレキギター4)の演奏を行うとき、その演奏に対する採点を行い採点結果を表示するようにすれば、ユーザにとっての楽しみをさらに増大させることができる。
<Features of this embodiment>
By the way, the method of scoring a user's song in a karaoke apparatus has already been widely performed. Here, when the user plays a stringed instrument (in this example, the electric guitar 4) using the chord score information as described above, if the player scores the performance and displays the score result, the enjoyment for the user is achieved. Can be further increased.

そこで、本実施形態では、ユーザがエレキギター4を演奏することで出力された演奏信号の周波数成分が、公知のFFT(高速フーリエ変換)の手法により抽出された後にクロマベクトル処理が行われることで、所定の時間区分ごとに、上記演奏に対応した実音高データ(詳細は後述)が生成される。その実音高データと、上記コード譜情報及び奏法情報に基づき生成された目標音高データ(詳細は後述)との一致度に基づき、上記採点が行われる。以下、その詳細を図5〜図10を用いて説明する。   Therefore, in this embodiment, the chroma vector processing is performed after the frequency component of the performance signal output by the user playing the electric guitar 4 is extracted by a known FFT (Fast Fourier Transform) technique. Actual pitch data (details will be described later) corresponding to the performance is generated for each predetermined time segment. The scoring is performed based on the degree of coincidence between the actual pitch data and the target pitch data (details will be described later) generated based on the chord score information and the performance information. The details will be described below with reference to FIGS.

<CPUの詳細機能>
上記の採点を行うために、本実施形態の上記CPU45が備える機能的構成を、図5に示す。図示のように、CPU45は、FFT処理部45a、特徴パラメータ取得部45b、実データバッファ45c、目標データ生成部45g、目標データバッファ45e、マッチング処理部45d、及び、採点結果生成部45f等の各機能部を備えている。
<Detailed functions of CPU>
FIG. 5 shows a functional configuration of the CPU 45 of the present embodiment in order to perform the above scoring. As illustrated, the CPU 45 includes an FFT processing unit 45a, a feature parameter acquisition unit 45b, an actual data buffer 45c, a target data generation unit 45g, a target data buffer 45e, a matching processing unit 45d, a scoring result generation unit 45f, and the like. It has a functional part.

前述のようにしてユーザのエレキギター4の演奏により出力され制御装置20に入力された演奏信号は、デジタルデータに変換された後にFFT処理部45a及び特徴パラメータ取得部45bに入力される。FFT処理部45aでは、入力されたサンプリングデータ列である演奏音声データを所定の時間区分(例えば186msec)毎に分割して高速フーリエ変換する。このFFTによって得られた周波数スペクトルは、FFT処理部45aから特徴パラメータ取得部45bに入力される。   The performance signal output by the user's performance of the electric guitar 4 and input to the control device 20 as described above is converted into digital data, and then input to the FFT processing unit 45a and the characteristic parameter acquisition unit 45b. The FFT processing unit 45a divides the performance audio data, which is the input sampling data sequence, into predetermined time segments (for example, 186 msec) and performs fast Fourier transform. The frequency spectrum obtained by the FFT is input from the FFT processing unit 45a to the feature parameter acquisition unit 45b.

特徴パラメータ取得部45bは、上記演奏音声データが入力されるとともに、FFT処理部45aから、周波数領域の情報である周波数スペクトルが入力される。特徴パラメータ取得部45bは、上記演奏音声データ及びその周波数スペクトルから、演奏音声データの様々な特徴を示す複数の特徴パラメータを取得し、公知のクロマベクトル化の手法によりその取得結果に対応した実音高データ(上記演奏信号に含まれる和音の各音を表すデータ)を生成し出力する。この特徴パラメータの取得は、上記時間区分ごとのフレームで行われる。具体的には、特徴パラメータ取得部45bは、上記入力された演奏音声データから時間領域の特徴パラメータを割り出す時間領域情報取得部45baと、FFT処理部45aから入力された周波数スペクトルから周波数領域の特徴パラメータを割り出す周波数領域情報取得部45bbを備えている。   The characteristic parameter acquisition unit 45b receives the performance sound data and also receives a frequency spectrum that is frequency domain information from the FFT processing unit 45a. The characteristic parameter acquisition unit 45b acquires a plurality of characteristic parameters indicating various characteristics of the performance sound data from the performance sound data and its frequency spectrum, and the actual pitch corresponding to the acquired result by a known chroma vectorization technique. Data (data representing each chord sound included in the performance signal) is generated and output. This feature parameter is acquired in the frame for each time segment. Specifically, the feature parameter acquisition unit 45b includes a time domain information acquisition unit 45ba that calculates a time domain feature parameter from the input performance audio data and a frequency domain feature from the frequency spectrum input from the FFT processing unit 45a. A frequency domain information acquisition unit 45bb for determining parameters is provided.

時間領域情報取得部45baは、入力された演奏音声データをFFT処理部45aと同期した上記時間区分ごとのフレームに分割し、各フレームごとに時間領域の特徴パラメータを取得する。領域情報取得部45baが取得する特徴パラメータの例としては、例えば、エネルギ、エネルギ変化度、持続時間等がある。周波数領域情報取得部45bbは、上記FFT処理部45aから入力された上記時間区分の長さの波形の周波数スペクトルから周波数領域の特徴パラメータを取得する。周波数領域情報取得部45bbが取得する特徴パラメータの例としては、例えば、ピッチ、倍音周波数、倍音レベル、倍音位相、等がある。これらのピッチ(ギターの音階を示す音高)、その倍音周波数、倍音レベルなどのパラメータは、後述する図6の表示に用いられる。   The time domain information acquisition unit 45ba divides the input performance sound data into frames for each of the time segments synchronized with the FFT processing unit 45a, and acquires time domain feature parameters for each frame. Examples of characteristic parameters acquired by the region information acquisition unit 45ba include energy, energy change, duration, and the like. The frequency domain information acquisition unit 45bb acquires frequency domain feature parameters from the frequency spectrum of the waveform having the length of the time segment input from the FFT processing unit 45a. Examples of characteristic parameters acquired by the frequency domain information acquisition unit 45bb include, for example, pitch, harmonic frequency, harmonic level, harmonic phase, and the like. These pitch parameters (pitch indicating the scale of the guitar), overtone frequency, overtone level, and other parameters are used for the display in FIG.

上記のようにして時間領域情報取得部45ba及び周波数領域情報取得部45bbで取得された特徴パラメータに基づき生成され出力された上記実音高データは、実データバッファ45cに入力される。実データバッファ45cは、入力された上記実音高データを時間情報(タイムスタンプ)を付して記憶する。   The actual pitch data generated and output based on the characteristic parameters acquired by the time domain information acquisition unit 45ba and the frequency domain information acquisition unit 45bb as described above are input to the actual data buffer 45c. The actual data buffer 45c stores the input actual pitch data with time information (time stamp).

一方、目標データ生成部45gには、上記カラオケ楽曲データに同期した上記コード譜情報及び奏法情報が入力される。目標データ生成部45gは、それらコード譜情報及び奏法情報に基づき、目標音高データ(本実施形態では、ミュート奏法用目標音高データと通常奏法用目標音高データとの2種類がある。詳細は後述)を生成する。この目標音高データは、例えば、コード譜情報に含まれる各コードの和音を構成する複数の音に対応したデータ(各コードのルート音と当該ルート音に対して5度上の音程となる音とからなるパワーコードのデータであってもよい)である。生成された目標音高データは、目標データバッファ45eへ出力されて目標データバッファ45eに記憶される。   On the other hand, the chord score information and performance information synchronized with the karaoke song data are input to the target data generating unit 45g. The target data generation unit 45g has two types of target pitch data (in this embodiment, target pitch data for mute performance and target pitch data for normal performance) based on the chord score information and performance information. Is generated later. This target pitch data is, for example, data corresponding to a plurality of sounds constituting a chord of each chord included in the chord information (a sound having a pitch 5 degrees higher than the root sound of each chord and the root sound) It may be power code data consisting of The generated target pitch data is output to the target data buffer 45e and stored in the target data buffer 45e.

マッチング処理部45dは、上述のようにして実データバッファ45cに記憶された実音高データと、これに対応する、目標データバッファ45eに記憶された上記目標音高データと、を公知の手法で比較し、一致度を例えば演算により数値的に算出する。算出された一致度は採点結果生成部45fへ出力される。なお、一致度を演算によって算出するのではなく、予め複数の区分に分けられ各区分ごとに一致度の値が対応づけられたテーブルが用意されており、上記比較結果が当該テーブルのどの区分に属するかによって一致度を決定するようにしてもよい。   The matching processor 45d compares the actual pitch data stored in the actual data buffer 45c as described above with the corresponding target pitch data stored in the target data buffer 45e by a known method. The degree of coincidence is calculated numerically, for example, by calculation. The calculated degree of coincidence is output to the scoring result generation unit 45f. In addition, instead of calculating the degree of coincidence by calculation, a table is prepared in advance, which is divided into a plurality of categories and the value of the degree of coincidence is associated with each category, and the comparison result is assigned to which category of the table. The degree of coincidence may be determined depending on whether it belongs.

採点結果生成部45fは、マッチング処理部18から入力された上記一致度に基づいてユーザによる演奏(この例ではエレキギター4の演奏)を評価し、一致度が高いほど演奏に高い評価をつける。採点結果生成部45fは、この評価を例えば100点を満点とした得点として採点し、採点結果をモニタ13,14に入力する。モニタ13,14は、入力された採点結果を表示する。   The scoring result generation unit 45f evaluates the performance by the user (in this example, the performance of the electric guitar 4) based on the degree of coincidence input from the matching processing unit 18, and gives a higher evaluation to the performance as the degree of coincidence increases. The scoring result generation unit 45f scores this evaluation as a score, for example, with 100 points being a perfect score, and inputs the scoring result to the monitors 13 and 14. The monitors 13 and 14 display the input scoring results.

<弦楽器の奏法>
ところで、一般に、弦楽器(特に上記エレキギター4)には、各弦が略同時に発音されたり(いわゆるストローク奏法)、各弦が経時的に順を追って発音されたり(いわゆるアルペジオ奏法)等の種々の奏法がある。特に、エレキギター4により比較的テンポの速い(例えばロック調の)楽曲が演奏される場合、楽曲のドライブ感(ノリが良い雰囲気)を強調するために、各弦をミュート状態としつつ刻むように発音させて演奏する(いわゆるミュート奏法)場合がある。このミュート奏法では、各弦の発音時間が極めて短く、またピックが弦をはじいた後に弦の振動がユーザの手により強制減衰させられることから、それ以外の通常の奏法(上記ストローク奏法やアルペジオ奏法等)とは著しく異なる、独特の発音態様となる。したがって、上記ミュート奏法が行われるときに、上記通常の奏法と同様の処理、例えば、奏法に関係なく一律の上記目標音高データを用いて上記一致度の算出又は決定(以下適宜、これらをまとめて単に「決定」と称する)を行った場合、正確な処理(この例では採点)を行うことが困難となる。
<Performance of stringed instruments>
By the way, generally, in stringed instruments (especially the electric guitar 4), each string is pronounced substantially simultaneously (so-called stroke playing method), and each string is pronounced in order with time (so-called arpeggio playing method). There is a playing style. In particular, when a music with a relatively fast tempo (for example, a rock tone) is played by the electric guitar 4, each string is muted while being muted in order to emphasize the drive feeling of the music (good atmosphere). There is a case of playing (so-called mute playing method). In this mute playing method, the sounding time of each string is extremely short, and after the pick hits the string, the vibration of the string is forcibly attenuated by the user's hand, so other normal playing methods (the above-mentioned stroke playing method and arpeggio playing method) Etc.) and a distinctive pronunciation. Therefore, when the mute performance method is performed, the same processing as the normal performance method, for example, calculation or determination of the degree of coincidence using the uniform target pitch data regardless of the performance method (hereinafter, these are summarized as appropriate). If it is simply referred to as “determination”, accurate processing (scoring in this example) becomes difficult.

<ミュート奏法及び通常奏法における演奏信号の違い>
上述したミュート奏法及び通常奏法における演奏信号の違いについて、図6〜図9を用いて説明する。
<Difference in performance signal between mute performance and normal performance>
Differences in performance signals between the mute performance method and the normal performance method will be described with reference to FIGS.

<通常奏法 単音の演奏信号>
例えば、通常奏法での演奏信号の一例として、エレキギター4の6弦の3フレットを押さえて「G」の音を演奏したときの、演奏信号をFFT処理したスペクトル画像を図6に示す。横軸は信号のレベルを表し、「55Hz以上110Hz未満」の帯域、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域、「440Hz以上880Hz未満」の帯域、「880Hz以上1.76KHz未満」の帯域、「1.76KHz以上3.52KHz未満」の帯域、「3.52KHz以上」の帯域、にそれぞれ、入力された音高に対する倍音周波数、倍音レベルの関係が判るようにオクターブ単位で区分して示している。また、縦軸には「A」「A#」「B」「B#」「C」「C#」「D」「D#」「E」「F」「F#」「G」「G#」の各音階(音高)を取って表している。
<Normal playing method Single tone performance signal>
For example, as an example of a performance signal in the normal playing method, FIG. 6 shows a spectrum image obtained by performing FFT processing on the performance signal when the “G” sound is played by pressing the 6th string 3 fret of the electric guitar 4. The horizontal axis represents the signal level. The band of “55 Hz to less than 110 Hz”, the band of “110 Hz to less than 220 Hz”, the band of “220 Hz to less than 440 Hz”, the band of “440 Hz to less than 880 Hz”, and “880 Hz to 1. Octave units so that the relationship between harmonic frequency and harmonic level for the input pitch can be found in the band below 76KHz, the band above 1.76KHz and below 3.52KHz, and the band above 3.52KHz. These are shown separately. The vertical axis indicates “A”, “A #”, “B”, “B #”, “C”, “C #”, “D”, “D #”, “E”, “F”, “F #”, “G”, and “G #”. , Each scale (pitch).

図示のように、「55Hz以上110Hz未満」の帯域、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域、の3つにおいて、「G」の音階のスペクトルが比較的大きなレベルで生じている。また「440Hz以上880Hz未満」の帯域でも、「G」の音階のスペクトルが比較的小さなレベルで生じている。   As shown in the figure, the spectrum of the scale of “G” has a relatively large level in three bands of “55 Hz to less than 110 Hz”, “110 Hz to less than 220 Hz”, and “220 Hz to less than 440 Hz”. Has occurred. Even in a band of “440 Hz or more and less than 880 Hz”, the spectrum of the “G” scale occurs at a relatively small level.

その一方で、「220Hz以上440Hz未満」の帯域において「D」の音階のスペクトルがかなり大きなレベルで生じている(枠線ア参照)。これは、弦楽器に固有の倍音の影響が現れたものである。また、同様に倍音の影響で、「440Hz以上880Hz未満」の帯域でも、「D」の音階のスペクトルが比較的小さなレベルで生じている。   On the other hand, in the band of “220 Hz or more and less than 440 Hz”, the spectrum of the “D” scale is generated at a considerably large level (see the frame line a). This is the manifestation of the harmonic overtone specific to stringed instruments. Similarly, due to the influence of overtones, the spectrum of the scale of “D” occurs at a relatively small level even in a band of “440 Hz or more and less than 880 Hz”.

なお、上記以外のノイズとして、「440Hz以上880Hz未満」の帯域において「B」の音階のスペクトルと「F」の音階のスペクトルがある程度のレベルで生じている。   As noise other than the above, the spectrum of the scale of “B” and the spectrum of the scale of “F” are generated at a certain level in a band of “440 Hz or more and less than 880 Hz”.

<ミュート奏法 単音の演奏信号>
上記同様、6弦の3フレットを押さえて、ミュート奏法で「G」の音を演奏したときの、演奏信号をFFT処理したスペクトル画像を図7に示す。
<Mute playing signal>
Similarly to the above, FIG. 7 shows a spectrum image obtained by performing FFT processing on the performance signal when the “G” sound is played with the mute playing method while pressing the 6th string 3rd fret.

図7に示すように、このスペクトル画像は、(同一音高の発音であるにもかかわらず)図6に示したスペクトル画像とは異なる点が含まれる。例えば、図7に示すミュート奏法では、「55Hz以上110Hz未満」の帯域及び「110Hz以上220Hz未満」の帯域の2つにおける、「G」の音階のスペクトルが、上記通常奏法のときよりも大きなレベルとなっている。また、「220Hz以上440Hz未満」の帯域の「G」の音階のスペクトルは、上記通常奏法のときよりも小さなレベルとなり、「440Hz以上880Hz未満」の帯域の「G」の音階のスペクトルは、ほとんどなくなっている。   As shown in FIG. 7, this spectral image includes differences from the spectral image shown in FIG. 6 (although it has the same pitch). For example, in the mute performance method shown in FIG. 7, the spectrum of the scale of “G” in two bands of “55 Hz to less than 110 Hz” and “110 Hz to less than 220 Hz” is higher than that in the normal performance method. It has become. Further, the spectrum of the “G” scale in the “220 Hz or more and less than 440 Hz” band is smaller than that in the normal performance, and the spectrum of the “G” scale in the “440 Hz or more and less than 880 Hz” band is almost the same. It is gone.

一方、図7に示すミュート奏法では、上記倍音の影響を表す、「220Hz以上440Hz未満」の帯域における「D」の音階のスペクトルのレベルが上記通常奏法のときよりも小さくなり(枠線イ参照)、「440Hz以上880Hz未満」の帯域では、「D」の音階のスペクトルはほとんどなくなっている。また、上記ノイズとしての、「440Hz以上880Hz未満」の帯域における、「B」の音階のスペクトルと「F」の音階のスペクトルも、上記通常奏法のときよりもかなり小さくなっている。   On the other hand, in the mute playing method shown in FIG. 7, the level of the spectrum of “D” scale in the band “220 Hz or more and less than 440 Hz” representing the influence of the above harmonics is smaller than that in the normal playing method (see frame a). ) In the band of “440 Hz or more and less than 880 Hz”, the spectrum of the scale of “D” almost disappears. In addition, the spectrum of the scale of “B” and the spectrum of the scale of “F” in the band of “440 Hz or more and less than 880 Hz” as the noise are considerably smaller than those in the normal performance method.

<通常奏法 和音の演奏信号>
例えば、通常奏法での演奏信号の一例として、エレキギター4の6弦の3フレットと5弦5フレットとを押さえて「コードG」をパワーコードで演奏したときの、演奏信号をFFT処理したスペクトル画像を図8に示す。
<Normal performance chord performance signal>
For example, as an example of a performance signal in the normal playing method, a spectrum obtained by performing FFT processing on a performance signal when “Cord G” is played with a power chord while pressing the 6th string 3rd fret and the 5th string 5th fret of the electric guitar 4 An image is shown in FIG.

図示のように、まず、「55Hz以上110Hz未満」の帯域、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域(枠線ウ参照)、の3つにおいて、「G」の音階のスペクトルが比較的大きなレベルで生じている。また「440Hz以上880Hz未満」の帯域でも、「G」の音階のスペクトルが比較的小さなレベルで生じている。   As shown in the figure, first, in a band of “55 Hz or more and less than 110 Hz”, a band of “110 Hz or more and less than 220 Hz”, and a band of “220 Hz or more and less than 440 Hz” (see frame C), the scale of “G” Of the spectrum occurs at a relatively large level. Even in a band of “440 Hz or more and less than 880 Hz”, the spectrum of the “G” scale occurs at a relatively small level.

また、「110Hz以上220Hz未満」の帯域、「220Hz以上440Hz未満」の帯域(枠線エ参照)、の2つにおいて、「D」の音階のスペクトルが比較的大きなレベルで生じている。また「440Hz以上880Hz未満」の帯域でも、「D」の音階のスペクトルが比較的小さなレベルで生じている。   In addition, the spectrum of the scale of “D” is generated at a relatively large level in two bands of “110 Hz to less than 220 Hz” and “220 Hz to less than 440 Hz” (see frame line D). Even in the band of “440 Hz or more and less than 880 Hz”, the spectrum of “D” scale occurs at a relatively small level.

なお、上記以外のノイズとして、「440Hz以上880Hz未満」の帯域において、「F#」の音階のスペクトル、「F」の音階のスペクトル、「B」の音階のスペクトル、「A」の音階のスペクトル、がある程度のレベルで生じている。また、「880Hz以上1.76KHz未満」の帯域において、「A」の音階のスペクトルがある程度のレベルで生じている。   As noise other than the above, in the band of “440 Hz or more and less than 880 Hz”, the spectrum of the scale of “F #”, the spectrum of the scale of “F”, the spectrum of the scale of “B”, the spectrum of the scale of “A” , Has occurred at a certain level. In the band of “880 Hz or more and less than 1.76 KHz”, the spectrum of the scale of “A” occurs at a certain level.

<ミュート奏法 和音の演奏信号>
上記同様、6弦の3フレットと5弦5フレットとを押さえて、ミュート奏法で「コードG」をパワーコードで演奏したときの、演奏信号をFFT処理したスペクトル画像を図9に示す。
<Mute playing chord performance signal>
Similarly to the above, FIG. 9 shows a spectrum image obtained by performing FFT processing on the performance signal when the “chord G” is played with the power chord by mute playing while pressing the 6th string 3rd fret and the 5th string 5th fret.

図9に示すように、このスペクトル画像は、(同一運指によるパワーコードの発音であるにもかかわらず)図8に示したスペクトル画像とは異なる点が含まれる。例えば、図9に示すミュート奏法では、「110Hz以上220Hz未満」の帯域における、「G」の音階のスペクトルが、上記通常奏法のときよりもかなり大きなレベルとなっている。これに対して、「55Hz以上110Hz未満」の帯域及び220Hz以上440Hz未満」の帯域の「G」の音階のスペクトルは、上記通常奏法のときよりも小さなレベルとなり(枠線オ参照)、440Hz以上880Hz未満」の帯域の「G」の音階のスペクトルは、ほとんどなくなっている。   As shown in FIG. 9, this spectral image includes points different from the spectral image shown in FIG. 8 (although the power code is generated by the same fingering). For example, in the mute playing method shown in FIG. 9, the spectrum of the scale of “G” in the band “110 Hz or more and less than 220 Hz” is considerably larger than that in the normal playing method. On the other hand, the spectrum of the “G” scale in the “55 Hz to less than 110 Hz” band and the “220 Hz to less than 440 Hz” band is at a lower level than that in the above-described normal performance (see frame line o), 440 Hz or more. The spectrum of the scale of “G” in the band “less than 880 Hz” is almost gone.

また、図9に示すミュート奏法では、「220Hz以上440Hz未満」の帯域における「D」の音階のスペクトルのレベルが上記通常奏法のときよりもかなり小さくなり(枠線カ参照)、「110Hz以上220Hz未満」の帯域における「D」の音階のスペクトルのレベルも上記通常奏法のときより小さくなっている。そして、「440Hz以上880Hz未満」の帯域では、「D」の音階のスペクトルはほとんどなくなっている。また、上記ノイズとしての、「440Hz以上880Hz未満」の帯域における、「F#」の音階のスペクトル、「F」の音階のスペクトル、「B」の音階のスペクトル、及び「A」の音階のスペクトルも、上記通常奏法のときより小さくなっている。   Further, in the mute playing method shown in FIG. 9, the spectrum level of the scale “D” in the band “220 Hz or more and less than 440 Hz” is considerably smaller than that in the normal playing method (see the frame line K). The level of the spectrum of the scale of “D” in the “less than” band is also smaller than that in the normal playing method. In the band of “440 Hz or more and less than 880 Hz”, the spectrum of the scale of “D” is almost lost. Further, the spectrum of the scale of “F #”, the spectrum of the scale of “F”, the spectrum of the scale of “B”, and the spectrum of the scale of “A” in the band of “440 Hz or more and less than 880 Hz” as the noise. Is smaller than that in the normal playing method.

<奏法に応じた2種類の目標音高データの生成>
上記のような、奏法による演奏信号の違いに基づき、本実施形態においては、上記目標音高データとして、上記通常奏法に対応し図6及び図8を用いて上述したようなスペクトル特性(例えば特定帯域における倍音成分のレベルが大きい)を加味した通常奏法用目標音高データと、上記ミュート奏法に対応し図7及び図9を用いて上述したようなスペクトル特性(例えば特定帯域における倍音成分のレベルが小さい。かつノイズが少ない)を加味したミュート奏法用目標音高データと、の2つが生成される。すなわち、上記図5に示したように、CPU45の上記目標データ生成部45gは、前述のようにして入力されたコード譜情報に基づき上記ミュート奏法用目標音高データを生成するミュート奏法用目標データ生成部45g1と、上記入力されたコード譜情報に基づき上記通常奏法用目標音高データを生成する通常奏法用目標データ生成部45g2と、を備えている。そして、本実施形態では、上記楽曲データに対応付けられる奏法情報に応じた、上記ミュート奏法用目標データ生成部45gからのミュート奏法用目標音高データ、若しくは、通常奏法用目標データ生成部45g2からの通常奏法用目標音高データ、が選択的に切り替えられて目標データバッファ45eへと入力され、記憶される。したがって、目標データバッファ45eには、1つの楽曲データに対応づけられた目標音高データであって、奏法指定がミュート奏法である楽曲部位には上記ミュート奏法用目標音高データが組み込まれ、奏法指定が通常奏法である楽曲部位には上記通常奏法用目標音高データが組み込まれた、目標音高データが記憶される。そして、この目標音高データと、(ユーザがパワーコードを用いて演奏した)上記実音高データとが、上記マッチング処理部45dにより比較される。この手法を図10を用いて説明する。
<Generation of two types of target pitch data according to the playing style>
Based on the difference in performance signal depending on the performance method as described above, in the present embodiment, as the target pitch data, the spectrum characteristic (for example, the specified pitch data) corresponding to the normal performance method described above with reference to FIGS. Normal pitch target pitch data that takes into account the high harmonic component level in the band and the spectrum characteristics (for example, the level of the harmonic component in a specific band) described above with reference to FIGS. And mute performance target pitch data in consideration of small noise and low noise). That is, as shown in FIG. 5, the target data generating unit 45g of the CPU 45 generates mute performance target data for generating the mute performance target pitch data based on the chord score information input as described above. A generating unit 45g1 and a normal rendition style target data generating unit 45g2 that generates the normal rendition style target pitch data based on the input chord score information are provided. In the present embodiment, the mute performance target pitch data from the mute performance target data generator 45g or the normal performance target data generator 45g2 according to the performance information associated with the music data. The normal performance style target pitch data is selectively switched and input to the target data buffer 45e and stored therein. Therefore, the target pitch data for the mute performance method is incorporated in the target data buffer 45e, which is the target pitch data associated with one piece of music data and the performance method designation is the mute performance method. The target pitch data into which the above-mentioned target pitch data for normal performance is incorporated is stored in the musical piece portion designated as the normal performance. Then, the target pitch data is compared with the actual pitch data (performed by the user using a power code) by the matching processing unit 45d. This method will be described with reference to FIG.

<2種類の目標音高データを用いた比較>
図10において、この例では、上記図3、図4に示した楽曲データにおける、前述した、コードC→コードG→コードAm→コードFかつミュート奏法指定の第1小節、コードC→コードG→コードAm→コードFかつ通常奏法指定の第2小節、コードC→コードG→コードAm→コードFかつミュート奏法指定の第3小節、コードC→コードG→コードAm→コードFかつ通常奏法指定の第4小節、・・・の順のコード進行で楽曲が再生され、ユーザが当該再生に合わせてエレキギター4を演奏した状態を示している。
<Comparison using two types of target pitch data>
10, in this example, in the music data shown in FIGS. 3 and 4, the above-described first measure of chord C → chord G → chord Am → chord F and mute playing method designation, chord C → chord G → Code Am-> Code F and 2nd bar with normal performance specification, Code C-> Code G-> Code Am-> Code F-> 3rd bar with mute performance specification, Code C-> Code G-> Code Am-> Code F-Normal performance method specification The music is played by the progression of chords in the order of the fourth measure,..., And the user has played the electric guitar 4 in accordance with the playback.

上記のようなコード進行に対応する上記目標音高データは、前述したように、ミュート奏法指定の区間にはミュート奏法用目標音高データであり、通常奏法指定の区間には通常奏法用目標音高データとなっている。そして、それらミュート奏法用目標音高データ及び通常奏法用目標音高データのいずれもが、この例では、(ユーザがパワーコードにより演奏することを前提として)各コードのルート音と当該ルート音に対して5度上の音程となる音とからなる上記パワーコードのデータとなっている。   As described above, the target pitch data corresponding to the chord progression as described above is the mute performance target pitch data in the mute performance-designated section, and the normal performance target sound in the normal performance-designated section. High data. Then, both the target pitch data for mute performance and the target pitch data for normal performance are, in this example, the root sound of each chord and the root sound (assuming that the user performs with the power chord). On the other hand, the power code data is composed of a sound having a pitch 5 degrees higher.

すなわち、第1小節において、コードCに対しては、4弦の5フレットと5弦の3フレットとの2箇所を押さえる運指態様により発音される音高が、指定されている(すなわち図10中では便宜的にTAB譜で表記しているが、実際の目標音高データはこのTAB譜により表現される特定の音高データとして設定されている。以下同様)。同様に、コードGに対しては5弦の5フレットと6弦の3フレットとが指定され、コードAmに対しては5弦の7フレットと6弦の5フレットとが指定され、コードFに対しては5弦の3フレットと6弦の1フレットとが指定されている。なお、この例では上述したように第2小節〜第4小節も第1小節と全く同一のコード進行であることから、同一の運指態様が指定されている。   In other words, in the first measure, for the chord C, a pitch that is pronounced in a fingering manner of pressing two places of the 4th string 5th fret and the 5th string 3rd fret is designated (that is, FIG. 10). For convenience, the TAB score is used for convenience, but the actual target pitch data is set as specific pitch data expressed by this TAB score (the same applies hereinafter). Similarly, for chord G, the 5th fret of the 5th string and the 3rd fret of the 6th string are designated, and for the chord Am, the 7th fret of the 5th string and the 5th fret of the 6th string are designated. On the other hand, 3rd fret of 5 strings and 1st fret of 6 strings are designated. In this example, as described above, the second bar to the fourth bar have the same chord progression as the first bar, so the same fingering mode is designated.

そして、上記第1小節〜第4小節において、ユーザによるエレキギター4の演奏による演奏信号に基づき、上述のようにしてFFT処理による周波数成分の抽出及びクロマベクトル処理が行われた結果、対応する実音高データが生成されている。   Then, in the first bar to the fourth bar, as a result of performing frequency component extraction and chroma vector processing by FFT processing as described above on the basis of the performance signal by the user playing the electric guitar 4, the corresponding real sound is obtained. High data is being generated.

この例では、ユーザのエレキギター4の演奏により、第1小節において、コードCに対しては、4弦の6フレットと5弦の3フレットとの2箇所を押さえる運指態様により発音される音高のデータが、入力された演奏信号から生成されている(すなわち、上記目標音高データと同様、実際の実音高データは特定の音高データとして生成される。図10中ではそのデータを便宜的にTAB譜で表記しているのみである。以下同様)。その後、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の7フレットと6弦の5フレットとが押さえられ、コードFに対しては5弦の3フレットと6弦の1フレットとが押さえられている。   In this example, when the user plays the electric guitar 4, in the first measure, for the chord C, the sound that is generated in a fingering manner that presses two places of the 6th fret of the 4th string and the 3rd fret of the 5th string High data is generated from the input performance signal (that is, the actual actual pitch data is generated as specific pitch data in the same manner as the target pitch data. In FIG. This is only expressed in TAB notation. After that, for chord G, 5th fret of 5 strings and 3rd fret of 6th string are pressed, for chord Am, 7th fret of 5th string and 5th fret of 6th string are pressed, and for chord F The 5th string 3rd fret and the 6th string 1st fret are held down.

上記の結果、第1小節において、上記目標音高データ(詳細にはこの例では上記ミュート奏法用目標音高データ)と上記実音高データとが比較されることで、最初のコードCにおいて、目標音高データにおける4弦の5フレットの指定に対し実音高データでは4弦の6フレットが押さえられ、これのみが不一致データとなっていることがわかる。このような一致度に対応して採点が行われことにより、この例では『80点』という採点結果となっている。   As a result, in the first bar, the target pitch data (specifically, the target pitch data for mute performance in this example) and the actual pitch data are compared with each other in the first chord C. It can be seen that the 6th fret of the 4th string is pressed in the actual pitch data while only the 5th fret of the 4th string is specified in the pitch data, and this is the only discrepancy data. In this example, the scoring result is “80 points” by scoring according to the degree of coincidence.

同様に、第2小節においては、ユーザのエレキギター4の演奏により、コードCに対しては、4弦の5フレットと5弦の3フレットとが押さえられ、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の7フレットと6弦の5フレットとが押さえられ、コードFに対しては5弦の3フレットと6弦の1フレットとが押さえられている。この結果、第2小節において、上記目標音高データ(詳細にはこの例では上記通常奏法用目標音高データ)と上記実音高データとが比較されることで、上記のような不一致データがないことがわかる。このような一致度(=100%)に対応して採点が行われことにより、この例では『100点』という採点結果となっている。   Similarly, in the second measure, by playing the electric guitar 4 by the user, for the chord C, the four-string five-fret and the five-string three-fret are pressed, and for the chord G, the five-string fret. 5th fret and 6th string 3rd fret are pressed, 5th string 7th fret and 6th string 5th fret are pressed against chord Am, 5th string 3rd fret and 6th string are pressed against chord F One fret is held down. As a result, in the second measure, the target pitch data (specifically, the target pitch data for normal performance in this example) is compared with the actual pitch data, so that there is no mismatch data as described above. I understand that. By scoring corresponding to such a degree of coincidence (= 100%), in this example, the scoring result is “100 points”.

また、第3小節においては、ユーザのエレキギター4の演奏により、コードCに対しては、4弦の5フレットと5弦の3フレットとが押さえられ、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の6フレットと6弦の4フレットとが押さえられ、コードFに対しては5弦の2フレットと6弦の1フレットとが押さえられている。この結果、第3小節において、上記目標音高データ(詳細にはこの例では上記ミュート奏法用目標音高データ)と上記実音高データとが比較されることで、3番目のコードAmにおいて、目標音高データにおける5弦の7フレットの指定に対し実音高データでは5弦の6フレットが押さえられ、目標音高データにおける6弦の5フレットの指定に対し実音高データでは6弦の4フレットが押さえられ、不一致データとなっていることがわかる。また、4番目のコードFにおいて、目標音高データにおける5弦の3フレットの指定に対し実音高データでは5弦の2フレットが押さえられ、不一致データとなっていることがわかる。このような一致度に対応して採点が行われことにより、この例では『60点』という採点結果となっている。   In the third measure, the user plays the electric guitar 4 and the chord C is pressed with the 5th fret of the 4th string and the 3rd fret of the 5th string. The fret and the 6th string 3rd fret are pressed. For the chord Am, the 5th string 6th fret and the 6th string 4th fret are pressed. For the chord F, the 5th string 2nd fret and the 6th string 1st. The fret is held down. As a result, in the third measure, the target pitch data (specifically, the target pitch data for the mute playing method in this example) and the actual pitch data are compared with each other in the third chord Am. In comparison to the specification of the 5th string 7th fret in the pitch data, the 5th string 6th fret is pressed in the actual pitch data, and in the target pitch data the 6th string 4th fret is specified. It can be seen that the data is inconsistent. In addition, in the fourth chord F, it can be seen that the 2nd fret of the 5th string is pressed in the actual pitch data while the 5th string of the 3rd fret is specified in the target pitch data. In this example, a scoring result of “60 points” is obtained by scoring corresponding to the degree of coincidence.

さらに、第4小節においては、ユーザのエレキギター4の演奏により、コードCに対しては、4弦の5フレットと5弦の3フレットとが押さえられ、コードGに対しては5弦の5フレットと6弦の3フレットとが押さえられ、コードAmに対しては5弦の7フレットと6弦の5フレットとが押さえられ、コードFに対しては5弦の3フレットと6弦の1フレットとが押さえられている。この結果、第4小節において、上記目標音高データ(詳細にはこの例では上記通常奏法用目標音高データ)と上記実音高データとが比較されることで、上記のような不一致データがないことがわかる。このような一致度(=100%)に対応して採点が行われことにより、上記第2小節と同様、『100点』という採点結果となっている。   Further, in the fourth measure, the user plays the electric guitar 4 and the chord C is pressed with the 5th fret of the 4th string and the 3rd fret of the 5th string. Fret and 6th string 3rd fret are pressed, 5th string 7th fret and 6th string 5th fret are pressed against chord Am, 5th string 3rd fret and 6th string 1st for chord F The fret is held down. As a result, in the fourth measure, the target pitch data (specifically, the target pitch data for normal performance in this example) is compared with the actual pitch data, so that there is no mismatch data as described above. I understand that. By scoring according to such a degree of coincidence (= 100%), a scoring result of “100 points” is obtained as in the second measure.

なお、上記の例では、上記奏法情報に基づき、目標データ生成部45gが、通常奏法用目標音高データ若しくはミュート奏法用目標音高データを選択的に目標バッファデータ45eへ出力され記憶されていた。すなわち比較に用いる目標音高データが、予め、通常奏法指定区間では通常奏法用目標音高データで構成されると共にミュート奏法指定区間ではミュート奏法用目標音高データで構成されており、マッチング処理部45dでは、その1つの目標音高データを用いて上記比較を行い、一致度が算出された。しかしながら、これに限られない。すなわち、目標データ生成部45gからは、通常奏法用目標音高データとミュート奏法用目標音高データとの両方が、例えば目標バッファデータ45eの別領域に個別に出力され記憶されてもよい。この場合は、マッチング処理部45dでは、それら2つの目標音高データを用いてそれぞれ上記比較を行い、それぞれについて一致度を算出し、それら算出された2つの一致度(通常奏法用目標音高データに基づく一致度とミュート奏法用目標音高データに基づく一致度)のうち、より高い値となったほうを最終的な一致度としてもよい。この場合は、通常奏法用目標音高データとミュート奏法用目標音高データとの両方が予め用意されていれば足り、上記奏法情報は必要ではない。   In the above example, the target data generating unit 45g selectively outputs the target pitch data for normal performance or the target pitch data for mute performance to the target buffer data 45e based on the performance information. . In other words, the target pitch data used for comparison is composed of the target pitch data for the normal performance style in the normal performance style designation section and the target pitch data for the mute performance style designation section in advance. In 45d, the above comparison was performed using the one target pitch data, and the degree of coincidence was calculated. However, it is not limited to this. That is, both the normal performance target pitch data and the mute performance target pitch data may be individually output and stored in, for example, another area of the target buffer data 45e from the target data generation unit 45g. In this case, the matching processing unit 45d performs the above comparison using the two target pitch data, calculates the degree of coincidence for each of them, and calculates the two degrees of coincidence (the target pitch data for normal performance method). It is good also as a final coincidence which becomes a higher value among the coincidence based on mute and target pitch data for mute performance method). In this case, it is sufficient if both the target performance pitch data for normal performance and the target pitch data for mute performance are prepared in advance, and the above performance information is not necessary.

また、上記の例では、ミュート奏法による演奏区間(上記の例では第1小節、第3小節)、通常奏法による演奏区間(上記の例では第2小節、第4小節)、のいずれにおいても、和音(上記の例では2音によるパワーコード)全体で一致度の算出を行い、いずれの区間においても一部でも一致しない音があれば減点対象となったが、これに限られない。すなわち、ミュート奏法による演奏区間についてのみ、上記不一致による減点対象から除外するようにしてもよい。   Also, in the above example, in the performance section using the mute performance (first and third measures in the above example) and the performance section using the normal performance (second and fourth measures in the above example), The degree of coincidence is calculated for the entire chord (power code with two sounds in the above example), and if there is a sound that does not match even in any section, it is subject to deduction, but this is not restrictive. That is, only the performance section by the mute playing method may be excluded from the deduction points due to the mismatch.

上記のような採点結果生成部45fによる採点結果に応じて、上記モニタ13,14に表示される表示例を図11(a)〜(c)に示す。図11(a)は採点結果が100点であった場合(通常奏法であることを併せて表示)の例、図11(a)は採点結果が100点であった場合(ミュート奏法であることを併せて表示)の例、図11(b)は採点結果が60点であった場合(ミュート奏法であることを併せて表示)の例、図11(c)は採点結果が0点であった場合の例である。これ以外にも、楽曲データ再生の進行中の時間区分毎に、ユーザによるギター演奏の採点結果表示に加え、歌詞、コード譜も併せて表示するなど、各得点の値に応じて種々の表示態様が予め用意されている(図示省略)。   11A to 11C show display examples displayed on the monitors 13 and 14 in accordance with the scoring result by the scoring result generation unit 45f as described above. FIG. 11A shows an example when the scoring result is 100 points (displayed together with the normal performance method), and FIG. 11A shows an example when the scoring result is 100 points (mute performance method). 11 (b), FIG. 11 (b) shows an example when the scoring result is 60 points (displayed together with mute performance), and FIG. 11 (c) shows a scoring result of 0 points. This is an example. In addition to this, in addition to displaying the result of scoring the guitar performance by the user for each time segment in which music data playback is in progress, various display modes such as lyrics and chord scores are also displayed. Are prepared in advance (not shown).

<制御手順>
上記のような本実施形態の手法を実現するために、カラオケ装置10の楽曲再生時にCPU45により実行される処理内容を、図12のフローチャートにより説明する。
<Control procedure>
In order to realize the method of the present embodiment as described above, processing contents executed by the CPU 45 when the karaoke apparatus 10 plays back music will be described with reference to a flowchart of FIG.

図12において、このフローは、例えばカラオケ装置10のユーザが、制御装置20の電源ボタンを押して制御装置20の電源を立ち上げると、開始される。制御装置20の電源の立ち上がりに連動して、アンプ16、楽器接続ボード8及びモニタ13,14の電源が立ち上がる。なお、前述したように、この例では、カラオケ装置10のユーザが、楽器接続ボード8にエレキギター4を接続して演奏する場合を例にとって説明する。ユーザがエレキギター4のフォンプラグを楽器接続ボード8の入力端子(フォンジャック)4aに接続すると、楽器接続ボード8はエレキギター4が接続されたことを検知する。   In FIG. 12, this flow is started when, for example, the user of the karaoke device 10 presses the power button of the control device 20 to turn on the power supply of the control device 20. In conjunction with the rising of the power supply of the control device 20, the power supply of the amplifier 16, the musical instrument connection board 8 and the monitors 13, 14 is started up. As described above, in this example, the case where the user of the karaoke apparatus 10 performs by connecting the electric guitar 4 to the musical instrument connection board 8 will be described. When the user connects the phone plug of the electric guitar 4 to the input terminal (phone jack) 4a of the musical instrument connection board 8, the musical instrument connection board 8 detects that the electric guitar 4 is connected.

図12において、まず、ステップS10において、CPU45は、ユーザによる選曲が終了したか否かを判定する。選曲は、例えば、ユーザがエレキギター4を演奏したい曲の選曲番号をリモコン30のテンキーにより入力し、選曲ボタンを押すと、選曲が終了する。選曲が終了するまではステップS10の判定が満たされず(ステップS10:NO)、ループ待機する。選曲が終了した場合はステップS10の判定が満たされ(ステップS10:YES)、ステップS15に移る。   In FIG. 12, first, in step S10, the CPU 45 determines whether or not the music selection by the user has been completed. In the music selection, for example, when the user inputs the music selection number of the music that he / she wants to play the electric guitar 4 with the numeric keypad of the remote controller 30 and presses the music selection button, the music selection ends. Until the music selection is completed, the determination in step S10 is not satisfied (step S10: NO), and a loop standby is performed. When the music selection is completed, the determination in step S10 is satisfied (step S10: YES), and the process proceeds to step S15.

ステップS15では、CPU45は、ステップS10での選曲結果に対応し、上記選曲番号を示す選曲番号データをRAM46に一時保存するとともに、LANボード50を介し、上記選曲番号に対応する曲データの送信を要求するリクエスト信号を、LAN回線15を介してサーバ58へ送信する。これにより、サーバ58は、図示しない記憶装置から、上記リクエスト信号に示される選曲番号に対応する楽曲データ及び上記コード譜情報並びに上記奏法情報と当該楽曲データに対応した歌詞データ及び映像データとを検索して読み出し、その読み出された曲データ等を、LAN回線15を介して制御装置20に送信する。ステップS15が終了したら、ステップS20に移る。   In step S15, the CPU 45 temporarily stores the music selection number data indicating the music selection number in the RAM 46 corresponding to the music selection result in step S10, and transmits the music data corresponding to the music selection number via the LAN board 50. A request signal to be requested is transmitted to the server 58 via the LAN line 15. As a result, the server 58 retrieves the music data corresponding to the music selection number indicated in the request signal, the chord score information, the performance information, and the lyric data and video data corresponding to the music data from a storage device (not shown). The read music data and the like are transmitted to the control device 20 via the LAN line 15. When step S15 ends, the process proceeds to step S20.

ステップS20では、CPU45は、LANボード50を介し、サーバ58からLAN回線15を介して送信された(コード譜情報・奏法情報を含む)楽曲データ等を受信する。その後、ステップS25に移る。   In step S20, the CPU 45 receives music data (including chord score information and performance information) transmitted from the server 58 via the LAN line 15 via the LAN board 50. Thereafter, the process proceeds to step S25.

ステップS25では、CPU45は、上記ステップS20で受信した楽曲データ等をRAM49に一時保存する。その後、ステップS30に移る。
なお、ステップS15,ステップS20、ステップS25の処理として、選曲番号に対応付けられた、楽曲データ、及び、コード譜情報・奏法情報等は、選曲毎にサーバ58からオンデマンドで取得する処理を行う。そのほか、カラオケ装置10の制御装置20に大容量の補助記憶手段(図示せず)を設けて、予め、楽曲データ等を、補助記憶手段に記憶し、選曲毎に、選曲番号に対応付けられた情報群を補助記憶手段から読み出して、目的とする情報を取得する処理としてもよい。
In step S25, the CPU 45 temporarily stores the music data received in step S20 in the RAM 49. Thereafter, the process proceeds to step S30.
In addition, as a process of step S15, step S20, and step S25, the music data, chord score information, performance method information, etc. matched with the music selection number are acquired on demand from the server 58 for each music selection. . In addition, a large-capacity auxiliary storage means (not shown) is provided in the control device 20 of the karaoke apparatus 10, and music data and the like are stored in advance in the auxiliary storage means, and each song selection is associated with a song selection number. The information group may be read from the auxiliary storage unit to obtain target information.

ステップS30では、CPU45は、上記ステップS25でRAM49に記憶されているMIDIデータの読み出しを開始し、読み出されたMIDIデータをMIDI音源ボード51に書き込む。ステップS30が終了したら、ステップS35に移る。   In step S30, the CPU 45 starts reading the MIDI data stored in the RAM 49 in step S25 and writes the read MIDI data to the MIDI tone generator board 51. When step S30 ends, the process proceeds to step S35.

ステップS35では、CPU45は、MIDI音源ボード51に制御信号を出力し、上記ステップS30で書き込んだMIDIデータに対応した音源信号を、MIDI音源ボード51から出力させる。MIDI音源ボード51から出力される音源信号は、音声制御回路52へ出力されるとともに、アンプ16により増幅可能な音楽信号に変換され、この変換された音楽信号は、音声出力端子41からアンプ16へ出力される。また、マイクロフォン17,18から入力された音声信号は、アンプ16に内蔵されたミキシング回路9において上記音楽信号とミキシングされる。このとき、エレキギター4の出力端子から出力された演奏信号は、楽器接続ボード8及び制御装置20を介してミキシング回路9に入力され、上記音声信号及び音楽信号とミキシングされる。そして、そのミキシングされたミキシング信号は、アンプ16に内蔵された図示しない増幅回路により増幅された後にスピーカ11及びスピーカ12へ出力され、両スピーカによって再生される。なお、このステップS35の手順が各請求項記載の楽曲データ再生手段として機能する。ステップS35が終了すると、ステップS40に移る。   In step S35, the CPU 45 outputs a control signal to the MIDI sound source board 51 and causes the MIDI sound source board 51 to output a sound source signal corresponding to the MIDI data written in step S30. The sound source signal output from the MIDI sound source board 51 is output to the sound control circuit 52 and converted into a music signal that can be amplified by the amplifier 16, and the converted music signal is transmitted from the sound output terminal 41 to the amplifier 16. Is output. Also, the audio signal input from the microphones 17 and 18 is mixed with the music signal in the mixing circuit 9 built in the amplifier 16. At this time, the performance signal output from the output terminal of the electric guitar 4 is input to the mixing circuit 9 via the musical instrument connection board 8 and the control device 20, and is mixed with the audio signal and the music signal. The mixed signal thus mixed is amplified by an amplifier circuit (not shown) built in the amplifier 16 and then output to the speaker 11 and the speaker 12 and reproduced by both speakers. In addition, the procedure of this step S35 functions as music data reproducing means described in each claim. When step S35 ends, the process proceeds to step S40.

ステップS40では、CPU45は、モニタ13,14に制御信号を出力し、ステップS25で保存したコード譜情報及び歌詞等をモニタ13,14により表示させる(なお、後述のステップS100による採点結果についてもこのときに併せて表示される)。これにより、エレキギター4の演奏者であるユーザは、モニタ13,14に表示されるコード譜にしたがいつつ指定された奏法でエレキギター4を演奏することにより、再生されるカラオケ楽曲に合わせてエレキギター演奏パートを容易に演奏することができる。その後、ステップS50に移る。   In step S40, the CPU 45 outputs a control signal to the monitors 13 and 14, and displays the chord score information and the lyrics stored in step S25 on the monitors 13 and 14 (note that the scoring result in step S100 described later also applies to this). Sometimes displayed together). As a result, the user who is a player of the electric guitar 4 plays the electric guitar 4 in accordance with the specified playing style according to the chord score displayed on the monitors 13 and 14, so that the electric guitar 4 is played in accordance with the karaoke piece to be reproduced. The guitar performance part can be played easily. Thereafter, the process proceeds to step S50.

ステップS50では、CPU45は、上記ユーザのエレキギター4の演奏により入力端子44から入力された演奏信号を演奏データとして例えば上記RAM49に蓄積する。その後、ステップS55に移る。   In step S50, the CPU 45 stores the performance signal input from the input terminal 44 by the performance of the user's electric guitar 4 as performance data, for example, in the RAM 49. Thereafter, the process proceeds to step S55.

ステップS55では、CPU45は、前述のFFT(高速フーリエ変換)の処理単位に対応した1つの上記時間区分が終了したか否かを判定する。上記時間区分が終了していなければ判定が満たされず(S55:NO)、上記ステップS30に戻って同様の手順を繰り返す。上記時間区分が終了したら判定が満たされ(S55:YES)、ステップS100に移る。   In step S55, the CPU 45 determines whether or not one time segment corresponding to the FFT (Fast Fourier Transform) processing unit has been completed. If the time segment has not ended, the determination is not satisfied (S55: NO), and the process returns to step S30 and the same procedure is repeated. When the time segment ends, the determination is satisfied (S55: YES), and the routine goes to Step S100.

ステップS100では、CPU45は、前述した手法による採点処理を行う。この採点処理の詳細を、図13に示す。   In step S100, the CPU 45 performs scoring processing using the method described above. Details of the scoring process are shown in FIG.

図13において、まずステップS110で、CPU45は、上記ステップS50で蓄積した(上記1つの区分に対応した)演奏データを読み出し、上記FFT処理部45aにより、公知のFFT(高速フーリエ変換)の手法により各周波数成分を抽出し解析する。その後、ステップS120に移る。   In FIG. 13, first, in step S110, the CPU 45 reads out the performance data accumulated in step S50 (corresponding to the one section), and the FFT processing unit 45a uses a known FFT (fast Fourier transform) technique. Each frequency component is extracted and analyzed. Thereafter, the process proceeds to step S120.

ステップS120では、CPU45は、上記特徴パラメータ取得部45bにより、上記ステップS110での解析結果を公知の手法によりクロマベクトル化することにより、前述の実音高データを生成する。なお、このステップS120を実行するCPU45が実データ生成手段として機能する。その後、ステップS130に移る。   In step S120, the CPU 45 generates the above-described actual pitch data by converting the analysis result in step S110 into a chroma vector by a known method by the feature parameter acquisition unit 45b. The CPU 45 that executes step S120 functions as actual data generating means. Thereafter, the process proceeds to step S130.

ステップS130では、CPU45は、上記目標データ生成部45gのミュート奏法用目標データ生成部45g1及び通常奏法用目標データ生成部45g2により、上記ステップS20で取得されステップS40で表示されたコード譜情報及び奏法情報に基づき、各コードごとに、前述のようにして上記ミュート奏法用目標音高データ(第1目標音高データに相当)又は通常奏法用目標音高データを用いて目標音高データ(第2目標音高データに相当)を生成し、上記目標データバッファ45eに記憶する。なお、このステップS130を実行するCPU45が第1目標データ生成手段及び第2目標生成手段として機能する。その後、ステップS140に移る。   In step S130, the CPU 45 obtains the chord score information and performance method acquired in step S20 and displayed in step S40 by the mute performance target data generation unit 45g1 and the normal performance target data generation unit 45g2 of the target data generation unit 45g. Based on the information, for each chord, as described above, the target pitch data (second pitch) using the target pitch data for mute performance (corresponding to the first target pitch data) or the target pitch data for normal performance is used. Corresponding to target pitch data) is generated and stored in the target data buffer 45e. In addition, CPU45 which performs this step S130 functions as a 1st target data production | generation means and a 2nd target production | generation means. Thereafter, the process proceeds to step S140.

ステップS140では、CPU45は、上記マッチング処理部45dにより、上記ステップS130で生成された目標音高データを、上記ステップS120で生成された、対応する実音高データと比較し、一致度を算出する。その後、ステップS150に移る。なお、このステップS140を実行するCPU45が一致度決定手段として機能する。   In step S140, the CPU 45 compares the target pitch data generated in step S130 with the corresponding actual pitch data generated in step S120 by the matching processing unit 45d, and calculates the degree of coincidence. Thereafter, the process proceeds to step S150. The CPU 45 that executes step S140 functions as a degree-of-match determination unit.

ステップS150では、CPU45は、上記ステップS140で算出された上記一致度に基づき、適宜の手法により上記演奏データに対応した採点を行い、採点結果を例えば上記RAM49に出力して記憶させる。なお、この採点結果は、前述のステップS30に戻った後に実行されるステップS40においてモニタ13,14において表示される(上記図11(a)〜(c)参照)。このステップS150が完了すると、このルーチンを終了する。なお、このステップS150を実行するCPU45が採点手段として機能する。   In step S150, the CPU 45 performs scoring corresponding to the performance data by an appropriate method based on the degree of coincidence calculated in step S140, and outputs the scoring result to, for example, the RAM 49 for storage. The scoring results are displayed on the monitors 13 and 14 in step S40 executed after returning to the above-described step S30 (see FIGS. 11A to 11C). When step S150 is completed, this routine is terminated. In addition, CPU45 which performs this step S150 functions as a scoring means.

また、上記ステップS140において一致度の算出対象となる演奏区間が上記ミュート奏法を行うべき区間(言い換えれば前述の例では奏法情報が「mute」となっている区間)であって、その後のステップS150で一致度に基づく採点結果がある程度の値(例えば60点)以上となった場合(あるいは一致度自体の値がある程度の値以上となった場合でもよい)には、そのことをもって、ユーザがエレキギター4を上記通常奏法ではなくミュート奏法で演奏したことを検出したとも言える。したがって、その意味で、上記ステップS140及びステップS150を実行するCPU45は、ミュート奏法による演奏を検出する、各請求項記載のミュート奏法検出手順に相当しかつミュート奏法検出手段としても機能している。またこの場合のステップS150を実行して採点結果を出力するCPU45は、上記ミュート奏法の検出結果を出力する、各請求項記載のミュート奏法出力手順に相当しかつミュート奏法出力手段としても機能している。   In addition, the performance section for which the degree of coincidence is calculated in step S140 is a section in which the mute performance method is to be performed (in other words, the section in which the performance method information is “mute” in the above example), and subsequent step S150. When the scoring result based on the degree of matching becomes a certain value (for example, 60 points) or more (or the value of the degree of matching itself may be a certain value or more), the user can It can also be said that it has been detected that the guitar 4 is played by the mute playing method instead of the normal playing method. Therefore, in that sense, the CPU 45 that executes the steps S140 and S150 corresponds to the mute performance method detection procedure described in each claim and detects the performance by the mute performance method, and also functions as a mute performance method detection means. Further, the CPU 45 that executes step S150 and outputs the scoring result in this case corresponds to the mute performance method output procedure described in each claim and outputs the detection result of the mute performance method, and also functions as a mute performance method output means. Yes.

また、前述したように、目標音高データと実音高データとの一致度の値がある程度の値以上となったことで、(採点とは無関係に、あるいは採点を行わずに)ユーザによるエレキギター4のミュート奏法の演奏を検出する場合には、モニタ13,14における上記図11(a)〜(c)のような表示に代え、例えば図14(a)及び(b)に示すように、その時点でのユーザの演奏が、ミュート奏法によるものであるか(図14(a)参照)、通常奏法によるものであるか(図14(b)参照)、のみを表示するようにしてもよい。   In addition, as described above, the degree of coincidence between the target pitch data and the actual pitch data becomes a certain value or more, so that the electric guitar by the user (regardless of scoring or without scoring). In the case of detecting the performance of the 4 mute performance, instead of the display as shown in FIGS. 11 (a) to 11 (c) on the monitors 13 and 14, for example, as shown in FIGS. 14 (a) and 14 (b), Only whether the user's performance at that time is based on the mute performance (see FIG. 14A) or the normal performance (see FIG. 14B) may be displayed. .

図12に戻り、上記ステップS150が終了すると、CPU45は、ステップS65において、楽曲データの再生が終了したか(言い換えれば、ステップS30でのMIDIデータの読み出しが楽曲データの最後のMIDIデータまで終了したか)否かを判定する。楽曲データの再生が終了していれば判定が満たされ(ステップS65:YES)、このフローを終了する。楽曲データの再生が終了するまでは判定が満たされず(ステップS65:NO)、上記ステップS30に戻り、上記ステップS30〜ステップS65の手順を繰り返す。   Returning to FIG. 12, when step S150 is completed, the CPU 45 determines whether reproduction of music data has been completed in step S65 (in other words, reading of MIDI data in step S30 has been completed up to the last MIDI data of music data). Determine whether or not. If the reproduction of the music data is finished, the determination is satisfied (step S65: YES), and this flow is finished. Until the reproduction of the music data is completed, the determination is not satisfied (step S65: NO), the process returns to step S30, and the procedure of steps S30 to S65 is repeated.

<実施形態の効果>
以上説明したように、本実施形態においては、楽曲の再生に応じてユーザがエレキギター4を演奏すると、その演奏信号の周波数成分がFFTの手法により抽出された後にクロマベクトル処理が行われ、これによって所定の時間区分ごとに、上記演奏に対応した実音高データが生成される。そして、その実音高データと、楽曲データに対応づけられたコード譜情報に基づき生成された目標音高データとの一致度に基づき、上記演奏に対する採点が行われる。
<Effect of embodiment>
As described above, in the present embodiment, when the user plays the electric guitar 4 in accordance with the reproduction of the music, the chroma vector processing is performed after the frequency component of the performance signal is extracted by the FFT technique. Thus, actual pitch data corresponding to the performance is generated for each predetermined time segment. The performance is scored based on the degree of coincidence between the actual pitch data and the target pitch data generated based on the chord score information associated with the music data.

その際、本実施形態においては、前述のようなエレキギター4等の弦楽器をユーザが実際に演奏するときの傾向に鑑み、上記ユーザによるミュート奏法を、それ以外の通常奏法と区別して検出する。具体的には、上記ミュート奏法に対応したミュート奏法用目標音高データ及び通常奏法用目標音高データを含む目標音高データが生成され、その目標音高データと対応する実音高データとの一致度が算出される。この結果、エレキギター4等の弦楽器の演奏に対する、ユーザの娯楽性を向上させるための所定の処理(上記の例では、採点)を精度よく実行することができる。上記採点の例では、ミュート奏法と通常奏法とを一切区別せずに一致度を決定し採点を行う場合に比べ、採点精度を向上することができる。この結果、ユーザにとっての利便性及び娯楽性を高めることができる。   In this case, in the present embodiment, in consideration of the tendency when the user actually plays the stringed instrument such as the electric guitar 4 as described above, the mute playing method by the user is detected separately from the other normal playing methods. Specifically, target pitch data including target pitch data for mute performance and target pitch data for normal performance corresponding to the above mute performance is generated, and the match between the target pitch data and the corresponding actual pitch data The degree is calculated. As a result, it is possible to accurately execute a predetermined process (scoring in the above example) for improving the user's entertainment with respect to the performance of a stringed instrument such as the electric guitar 4. In the above scoring example, scoring accuracy can be improved as compared with the case where the degree of coincidence is determined and scoring is performed without distinguishing between the mute performance method and the normal performance method. As a result, convenience and entertainment for the user can be enhanced.

また、一般的に、ユーザがミュート奏法を行うかそれ以外の通常の奏法を行うかは、楽曲ごと、あるいは各楽曲の中の演奏区間ごとに、概ね一意的に決まっている。本実施形態ではこれに対応して、上記カラオケ楽曲データに対応づけられた上記コード情報(あるいはカラオケ楽曲データそのものでもよい)に、予め奏法情報が付加されている(図3参照)。そして、目標データ生成部45gでは、上記奏法情報に基づき、ミュート奏法用目標データ生成部45g1からのミュート奏法用目標データ、若しくは、通常奏法用目標データ生成部45g2からの通常奏法用目標音高データを選択的に目標データバッファ45へ出力し、それらの合成データである目標音高データを記憶する。そして、マッチング処理部45dでは、上記目標データバッファ45に記憶された上記目標音高データを用いて前述の一致度を決定することから、結果的に、上記奏法情報に基づき、ミュート奏法用目標データ生成部45g1からのミュート奏法用目標データ、若しくは、通常奏法用目標データ生成部45g2からの通常奏法用目標音高データを選択的に切り替えて用いて、上記一致度を決定することとなる。   In general, whether the user performs the mute performance or other normal performance is generally uniquely determined for each piece of music or for each performance section in each piece of music. In the present embodiment, in response to this, rendition style information is added in advance to the chord information (or karaoke song data itself) associated with the karaoke song data (see FIG. 3). Then, in the target data generating unit 45g, based on the above rendition style information, the mute rendition style target data from the mute rendition style target data generating unit 45g1, or the normal rendition style target data for the standard rendition style target data generating unit 45g2 Are selectively output to the target data buffer 45, and the target pitch data which is the synthesized data thereof is stored. Since the matching processing unit 45d determines the degree of coincidence using the target pitch data stored in the target data buffer 45, as a result, based on the rendition style information, the mute performance target data The degree of coincidence is determined by selectively switching the mute performance target data from the generation unit 45g1 or the normal performance method target pitch data from the normal performance target data generation unit 45g2.

これにより、マッチング処理部45d及び採点結果生成部45fでは、ミュート奏法により演奏すべき曲と通常奏法により演奏すべき曲とを混在させつつユーザが複数の曲の演奏を行う場合や、ユーザが演奏する1つの曲の中でミュート奏法により演奏すべき区間と通常奏法により演奏すべき区間とが混在する場合等であっても、高い精度で採点を行うことができる。この結果、ユーザにとっての利便性及び娯楽性をさらに確実に高めることができる。   Thereby, in the matching processing unit 45d and the scoring result generation unit 45f, when the user performs a plurality of songs while mixing the songs to be played by the mute playing method and the songs to be played by the normal playing method, Even in a case where a section to be played by the mute playing method and a section to be played by the normal playing method are mixed in one piece of music, scoring can be performed with high accuracy. As a result, the convenience and entertainment for the user can be further improved.

なお、以上において、図5等の各図中に示す矢印は信号の流れの一例を示すものであり、信号の流れ方向を限定するものではない。   In addition, in the above, the arrow shown in each figure of FIG. 5 etc. shows an example of the flow of a signal, and does not limit the flow direction of a signal.

また、図12、図13等に示すフローチャートは本発明を上記フローに示す手順に限定するものではなく、発明の趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。   In addition, the flowcharts shown in FIGS. 12 and 13 do not limit the present invention to the procedure shown in the above-described flow, and add / delete procedures or change the order within the scope of the gist and technical idea of the invention. You may do.

また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。   In addition to those already described above, the methods according to the above-described embodiments and modifications may be used in appropriate combination.

その他、一々例示はしないが、本発明は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.

4 エレキギター(弦楽器)
10 カラオケ装置(楽音演奏装置)
45 CPU(演算手段)
49 RAM(楽曲データ記憶手段)
4 Electric guitar (stringed instrument)
10 Karaoke equipment (musical performance equipment)
45 CPU (calculation means)
49 RAM (music data storage means)

Claims (4)

所定の弦楽器の演奏パートを含み、複数のコードの進行からなるコード情報が対応づけられたカラオケ楽曲データを記憶する楽曲データ記憶手段と、
前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、
前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、
前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手段と、
前記ミュート奏法検出手段による検出結果を出力するミュート奏法出力手段と、
を有する
ことを特徴とする楽音演奏装置。
Music data storage means for storing karaoke music data including chord information consisting of a plurality of chord progressions, including a performance part of a predetermined stringed instrument;
Music data reproducing means for reading out and reproducing the karaoke music data stored in the music data storage means;
A performance signal input means for inputting a performance signal output from the stringed instrument by a performance of the stringed instrument by a musical instrument player according to the reproduction of the karaoke music data by the music data reproducing means;
Based on the performance signal input from the performance signal input means, the mute performance method detection means for detecting the performance by the mute performance method of the musical instrument player separately from other performance methods;
Mute performance output means for outputting a detection result by the mute performance detection means;
A musical performance device characterized by comprising:
請求項1記載の楽音演奏装置において、
前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記ミュート奏法に対応した第1目標音高データを生成する第1目標データ生成手段と、
前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に含まれる各コードごとに、前記弦楽器における当該コードに対応した、前記それ以外の奏法に対応した第2目標音高データを生成する第2目標データ生成手段と、
前記演奏信号入力手段から入力される前記演奏信号に基づく実音高データを生成する実データ生成手段と、
を有し、
前記ミュート奏法検出手段は、
前記第1目標音高データ及び前記第2目標音高データ、のうち少なくとも一方と、対応する前記実音高データとの一致度を決定可能な一致度決定手段と、
前記一致度決定手段により決定された前記一致度に応じて、前記楽器演奏者による、前記ミュート奏法による演奏及び前記それ以外の奏法による演奏の少なくとも一方に対する採点を実行可能な採点手段と、
を含み、
前記ミュート奏法出力手段は、
前記採点手段による採点結果を出力する手段である
ことを特徴とする楽音演奏装置。
In the musical sound performance device according to claim 1,
A first target pitch corresponding to the mute playing method corresponding to the chord in the stringed instrument for each chord included in the corresponding chord information in accordance with the reproduction of the karaoke song data by the music data reproducing means. First target data generating means for generating data;
A second target corresponding to the other performance method corresponding to the chord in the stringed instrument for each chord included in the corresponding chord information in accordance with the reproduction of the karaoke music data by the music data reproducing means. Second target data generating means for generating pitch data;
Actual data generating means for generating actual pitch data based on the performance signal input from the performance signal input means;
Have
The mute playing style detecting means includes
A degree of coincidence determination means capable of determining a degree of coincidence between at least one of the first target pitch data and the second target pitch data and the corresponding actual pitch data;
In accordance with the degree of coincidence determined by the coincidence degree determining means, scoring means capable of performing scoring on at least one of the performance by the mute performance method and the performance by the other performance method by the instrument player;
Including
The mute performance output means is
A musical tone performance apparatus, characterized in that it is means for outputting a scoring result by the scoring means.
請求項2記載の楽音演奏装置において、
前記一致度決定手段は、
前記楽曲データ再生手段での前記カラオケ楽曲データの再生に応じて、対応する前記コード情報に付加された奏法情報に基づき、前記第1目標音高データ及び前記第2目標音高データのうちいずれか一方を選択的に切り替えて用いて、対応する前記実音高データとの一致度を決定する
ことを特徴とする楽音演奏装置。
In the musical sound performance device according to claim 2,
The coincidence degree determining means includes
One of the first target pitch data and the second target pitch data based on the rendition style information added to the corresponding chord information according to the playback of the karaoke song data by the song data playback means. A musical performance device characterized by determining the degree of coincidence with the corresponding actual pitch data by selectively switching one of them.
所定の弦楽器の演奏パートを含み、複数のコードの進行からなるコード情報が対応づけられたカラオケ楽曲データを記憶する楽曲データ記憶手段と、前記楽曲データ記憶手段に記憶された前記カラオケ楽曲データを読み出して再生する楽曲データ再生手段と、前記楽曲データ再生手段による前記カラオケ楽曲データの再生にしたがって、楽器演奏者の前記弦楽器の演奏により当該弦楽器から出力される演奏信号を入力する演奏信号入力手段と、を有する楽音演奏装置に備えられた演算手段に対し、
前記演奏信号入力手段から入力される前記演奏信号に基づき、前記楽器演奏者のミュート奏法による演奏を、それ以外の奏法と区別して検出するミュート奏法検出手順と、
前記ミュート奏法検出手順での検出結果を出力するミュート奏法出力手順と、
を実行させるための楽音演奏処理プログラム。
Music data storage means for storing karaoke music data including chord information consisting of a plurality of chord progressions including a performance part of a predetermined stringed instrument, and reading out the karaoke music data stored in the music data storage means Music data reproducing means for reproducing, and performance signal input means for inputting a performance signal output from the stringed instrument by the performance of the stringed instrument by a musical instrument player according to the reproduction of the karaoke music data by the music data reproducing means; For the arithmetic means provided in the musical sound performance device having
Based on the performance signal input from the performance signal input means, the mute performance method detection procedure for detecting the performance by the mute performance method of the musical instrument player separately from other performance methods;
A mute performance method output procedure for outputting a detection result in the mute performance method detection procedure;
A musical performance processing program for executing
JP2013244085A 2013-11-26 2013-11-26 Musical performance device and musical performance processing program Pending JP2015102741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013244085A JP2015102741A (en) 2013-11-26 2013-11-26 Musical performance device and musical performance processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013244085A JP2015102741A (en) 2013-11-26 2013-11-26 Musical performance device and musical performance processing program

Publications (1)

Publication Number Publication Date
JP2015102741A true JP2015102741A (en) 2015-06-04

Family

ID=53378463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013244085A Pending JP2015102741A (en) 2013-11-26 2013-11-26 Musical performance device and musical performance processing program

Country Status (1)

Country Link
JP (1) JP2015102741A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276894A (en) * 2006-07-18 2006-10-12 Yamaha Corp Device and method for automatically determining way of playing
JP2011069900A (en) * 2009-09-24 2011-04-07 Xing Inc Thrumming stringed instrument performance evaluation device
JP2015001623A (en) * 2013-06-14 2015-01-05 ブラザー工業株式会社 Musical tone performance device and musical tone performance processing program
JP2015031711A (en) * 2013-07-31 2015-02-16 ブラザー工業株式会社 Musical sound playing device and musical sound playing process program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276894A (en) * 2006-07-18 2006-10-12 Yamaha Corp Device and method for automatically determining way of playing
JP2011069900A (en) * 2009-09-24 2011-04-07 Xing Inc Thrumming stringed instrument performance evaluation device
JP2015001623A (en) * 2013-06-14 2015-01-05 ブラザー工業株式会社 Musical tone performance device and musical tone performance processing program
JP2015031711A (en) * 2013-07-31 2015-02-16 ブラザー工業株式会社 Musical sound playing device and musical sound playing process program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7016000163; 三宅 俊輔、三浦雅展: 'エレキベースソロ演奏の奏法推定' 音楽音響研究会資料 第30巻第3号, 20110806, 87-90頁, 日本音響学会 *

Similar Documents

Publication Publication Date Title
JP4212446B2 (en) Karaoke equipment
JP5704368B2 (en) Musical performance device and musical performance processing program
JP5884992B2 (en) Musical performance device and musical performance processing program
JP5708730B2 (en) Musical performance device and musical performance processing program
JP4211388B2 (en) Karaoke equipment
JP2006251697A (en) Karaoke device
JP5005445B2 (en) Code name detection device and code name detection program
JP4171680B2 (en) Information setting device, information setting method, and information setting program for music playback device
JP6141737B2 (en) Karaoke device for singing in consideration of stretch tuning
JP2014026213A (en) Musical sound playing device
JP5787279B2 (en) Musical performance device
JP2009003225A (en) Chord name detector and program for chord name detection
JP2007078724A (en) Electronic musical instrument
JP2007057727A (en) Electronic percussion instrument amplifier system with musical sound reproducing function
JP2006301019A (en) Pitch-notifying device and program
JP6065827B2 (en) Musical performance device and musical performance processing program
JP2015102741A (en) Musical performance device and musical performance processing program
JP5825533B2 (en) Music search device, music search system, and music search program
JP5648877B1 (en) Musical performance device and musical performance processing program
JP5413749B2 (en) Musical performance device
JP4182898B2 (en) Karaoke equipment
JP3873914B2 (en) Performance practice device and program
JP5983670B2 (en) Program, information processing apparatus, and data generation method
JP5382378B2 (en) Karaoke equipment
JP2017049428A (en) Musical sound performance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160808