JP2006301019A - Pitch-notifying device and program - Google Patents
Pitch-notifying device and program Download PDFInfo
- Publication number
- JP2006301019A JP2006301019A JP2005118590A JP2005118590A JP2006301019A JP 2006301019 A JP2006301019 A JP 2006301019A JP 2005118590 A JP2005118590 A JP 2005118590A JP 2005118590 A JP2005118590 A JP 2005118590A JP 2006301019 A JP2006301019 A JP 2006301019A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- performance
- sound
- performance part
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、演奏力向上のためのピッチ通知技術に関する。 The present invention relates to a pitch notification technique for improving performance.
カラオケにおける歌唱者の歌唱力を評価する技術がある。例えば特許文献1は、ファジー推論を行うことにより歌唱力や楽器の演奏力をより正しく評価する音楽評価装置が開示されている。
ところで、歌唱や特にバイオリン等のフレットレス楽器を用いた演奏を他の演奏パートとともに行う場合、演奏者は他の演奏の音に影響されて、本来発音すべき音からずれたピッチの音を発音してしまうことがある。従来技術にかかる音楽評価装置による場合、そのような誤った演奏を行った場合に、例えば演奏全体として悪い評価が演奏者に通知されたり、音程が正しくとれていない旨の評価が演奏者に通知されたりする。しかしながら、音程が正しくとれていない原因が演奏者に通知されることはないため、演奏者は効率的に自分の演奏を改善することができない。 By the way, when performing a song or a performance using a fretless instrument such as a violin together with other performance parts, the performer is affected by the sound of the other performance and produces a sound with a pitch that deviates from the sound that should originally be pronounced. May end up. In the case of a music evaluation apparatus according to the prior art, when such an erroneous performance is performed, for example, the player is notified of a bad evaluation as a whole performance, or the player is notified of an evaluation that the pitch is not correct. Or However, since the performer is not notified of the reason that the pitch is not correct, the performer cannot efficiently improve his performance.
上記の状況に鑑み、本発明は、演奏者に対し自分の演奏に影響を与えている他の演奏パートの演奏を通知することにより、演奏力の向上を支援する手段を提供することを目的とする。 In view of the above situation, an object of the present invention is to provide means for supporting the improvement of performance by notifying the performer of the performance of other performance parts that affect his performance. To do.
上記課題を達成するために、本発明は、複数の演奏パートにより演奏される楽曲において前記複数の演奏パートのうちの一の演奏パートによって発音されるべき音のピッチを時系列的に示す基準ピッチデータを記憶する記憶手段と、前記一の演奏パートにより発音された音を示す音信号を取得する入力手段と、前記入力手段により取得された音信号により示される音のピッチを特定するピッチ特定手段と、一のタイミングにおける前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと、当該一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パートの音のピッチと、当該一のタイミングにおける前記複数の演奏パートのうちの前記一の演奏パート以外の演奏パートの各々の音のピッチとの関係に基づき、当該一のタイミングにおいて前記一の演奏パートの演奏に影響を与えている他の演奏パートを特定する演奏パート特定手段と、前記演奏パート特定手段により特定された演奏パートもしくは当該演奏パートにより発音された音のピッチを示すデータを出力する出力手段とを備えることを特徴とするピッチ通知装置を提供する。 In order to achieve the above object, the present invention provides a reference pitch that indicates in time series the pitch of a sound to be produced by one performance part of the plurality of performance parts in a music played by a plurality of performance parts. Storage means for storing data; input means for acquiring a sound signal indicating a sound produced by the one performance part; and pitch specifying means for specifying a pitch of a sound indicated by the sound signal acquired by the input means The pitch of the sound indicated by the reference pitch data of the one performance part at one timing, the pitch of the sound of the one performance part specified by the pitch specifying means at the one timing, and the one Based on the relationship with the pitch of each of the performance parts other than the one performance part of the plurality of performance parts at the timing of A performance part specifying means for specifying another performance part that affects the performance of the one performance part at the one timing, and a performance part specified by the performance part specifying means or a sound produced by the performance part An output means for outputting data indicating the pitch of the generated sound is provided.
かかる構成のピッチ通知装置によれば、ユーザは自分の演奏が他の演奏パートのいずれに影響されているかを知ることができる。 According to the pitch notification device having such a configuration, the user can know which of the other performance parts affects his / her performance.
好ましい態様において、前記記憶手段により記憶されている基準ピッチデータは、前記複数の演奏パートの各々によって発音されるべき音のピッチを時系列的に示すデータであり、前記演奏パート特定手段は、前記他の演奏パートを特定するに際し、一のタイミングにおける前記一の演奏パート以外の演奏パートの各々の前記基準ピッチデータにより示される音のピッチを、当該一のタイミングにおける前記一の演奏パート以外の演奏パートの各々の音のピッチとして用いる。 In a preferred aspect, the reference pitch data stored by the storage means is data indicating time-sequentially the pitch of the sound to be generated by each of the plurality of performance parts, When specifying other performance parts, the pitch of the sound indicated by the reference pitch data of each performance part other than the one performance part at one timing is set to the performance other than the one performance part at the one timing. Used as the pitch of each sound of the part.
また、他の好ましい態様において、前記入力手段は、前記複数の演奏パートの各々により発音された音を示す音信号を取得し、前記ピッチ特定手段は、前記入力手段により取得された音信号により示される前記複数の演奏パートにより発音された音の各々に関し、当該音のピッチを特定し、前記演奏パート特定手段は、前記他の演奏パートを特定するに際し、一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パート以外の演奏パートの各々の音のピッチを、当該一のタイミングにおける前記一の演奏パート以外の演奏パートの各々の音のピッチとして用いる。 In another preferred embodiment, the input means acquires a sound signal indicating a sound produced by each of the plurality of performance parts, and the pitch specifying means is indicated by a sound signal acquired by the input means. The pitch of the sound is specified for each of the sounds produced by the plurality of performance parts, and the performance part specifying means is specified by the pitch specifying means at one timing when specifying the other performance parts. The pitch of the sound of each performance part other than the one performance part is used as the pitch of the sound of each performance part other than the one performance part at the one timing.
また、他の好ましい態様において、前記記憶手段は、前記ピッチ特定手段により特定されたピッチを時系列的に示す実演奏ピッチデータを記憶し、前記演奏パート特定手段は、現在行われている演奏中の一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パートの音のピッチと、過去に行われた演奏中の当該一のタイミングにおける前記一の演奏パートの前記実演奏ピッチデータにより示される音のピッチと、当該現在行われている演奏に参加しており当該過去に行われた演奏に参加していなかった演奏パートにより当該現在行われている演奏中の当該一のタイミングにおける音のピッチとの関係に基づき、前記他の演奏パートを特定する。 In another preferred embodiment, the storage means stores actual performance pitch data indicating the pitch specified by the pitch specifying means in time series, and the performance part specifying means is currently performing the performance. The pitch of the sound of the one performance part specified by the pitch specifying means at one timing and the actual performance pitch data of the one performance part at the one timing during the performance performed in the past. And the pitch of the sound at the same timing during the performance being performed by a performance part that has participated in the current performance and has not participated in the performance performed in the past. The other performance part is specified based on the relationship with the pitch.
また、他の好ましい態様において、前記記憶手段は、前記ピッチ特定手段により特定されたピッチを時系列的に示す実演奏ピッチデータを記憶し、前記演奏パート特定手段は、現在行われている演奏中の一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パートの音のピッチと、過去に行われた演奏中の当該一のタイミングにおける前記一の演奏パートの前記実演奏ピッチデータにより示される音のピッチと、当該現在行われている演奏に参加しておらず当該過去に行われた演奏に参加していた演奏パートにより当該過去に行われた演奏中の当該一のタイミングにおける音のピッチとの関係に基づき、前記他の演奏パートを特定する。 In another preferred embodiment, the storage means stores actual performance pitch data indicating the pitch specified by the pitch specifying means in time series, and the performance part specifying means is currently performing the performance. The pitch of the sound of the one performance part specified by the pitch specifying means at one timing and the actual performance pitch data of the one performance part at the one timing during the performance performed in the past. And the pitch of the sound at the same timing during the performance performed in the past by the performance part that did not participate in the performance performed in the past and participated in the performance performed in the past. The other performance part is specified based on the relationship with the pitch.
また、他の好ましい態様において、前記記憶手段は、前記ピッチ特定手段により特定されたピッチを時系列的に示す実演奏ピッチデータを記憶し、前記演奏パート特定手段は、前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと前記一の演奏パートの前記実演奏ピッチデータにより示される音のピッチとの差と、前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと前記一の演奏パート以外の演奏パートの各々の音のピッチとの差との相関関係に基づき、前記他の演奏パートを特定する。 In another preferred embodiment, the storage means stores real performance pitch data indicating the pitches specified by the pitch specification means in a time series, and the performance part specification means is configured to store the performance parts of the one performance part. The difference between the pitch of the sound indicated by the reference pitch data and the pitch of the sound indicated by the actual performance pitch data of the one performance part, the pitch of the sound indicated by the reference pitch data of the one performance part, and the The other performance parts are identified based on the correlation with the difference between the pitches of the sounds of the performance parts other than the performance part.
また、他の好ましい態様において、前記ピッチ特定手段は、前記入力手段により取得された音信号により示される音のピッチの候補と前記一の演奏パートの前記基準ピッチデータにより示される音のピッチとの差を変数として含む関数の値を算出し、当該関数の値に基づき、前記一の演奏パートにより当該一のタイミングに発音された音のピッチを特定する。 In another preferred embodiment, the pitch specifying means includes a sound pitch candidate indicated by the sound signal acquired by the input means and a sound pitch indicated by the reference pitch data of the one performance part. A value of a function including the difference as a variable is calculated, and a pitch of a sound produced at the one timing by the one performance part is specified based on the value of the function.
また、上記の好ましい態様において、前記入力手段は、前記複数の演奏パートの各々に対応付けて各々設けられた複数の入力手段であり、前記関数は、一の周波数に関し、前記一の演奏パートに対応する入力手段により取得された音信号の当該一の周波数における周波数成分の振幅と、前記一の演奏パート以外の演奏パートに対応する入力手段のうちの少なくとも一の入力手段により取得された音信号の当該一の周波数における周波数成分の振幅との差を示す数値を変数として含むようにしてもよい。 Further, in the above preferred aspect, the input means is a plurality of input means provided in association with each of the plurality of performance parts, and the function is applied to the one performance part with respect to one frequency. The amplitude of the frequency component at the one frequency of the sound signal acquired by the corresponding input means, and the sound signal acquired by at least one input means among the input means corresponding to the performance parts other than the one performance part A numerical value indicating a difference from the amplitude of the frequency component at the one frequency may be included as a variable.
また、本発明は、上記のピッチ通知装置により行われる処理をコンピュータに実行させるプログラムを提供する。 The present invention also provides a program that causes a computer to execute processing performed by the pitch notification device.
[1.第1実施形態]
以下、歌唱者(以下、「ユーザ」と呼ぶ)が自動演奏される伴奏に合わせて歌唱トレーニングを行う場合を例として、本発明の第1実施形態を説明する。図1は第1実施形態にかかる演奏トレーニングシステム1の構成を示した図である。演奏トレーニングシステム1は、楽曲の伴奏音を示す音信号を出力するとともにユーザの歌唱音のピッチと模範歌唱音のピッチを表すグラフを表示するための画像信号を出力するピッチ通知装置10と、ピッチ通知装置10に接続されたスピーカ11、マイク12、ディスプレイ13およびキーボード14を備えている。
[1. First Embodiment]
Hereinafter, the first embodiment of the present invention will be described by taking as an example a case where singing training is performed in accordance with an accompaniment in which a singer (hereinafter referred to as “user”) is automatically played. FIG. 1 is a diagram showing a configuration of a performance training system 1 according to the first embodiment. The performance training system 1 outputs a sound signal indicating an accompaniment sound of a music, and outputs an image signal for displaying a graph representing a pitch of the user's singing sound and a pitch of the model singing sound, and a
以下の説明において、ピッチは周波数で表され、単位は[Hz]であるものとする。従って、ある音のピッチはすなわちその音の波形の基本周波数である。しかしながら、ピッチを示す数値は周波数に限られず、例えば半音間が100に相当するように変換した数値で表すようにしてもよい。その場合、単位は[cent]となる。 In the following description, the pitch is represented by a frequency, and the unit is [Hz]. Therefore, the pitch of a certain sound is the fundamental frequency of the waveform of that sound. However, the numerical value indicating the pitch is not limited to the frequency, and may be expressed by a numerical value converted so that the interval between semitones corresponds to 100, for example. In that case, the unit is [cent].
スピーカ11はピッチ通知装置10から音信号を受け取り、受け取った音信号を音に変換して発音する。マイク12は周囲の音を集音し、集音した音を示す音信号をピッチ通知装置10に出力する。ディスプレイ13はピッチ通知装置10から画像信号を受け取り、受け取った画像信号に従い図形や文字を含む画面の表示を行う。キーボード14は複数のキーを備えユーザのキー操作に応じた信号をピッチ通知装置10に送信する。
The
ピッチ通知装置10は、ピッチ通知装置10の構成部を制御する制御部101と、制御部101による各種処理を指示するプログラムおよび制御部101により利用される各種データを記憶するとともに制御部101のワークエリアとして用いられる記憶部102と、ピッチ通知装置10が外部装置との間で信号の送受信を行う入出力インタフェース103と、所定の時間間隔でクロック信号を生成し制御部101に引き渡す発振器104を備えている。発振器104により生成されるクロック信号は、ピッチ通知装置10の構成部間の処理の同期や楽曲の先頭からの経過時間等の計時に用いられる。
The
記憶部102には、楽曲の演奏情報を示す基準ピッチデータ1021が予め記憶されている。図2は、基準ピッチデータ1021の内容を例示した図である。基準ピッチデータ1021は、1つの楽曲に関し、楽曲を演奏する複数の演奏パートの各々が発音すべき音のピッチやユーザに対し表示されるべき歌詞等のデータを、それらのデータに関する処理が実行されるべきタイミングを示すデータとともに含むデータである。図2の例は、ボーカルパート、フルートパートおよびピアノパートの各演奏パートにより演奏される楽曲に関する基準ピッチデータ1021の内容の一部を示したものである。
In the
基準ピッチデータ1021に含まれる各行のデータ(以下、「タイミング付イベントデータ」と呼ぶ)は、「タイミング」、「種別」および「内容」の項目を備えており、「タイミング」は楽曲におけるタイミングを示し、「種別」は「タイミング」により示されるタイミングで実行されるべき処理の種別を示し、「内容」は実行されるべき処理の内容を示している。 Each row of data included in the reference pitch data 1021 (hereinafter referred to as “event data with timing”) has items of “timing”, “type”, and “content”, and “timing” indicates the timing of the music. “Type” indicates the type of the process to be executed at the timing indicated by “Timing”, and “Content” indicates the content of the process to be executed.
例えば、図2に例示されるタイミング付イベントデータ[03:01:000/歌詞表示/「どうしてないているの」]は、楽曲の第3小節第1拍のティック「000」のタイミングにおいて、歌詞「どうしてないているの」を表示すべきであることを指示している。「ティック」とは1拍の長さを所定数に分割した時間間隔のことであり、拍の先頭からの経過時間をティックの数で表すことで、楽曲における特定のタイミングが示される。従って、例えば[03:01:000]は第3小節第1拍の先頭タイミングを示している。以下、例として1ティックを1/480拍とする。 For example, the timed event data illustrated in FIG. 2 [03: 01: 00 / Lyrics display / "Why are you not doing]" is the lyrics at the timing of the tick "000" of the first beat of the third measure of the song. It indicates that “why not” should be displayed. “Tick” is a time interval obtained by dividing the length of one beat into a predetermined number, and the elapsed time from the beginning of the beat is represented by the number of ticks, thereby indicating a specific timing in the music. Therefore, for example, [03: 01: 000] indicates the start timing of the first beat of the third measure. Hereinafter, as an example, one tick is set to 1/480 beat.
図2に例示されるタイミング付イベントデータ[00:01:000/音色/フルート]は、その演奏パートにおいて発音される音の音色が「フルート」であることを指示している。ここでタイミングを示す[00:01:000]は楽曲の開始前もしくは開示時を示している。 The event data with timing [00: 01: 00 / tone / flute] illustrated in FIG. 2 indicates that the tone color of the sound produced in the performance part is “flute”. Here, [00: 01: 000] indicating the timing indicates before the start of the music or at the time of disclosure.
また、タイミング付イベントデータ[03:01:240/ノートオン/C4(72)]は、楽曲の第3小節第1拍のティック「240」のタイミングにおいて、音程「C4」の音を音強「72」で発音すべきであることを指示している。また、タイミング付イベントデータ[03:01:420/ノートオフ/C4]は、楽曲の第3小節第1拍のティック「420」のタイミングにおいて、音程「C4」の音を消音(発音停止)すべきであることを指示している。 Also, the event data with timing [03: 01: 240 / note-on / C4 (72)] indicates that the sound of the pitch “C4” is intensified at the timing of the tick “240” of the first beat of the third measure of the music. 72 "indicates that the sound should be pronounced. The event data with timing [03: 01: 420 / note off / C4] silences the sound of the pitch “C4” at the timing of the tick “420” of the third beat and the first beat of the music. Instructed that it should.
タイミング付イベントデータ[03:01:240/ノートオン/C4(72)]に例示されるように、基準ピッチデータ1021においては、発音されるべき音の高さが周波数ではなく、「C4」等の音高名で表現されている。これはデータの可読性を高めるためであって、例えば音高名「C4」の代わりに周波数「261.626」(Hz)といったピッチを直接示すデータが用いられてもよい。
As illustrated in the event data with timing [03: 01: 240 / note on / C4 (72)], in the
また、基準ピッチデータ1021の形式は図2に例示のものに限られず、例えばSMF(Standard Musical Instrument Digital Interface File)の形式に従ったものであってもよい。
The format of the
制御部101は、基準ピッチデータ1021に従い、楽曲の再生指示を行う再生部1011を備えている。再生部1011は、ユーザによるキーボード14を用いた操作により楽曲の再生開始の指示を受けると、発振器104から受け取るクロック信号の数を数えることにより、楽曲の開始タイミングからの経過時間を継続的に計時し、基準ピッチデータ1021に含まれるタイミング付イベントデータの「タイミング」欄により示されるタイミングが到来すると、そのタイミング付イベントデータの「種別」欄および「内容」欄のデータに演奏パートを示すデータを付加した後、「種別」欄の内容に応じて、制御部101が備える他の構成部に引き渡す。以下、再生部1011により他の構成部に引き渡される「演奏パート」欄、「種別」欄および「内容」欄で構成されるデータを「イベントデータ」と呼ぶ。イベントデータは、例えば[ピアノ/ノートオン/D4(63)]のような形式のデータである。
The
制御部101は、再生部1011から受け取るイベントデータに従い、指定された音色の指定されたピッチの音を示す音信号を生成する音源部1012を備えている。音源部1012は例えばFM(Frequency Modulation)方式により同時に異なる音色、ピッチおよび音強の音を示す音信号を生成することができる。ただし、音源部1012の方式はFM方式に限られず、PCM(Pulse Code Modulation)方式や物理モデル方式など、他のいずれの方式であってもよい。音源部1012は再生部1011から「種別」欄が「音色」、「ノートオン」もしくは「ノートオフ」であるイベントデータを受け取る。音源部1012は受け取ったイベントデータに従い、各々の演奏パートに関し、指定された音を示す音信号を生成し、生成した音信号を入出力インタフェース103に引き渡す。
The
入出力インタフェース103は音信号を外部装置に出力する音信号出力部1031を備えている。音信号出力部1031は音源部1012から音信号を受け取り、受け取った音信号をスピーカ11に出力する。スピーカ11は音信号出力部1031から音信号を受け取ると、受け取った音信号を音に変換し発音する。その結果、ユーザは基準ピッチデータ1021により示される演奏の内容を聞くことができる。ここで、ボーカルパートの演奏音はユーザが歌唱すべき音のピッチを示すガイド音である。
The input /
ユーザは楽曲の演奏開始に先立ち、いずれの演奏パートの音をスピーカ11から発音させるかを選択することができる。例えば、ユーザによりボーカルおよびフルートの音を消音して演奏を行う旨の指示があった場合、再生部1011は基準ピッチデータ1021のうちピアノパートのみのデータに従いイベントデータを音源部1012に引き渡す。その結果、ボーカルパートのガイド音とフルートパートの伴奏音はスピーカ11から発音されなくなる。
The user can select which performance part sound is to be generated from the
入出力インタフェース103は外部装置から音信号を受け取る音信号入力部1032を備えている。ユーザがピッチ通知装置10に対し演奏開始の指示を行い、スピーカ11から発音される楽曲の伴奏音やガイド音に従い歌唱を行うと、マイク12はユーザの歌唱音を含む周囲の音を集音し、集音した音を示す音信号を音信号入力部1032に出力する。音信号入力部1032はマイク12から音信号を受け取ると、受け取った音信号を記憶部102に実演奏波形データ1022として記憶させる。
The input /
制御部101は、ユーザの歌唱音のピッチをほぼリアルタイムに特定するピッチ特定部1013を備えている。ピッチ特定部1013は、記憶部102に順次記憶されてゆく実演奏波形データ1022の中から、最近に記憶された所定時間分の波形データを取り出す。以下、所定時間分の波形データを「フレーム」と呼ぶ。1フレームの長さはピッチ特定に十分な長さであり、かつ特定したピッチと現在発音されている音のピッチとの時間的なズレがユーザにとって許容可能な程度に短い必要がある。以下、例として、1フレームの長さは100ミリ秒であるものとする。
The
音の波形データからその音のピッチを特定する方法としては様々なものが提案されている。以下、例として、ピッチ特定部1013は音の波形データのパワースペクトルに基づきピッチの特定を行うものとする。ただし、ピッチ特定部1013がピッチの特定を行う際に用いる方法は、ほぼリアルタイムにピッチの特定が可能であるものであれば、既存のいずれの方法を利用するものであってもよい。
Various methods for specifying the pitch of the sound from the sound waveform data have been proposed. Hereinafter, as an example, the
ピッチ特定部1013は、実演奏波形データ1022から取り出した1フレームに対し高速フーリエ変換等の処理を施し、取り出した1フレームにより示される波形に含まれる周波数成分の分布を算出する。続いて、ピッチ特定部1013は算出した周波数成分の分布を示すグラフの包絡線を示すグラフを求める。図3は、ピッチ特定部1013により算出される周波数成分の分布の包絡線を示すグラフを例示した図である。図3において、Wで示される周波数帯は、一般的な人間の声の中心周波数が分布する範囲である。
The
図3のグラフにより示される周波数成分の分布によれば、周波数ω1〜ω6の6つの周波数において周波数成分の振幅が極大値をとる。このように周波数成分の振幅が極大値をとる周波数は、音波形により示される音の基本周波数の候補となる周波数である。しかしながら、通常、音には基本周波数の成分のみでなく、基本周波数の倍音成分も多く含まれている。また、演奏トレーニングシステム1においてマイク12が集音する音には、ユーザの歌唱音に加え、ピッチ通知装置10の音源部1012により生成されスピーカ11から発音される伴奏音やガイド音が混ざっている。従って、例えば図3に示される周波数ω1〜ω6のいずれがユーザの歌唱音の基本周波数であるかは容易に特定できない。
According to the distribution of frequency components shown in the graph of FIG. 3, the amplitude of the frequency component has a maximum value at six frequencies ω 1 to ω 6 . Thus, the frequency at which the amplitude of the frequency component takes the maximum value is a frequency that is a candidate for the fundamental frequency of the sound indicated by the sound waveform. However, the sound usually includes not only the fundamental frequency component but also many harmonic components of the fundamental frequency. The sound collected by the
そこで、ピッチ特定部1013は再生部1011から演奏パート「ボーカル」、種別「ノートオン」であるイベントデータを受け取り、受け取ったイベントデータにより示される音程、すなわちボーカルパートがその時点で発音すべき歌唱音の音程を利用して、いずれの基本周波数の候補が正しい基本周波数であるかを特定する。
Therefore, the
具体的には、ピッチ特定部1013は再生部1011から最後に受け取った演奏パート「ボーカル」、種別「ノートオン」であるイベントデータの「内容」欄に示される音高名を周波数に変換する。例えば、イベントデータにより示される音高名が「A4」であれば、ピッチ特定部1013はその音高名に対応する周波数として「440.000」を得る。以下、そのように変換された周波数をω0とする。また、イベントデータにより示される音高の音を以下、「基準音高」と呼ぶ。
Specifically, the
続いて、ピッチ特定部1013は図3に示される周波数ω1〜ω6のうち、周波数帯Wに含まれるものを抽出する。この例の場合、周波数ω2およびω3が抽出される。続いて、ピッチ特定部1013は抽出した周波数の各々に関し、例えば以下の(式1)に示される関数の値を算出する。
ただし、(式1)におけるs(ω)は周波数ωにおける周波数成分の振幅を示している。また、kは任意の自然数であり、ωkはユーザの歌唱音の基本周波数の候補を示す。図3の例による場合、k=2またはk=3である。(式1)の右辺第1項は、基本周波数の候補における周波数成分の振幅を示す項である。(式1)の右辺第2項は、基準ピッチデータ1021により示される基準音高の周波数と基本周波数の候補との差を示す項であるが、必ず0以上の値をとるようにその差が自乗されている。(式1)におけるcは、基本周波数の候補における周波数成分の振幅の関数f(ωk)における寄与度を示す係数を決定するための変数であり、0から1の範囲で経験的に適当な値が選択される。
However, s (ω) in (Equation 1) indicates the amplitude of the frequency component at the frequency ω. Further, k is an arbitrary natural number, and ω k indicates a candidate for the fundamental frequency of the user's singing sound. In the example of FIG. 3, k = 2 or k = 3. The first term on the right side of (Expression 1) is a term indicating the amplitude of the frequency component in the fundamental frequency candidate. The second term on the right side of (Equation 1) is a term indicating the difference between the reference pitch frequency indicated by the
(式1)により示される関数f(ωk)の値は、基本周波数の候補における周波数成分の振幅に対し、基準ピッチデータ1021により示される基準音高の周波数と基本周波数の候補との差に基づくバイアスを加えた値である。ピッチ特定部1013はk=2およびk=3の各々に関し関数f(ωk)の値を算出し、それらの値が最大である場合のωkを、ユーザが現在発音している歌唱音の基本周波数として特定する。
The value of the function f (ω k ) expressed by (Equation 1) is the difference between the frequency of the reference pitch indicated by the
従来技術により単純に周波数成分が最大となる周波数を音波形の基本周波数として選択する場合、例えば図3において、ω3が歌唱音の正しい基本周波数であり、ω2はフルートパートによる伴奏音の基本周波数であったような場合、より振幅の大きいω2が誤って歌唱音の基本周波数として特定される。これに対し、ピッチ特定部1013が用いる上記(式1)のような関数値においては、基準音高の周波数から大きく外れた基本周波数の候補に関しては、第2項の絶対値が大きくなる結果、関数f(ωk)の値が小さくなり、最終的に基本周波数として選択されることがなく、正しい基本周波数の特定が行われる可能性が高まる。
When the frequency having the maximum frequency component is simply selected as the fundamental frequency of the sound waveform according to the prior art, for example, in FIG. 3, ω 3 is the correct fundamental frequency of the singing sound, and ω 2 is the basic accompaniment sound by the flute part. If it is a frequency, ω 2 having a larger amplitude is erroneously specified as the fundamental frequency of the singing sound. On the other hand, in the function value as in the above (formula 1) used by the
ただし、上記(式1)はピッチ特定部1013が歌唱音の基本周波数を特定するために用いる関数式の例示であって、他にも様々な関数式が利用可能であることは言うまでもない。要すれば、基準音高の周波数と基本周波数の候補との差を反映させることにより、複数の基本周波数の候補から正しい基本周波数を特定する方法であれば、如何なる方法であってもピッチ特定部1013がピッチを特定するための方法として採用可能である。
However, the above (Formula 1) is an example of a functional formula used by the
また、ピッチ特定部1013が周波数分布の振幅が極値をとる場合の周波数を基本周波数の候補として用いる代わりに、例えば周波数帯Wに含まれる周波数を1Hzごとに順次取り出して基本周波数の候補とし、それらの基本周波数の候補について(式1)の関数(ωk)の値を算出し、算出した値が最大となるωkを基本周波数として特定するようにしてもよい。
Further, instead of using the frequency when the amplitude of the frequency distribution takes an extreme value as the fundamental frequency candidate, for example, the
ピッチ特定部1013は、上記の基本周波数の特定処理を、例えば10ミリ秒ごとに行い、その結果を示すデータをその時点の楽曲におけるタイミングを示すデータに対応付けて、順次、記憶部102に記憶する。ピッチ特定部1013は演奏が終了すると、その演奏において演奏音の発音が行われていた演奏パートを示すデータを、順次記憶した基本周波数およびタイミングを示すデータの集まりに対応付けて、実演奏ピッチデータ1023として記憶部102に記憶する。図4は実演奏ピッチデータ1023の内容を例示した図である。なお、ユーザにより演奏トレーニングシステム1を用いた歌唱練習が複数回行われた場合、その各々の歌唱練習に対応する実演奏ピッチデータ1023が記憶部102に記憶されることになる。
The
制御部101は、ユーザの歌唱音に影響を与えている他の演奏パートを特定する演奏パート特定部1014を備えている。演奏パート特定部1014の処理は、過去の演奏に関する実演奏ピッチデータ1023が記憶部102に記憶されているか否か、記憶されている場合にいずれの演奏パートによる演奏に関する実演奏ピッチデータ1023が記憶されているか、現在の演奏において発音している演奏パートはいずれであるか、に応じて異なる。以下、それらのバリエーションごとに演奏パート特定部1014の処理を説明する。
The
(ケース1:過去の演奏に関する実演奏ピッチデータがなく、発音中の伴奏パートが単声の場合)
まず、記憶部102にまだ過去の演奏に関する実演奏ピッチデータ1023が記憶されておらず、ボーカルパート以外の演奏パート、すなわち伴奏パートのうち発音を行っているものが1つであり、かつフルートのように単声楽器である場合、演奏パート特定部1014は再生部1011からボーカルパートおよび発音中の伴奏パートに関する種別「ノートオン」のイベントデータを受け取る。また、演奏パート特定部1014はピッチ特定部1013からピッチ特定部1013により特定された現時点の歌唱音のピッチを示すデータ(以下、「現時点実演奏ピッチデータ」と呼ぶ)を順次受け取る。
(Case 1: There is no actual performance pitch data related to past performances, and the accompaniment part being pronounced is a single voice)
First, the actual
演奏パート特定部1014は、それらのデータにより示されるガイド音のピッチ、伴奏音のピッチおよびユーザの歌唱音のピッチの高低関係に基づき、演奏中において伴奏音により歌唱音が影響を受けている箇所を特定する。以下、具体例を用いてその処理を説明する。今、演奏中のあるタイミングにおいて、演奏パート特定部1014が最後に受け取った各演奏パートに関するイベントデータおよび現時点実演奏ピッチデータが以下のとおりであったとする。
(a)イベントデータ[ボーカル/ノートオン/C4]
(b)イベントデータ[フルート/ノートオン/A5]
(c)現時点実演奏ピッチデータ[258.415]
The performance
(A) Event data [Vocal / Note On / C4]
(B) Event data [flute / note on / A5]
(C) Current performance pitch data [258.415]
ここで、上記(a)はガイド音の音高を示し、上記(b)は伴奏音の音高を示している。演奏パート特定部1014は、伴奏音の音高がガイド音の音高の前後にまたがる1オクターブの音域に入るように、伴奏音の音高をオクターブ単位でシフトさせる。上記の例の場合、ガイド音の音高は[C4]であり、伴奏音の音高は[A5]であるため、演奏パート特定部1014は伴奏音の音高を[A4]にシフトダウンする。このように、伴奏音の音高をピッチシフトさせるのは、楽曲において音の絶対的な高低よりも音階上の高低の方が楽曲においては意味を有するためである。以下、ガイド音に伴奏音の音高を近づける音高のシフト処理を「音高シフト処理」と呼ぶ。
Here, (a) indicates the pitch of the guide sound, and (b) indicates the pitch of the accompaniment sound. The performance
続いて、演奏パート特定部1014はガイド音の音高およびピッチシフト後の伴奏音(以下、単に「伴奏音」と呼ぶ)の音高を、対応する周波数に変換する。例えば、音高[C4]は周波数[261.626]Hzに、音高[A4]は周波数[220.000]Hzに各々変換される。以下、音高名により示される音高を周波数に変換する処理を「音高変換処理」と呼ぶ。演奏パート特定部1014は音高変換処理により、ガイド音の周波数[261.626]Hz、伴奏音の周波数[220.000]Hzおよびユーザの歌唱音の周波数[258.415]Hzを得る。以下、それらの値をfa、fbおよびfcと呼ぶ。
Subsequently, the performance
続いて、演奏パート特定部1014は歌唱音のガイド音からのずれの指標として、d=(|fc−fa|)/fa×100(%)を算出する。演奏パート特定部1014はこのように算出したずれの指標が所定の閾値、例えば1.00(%)以上である場合、歌唱音が修正を要する程度にガイド音からずれていると判定する。以下、指標dにより歌唱音が修正を要する程度にずれていることを検出する処理を「ずれ検出処理」と呼ぶ。
Subsequently, the playing
ずれ検出処理において修正を要するずれを検出した場合、演奏パート特定部1014は伴奏音がそのずれに影響を与えているか否かを判断する。具体的には、演奏パート特定部1014は伴奏音のピッチがガイド音のピッチから見て歌唱音のピッチと同じ側にあり、かつ歌唱音のピッチよりも離れている場合、歌唱音のずれが伴奏音に影響されているものと判定する。
When a deviation requiring correction is detected in the deviation detection process, the performance
例えば上記の例の場合、ずれの指標はd=約1.23となり、所定の閾値1.00(%)以上である。また、ガイド音の周波数(fa=261.626)からみて伴奏音の周波数(fb=220.000)が歌唱音の周波数(fc=258.415)と同じ側にあり、かつガイド音の周波数と伴奏音の周波数との差の絶対値(|fa−fb|=41.626)が、ガイド音の周波数と歌唱音の周波数との差の絶対値(|fa−fc|=3.211)よりも大きい。従って、演奏パート特定部1014は歌唱音のずれが伴奏音により影響されている、と推定する。以下、ある伴奏音の周波数、ガイド音の周波数および歌唱音の周波数の関係に基づきその伴奏音が歌唱音のずれに影響を与えていると推定する処理を「影響推定処理」と呼ぶ。
For example, in the case of the above example, the deviation index is d = about 1.23, which is equal to or greater than the predetermined threshold value 1.00 (%). Further, the frequency of the accompaniment sound (f b = 220.000) is on the same side as the frequency of the singing sound (f c = 258.415) when viewed from the frequency of the guide sound (f a = 261.626), and the guide sound the absolute value of the difference between the frequency of the accompaniment sound (| f a -f b | = 41.626) is the frequency of the guide sound absolute value of the difference between the frequency of the singing sound (| f a -f c | = 3.211). Accordingly, the performance
制御部101は、イベントデータにより示されるガイド音および伴奏音のピッチと、ユーザの歌唱音のピッチをグラフで示す画面の画像信号を生成する画像信号生成部1015を備えている。演奏パート特定部1014は、影響推定処理において伴奏音が歌唱音のずれに影響を与えていると推定した場合、その伴奏音を発音している演奏パートを示すデータ(以下、「演奏パートデータ」と呼ぶ)を画像信号生成部1015に引き渡す。また、演奏パート特定部1014は伴奏音が歌唱音に影響を与えていないと推定した場合、いずれの演奏パートも歌唱に影響を与えていないことを示すデータとして、例えば演奏パートデータ「なし」を画像信号生成部1015に引き渡す。
The
(ケース2:過去の演奏に関する実演奏ピッチデータがなく、発音中の伴奏パートが複数もしくは多声の場合)
記憶部102にまだ過去の演奏に関する実演奏ピッチデータ1023が記憶されておらず、発音を行っている伴奏パートが複数ある場合や伴奏パートが多声楽器である場合、演奏パート特定部1014は再生部1011からボーカルパートおよび発音中の全ての伴奏パートに関する種別「ノートオン」のイベントデータを受け取る。また、演奏パート特定部1014はピッチ特定部1013から現時点実演奏ピッチデータを順次受け取る。
(Case 2: When there is no actual performance pitch data related to past performances and there are multiple or polyphonic accompaniment parts)
When the actual
伴奏パートがピアノのように多声楽器である場合、演奏パート特定部1014はその伴奏パートにより同時に発音される和音の列を複数のメロディラインに分離し、以下の処理においてそれぞれのメロディラインを1つの単声楽器により演奏される音の列として扱う。
When the accompaniment part is a polyphonic instrument such as a piano, the performance
続いて、演奏パート特定部1014は、各々の伴奏音に関し音高シフト処理を行い、伴奏音の音高をガイド音の音高の近辺にシフトさせる。その後、演奏パート特定部1014はガイド音の音高およびシフト後の伴奏音(以下、単に「伴奏音」と呼ぶ)の音高に関し音高変換処理を行い、各々の周波数を得る。
Subsequently, the performance
演奏パート特定部1014は、上記のように得られた周波数を用いて、ずれ検出処理を行う。演奏パート特定部1014はピッチ特定部1013から現時点実演奏ピッチデータを受け取るごとに上述した一連の処理を行う。演奏パート特定部1014は、ずれ検出処理を行うと、ずれの有無を示すデータと、ガイド音、各々の伴奏音および歌唱音のピッチを示す周波数を対応付けたデータを生成し、生成したデータを順次、作業用ピッチデータ1024として一時的に記憶部102に記憶する。図5は作業用ピッチデータ1024の内容を例示した図である。図5において、伴奏音1は伴奏パート「フルート」の音のピッチを示し、伴奏音2〜伴奏音4は各々、伴奏パート「ピアノ」の第1声〜第3声の音のピッチを示している。
The performance
演奏パート特定部1014は、ずれ検出処理において修正を要するずれがあると判定した場合、複数の伴奏音のいずれによってそのずれが引き起こされているかを推定する。そのため、演奏パート特定部1014はまず各々の伴奏音について影響推定処理を行い、その処理において肯定的な結果が出た伴奏音を、ユーザの歌唱を誤らせている原因の伴奏音の候補として抽出する。つまり、ガイド音からみて、歌唱音と同じ側の音域であり、かつ歌唱音よりもガイド音から離れている伴奏音が、歌唱音に影響を与えている伴奏音の候補として抽出される。以下、歌唱音に影響を与えている伴奏音の候補を抽出する処理を「候補音抽出処理」と呼ぶ。
When the performance
演奏の開始直後等であって、作業用ピッチデータ1024に記憶されているデータのうち、「ずれの有無」が「有」であるデータの数がまだ少ない場合、演奏パート特定部1014は候補音抽出処理によって抽出した伴奏音のうち歌唱音のピッチに最も近いピッチの伴奏音を発音している演奏パートを、歌唱音のずれに影響を与えている演奏パートであると推定する。
If there is still a small number of data in which “presence / absence of deviation” is “present” among the data stored in the
一方、作業用ピッチデータ1024に記憶されているデータのうち、「ずれの有無」が「有」であるデータの数が十分に多い場合、演奏パート特定部1014は作業用ピッチデータ1024に記憶されているデータの中から「ずれの有無」が「有」であるデータを抽出し、候補音抽出処理において抽出した伴奏音の演奏パートの各々に関し、抽出したデータにより示されるガイド音のピッチと歌唱音のピッチとの差と、ガイド音のピッチと伴奏音のピッチとの差との相関係数を算出する。
On the other hand, when the number of data having “existence of deviation” is “present” among the data stored in the
例えば、あるタイミングにおいて伴奏音1(フルート)が歌唱音に影響を与えている伴奏音の候補として抽出された場合、作業用ピッチデータ1024のデータのうち「ずれの有無」が「有」であるものに含まれるガイド音の周波数の列をfak、伴奏音1の周波数の列をfbk、歌唱音の周波数の列をfck(ただし、k=1〜nの自然数、nは「ずれの有無」が「有」であるデータの数)とすると、演奏パート特定部1014はkに応じて変化する(fbk−fak)と(fck−fak)の組合せについての相関係数を算出する。そのように算出される相関係数は、過去に歌唱音がガイド音からずれた箇所において、ガイド音のピッチを基準とした場合における、歌唱音の変化と伴奏音の変化の相関関係を示す指標である。
For example, when accompaniment sound 1 (flute) is extracted as a candidate for an accompaniment sound that affects the singing sound at a certain timing, “presence / absence of deviation” is “present” in the
演奏パート特定部1014は、候補音抽出処理において抽出した伴奏音の演奏パートの全てについて相関係数を算出すると、最も大きい相関係数が算出された演奏パートを、歌唱音のずれに影響を与えている演奏パートであると推定する。
When the performance
演奏パート特定部1014は、上記のように歌唱音のずれに影響を与えている演奏パートを推定すると、推定した演奏パートを示す演奏パートデータを画像信号生成部1015に引き渡す。また、演奏パート特定部1014はいずれの演奏パートも歌唱音のずれに影響を与えていないと判定した場合、例えば演奏パートデータ「なし」を画像信号生成部1015に引き渡す。
When the performance
(ケース3:現在の演奏に参加している伴奏パートが参加していない過去の演奏に関する実演奏ピッチデータが記憶されている場合)
現在行われている演奏において発音を行っている伴奏パートのいずれかが参加していない過去の演奏に関する実演奏ピッチデータ1023が記憶部102に記憶されている場合、演奏パート特定部1014は再生部1011からボーカルパートおよび発音中の全ての伴奏パートに関する種別「ノートオン」のイベントデータを受け取る。また、演奏パート特定部1014はピッチ特定部1013から現時点実演奏ピッチデータを順次受け取る。
(Case 3: When actual performance pitch data relating to past performances in which an accompaniment part participating in the current performance does not participate is stored)
When actual
演奏パート特定部1014は、多声楽器の伴奏パートの和音の列を複数のメロディラインに分離する処理、伴奏音に関する音高シフト処理、ガイド音および伴奏音に関する音高変換処理を行い、ガイド音の周波数、伴奏音の各々の周波数および現在の演奏における歌唱音の周波数を得る。
The performance
続いて、演奏パート特定部1014は記憶部102から、過去の演奏に関する実演奏ピッチデータ1023に含まれるデータのうち、現在演奏されている楽曲中のタイミングに対応するタイミングのデータを読み出す。以下、そのように読み出されたデータを「過去実演奏ピッチデータ」と呼ぶ。今、以上のようにして得られた周波数を示すデータが以下のとおりであるものとする。
(a)ガイド音[261.626]
(b1)伴奏音1(フルート)[220.000]
(b2)伴奏音2(ピアノ1)[196.000]
(b3)伴奏音3(ピアノ2)[246.942]
(b4)伴奏音4(ピアノ3)[293.665]
(c)現時点実演奏ピッチデータ[258.415]
(d)過去実演奏ピッチデータ[260.521]
Subsequently, the performance
(A) Guide sound [261.626]
(B1) Accompaniment sound 1 (flute) [220.000]
(B2) Accompaniment sound 2 (piano 1) [196.000]
(B3) Accompaniment sound 3 (piano 2) [2466.942]
(B4) Accompaniment sound 4 (piano 3) [293.665]
(C) Current performance pitch data [258.415]
(D) Past actual performance pitch data [260.521]
ここで、記憶部102に記憶されている過去の演奏に関する実演奏ピッチデータ1023により示される、演奏において発音していた演奏パートが「ピアノ」であった場合、上記のデータは以下の事実を示している。
(イ)現在行われている演奏において、歌唱音(258.415Hz)はガイド音(261.626Hz)から修正を要する程度にずれている。
(ロ)過去に行われた演奏において、歌唱音(260.521Hz)は現在の歌唱音よりガイド音(261.626Hz)に近かった。
(ハ)過去に行われた演奏においては伴奏パート「フルート」は発音していなかったが、現在の演奏においては伴奏パート「フルート」が発音している。
Here, when the performance part sounded in the performance indicated by the actual
(A) In the performance currently being performed, the singing sound (258.415 Hz) deviates from the guide sound (261.626 Hz) to the extent that requires correction.
(B) In performances performed in the past, the singing sound (260.521 Hz) was closer to the guide sound (261.626 Hz) than the current singing sound.
(C) The accompaniment part “flute” was not pronounced in the performances performed in the past, but the accompaniment part “flute” is pronounced in the current performance.
上記のことから、ユーザは現在の歌唱において伴奏パート「フルート」の音に引きずられて本来出すべき音のピッチよりも低いピッチの音を出している可能性がある、と推論される。そこで、演奏パート特定部1014は伴奏パート「フルート」の伴奏音1が、現在の歌唱音のずれに影響を与えているか否かの推定を行う。その推定の方法は、上述したケース1におけるものと同様である。
From the above, it is inferred that there is a possibility that the user is producing a sound with a pitch lower than that of the sound that should be originally produced by being dragged by the sound of the accompaniment part “flute” in the current song. Therefore, the performance
一方、記憶部102に記憶されている過去の演奏に関する実演奏ピッチデータ1023により示される、演奏において発音していた演奏パートが「フルート」であった場合、上記のデータは以下の事実を示している。
(イ)現在行われている演奏において、歌唱音(258.415Hz)はガイド音(261.626Hz)から修正を要する程度にずれている。
(ロ)過去に行われた演奏において、歌唱音(260.521Hz)は現在の歌唱音よりガイド音(261.626Hz)に近かった。
(ハ)過去に行われた演奏においては伴奏パート「ピアノ」は発音していなかったが、現在の演奏においては伴奏パート「ピアノ」が発音している。
On the other hand, when the performance part sounded in the performance indicated by the actual
(A) In the performance currently being performed, the singing sound (258.415 Hz) deviates from the guide sound (261.626 Hz) to the extent that requires correction.
(B) In performances performed in the past, the singing sound (260.521 Hz) was closer to the guide sound (261.626 Hz) than the current singing sound.
(C) The accompaniment part “piano” was not pronounced in the performances performed in the past, but the accompaniment part “piano” is pronounced in the current performance.
上記のことから、ユーザは現在の歌唱において伴奏パート「ピアノ」のいずれかの音に引きずられて本来出すべき音のピッチよりも低いピッチの音を出している、と推論される。そこで、演奏パート特定部1014は伴奏パート「ピアノ」から分離された伴奏音2〜4のいずれが現在の歌唱音のずれに影響を与えている伴奏音であるかを推定する。その推定の方法は、上述したケース2におけるものと同様である。
From the above, it is inferred that the user is making a sound with a pitch lower than the pitch of the sound that should be originally produced by being dragged by any sound of the accompaniment part “piano” in the current song. Therefore, the performance
演奏パート特定部1014は、上記のように歌唱音のずれに影響を与えている伴奏音の演奏パートを推定すると、推定した演奏パートを示す演奏パートデータを画像信号生成部1015に引き渡す。また、演奏パート特定部1014はいずれの演奏パートも歌唱音のずれに影響を与えていないと判定した場合、例えば演奏パートデータ「なし」を画像信号生成部1015に引き渡す。
When the performance
(ケース4:現在の演奏に参加していない伴奏パートが参加していた過去の演奏に関する実演奏ピッチデータが記憶されている場合)
現在行われている演奏において発音を行っていない伴奏パートのいずれかが参加している過去の演奏に関する実演奏ピッチデータ1023が記憶部102に記憶されている場合、演奏パート特定部1014は再生部1011から、ボーカルパートおよび過去の演奏において発音していた全ての伴奏パートに関する種別「ノートオン」のイベントデータを受け取る。また、演奏パート特定部1014はピッチ特定部1013から現時点実演奏ピッチデータを順次受け取る。
(Case 4: Actual performance pitch data related to past performances in which accompaniment parts not participating in the current performance participated are stored)
When actual
演奏パート特定部1014は、多声楽器の伴奏パートの和音の列を複数のメロディラインに分離する処理、伴奏音に関する音高シフト処理、ガイド音および伴奏音に関する音高変換処理を行い、ガイド音の周波数、伴奏音の各々の周波数および現在の演奏における歌唱音の周波数を得る。
The performance
続いて、演奏パート特定部1014は記憶部102から、過去の演奏に関する実演奏ピッチデータ1023から過去実演奏ピッチデータ、すなわち現在演奏されている楽曲中のタイミングに対応するタイミングのデータを読み出す。今、以上のようにして得られた周波数を示すデータが以下のとおりであるものとする。
(a)ガイド音[261.626]
(b1)伴奏音1(フルート)[220.000]
(b2)伴奏音2(ピアノ1)[196.000]
(b3)伴奏音3(ピアノ2)[246.942]
(b4)伴奏音4(ピアノ3)[293.665]
(c)現時点実演奏ピッチデータ[261.102]
(d)過去実演奏ピッチデータ[265.314]
Subsequently, the performance
(A) Guide sound [261.626]
(B1) Accompaniment sound 1 (flute) [220.000]
(B2) Accompaniment sound 2 (piano 1) [196.000]
(B3) Accompaniment sound 3 (piano 2) [2466.942]
(B4) Accompaniment sound 4 (piano 3) [293.665]
(C) Current actual performance pitch data [261.102]
(D) Past actual performance pitch data [265.314]
ここで、現在の演奏において発音を行っている伴奏パートが「フルート」のみであった場合、上記のデータは以下の事実を示している。
(イ)現在行われている演奏において、歌唱音(261.102Hz)は修正を要しない程度にガイド音(261.626Hz)に近い。
(ロ)過去に行われた演奏において、歌唱音(265.314Hz)はガイド音(261.626Hz)から修正を要する程度にずれていた。
(ハ)過去に行われた演奏においては伴奏パート「ピアノ」が発音していたが、現在の演奏においては伴奏パート「ピアノ」は発音していない。
Here, when the accompaniment part that produces pronunciation in the current performance is only “flute”, the above data indicates the following facts.
(A) In the performance currently being performed, the singing sound (261.102 Hz) is close to the guide sound (261.626 Hz) to the extent that no correction is required.
(B) In performances performed in the past, the singing sound (265.314 Hz) deviated from the guide sound (261.626 Hz) to the extent that correction is required.
(C) The accompaniment part “piano” was pronounced in the performances performed in the past, but the accompaniment part “piano” is not pronounced in the current performance.
上記のことから、ユーザは過去の演奏において伴奏パート「ピアノ」のいずれかの音に引きずられて本来出すべき音のピッチよりも高いピッチの音を出していた、と推論される。そこで、演奏パート特定部1014は過去の演奏における伴奏パート「ピアノ」から分離された伴奏音2〜4のいずれが過去の歌唱音のずれに影響を与えていた伴奏音であったかを推定する。その推定の方法は、上述したケース2におけるものと同様である。
From the above, it is inferred that the user has been producing a sound with a pitch higher than the pitch of the sound that should be originally produced by being dragged by any sound of the accompaniment part “piano” in the past performance. Therefore, the performance
一方、現在の演奏において発音を行っている伴奏パートが「ピアノ」のみであった場合、上記のデータは以下の事実を示している。
(イ)現在行われている演奏において、歌唱音(261.102Hz)は修正を要しない程度にガイド音(261.626Hz)に近い。
(ロ)過去に行われた演奏において、歌唱音(265.314Hz)はガイド音(261.626Hz)から修正を要する程度にずれていた。
(ハ)過去に行われた演奏においては伴奏パート「フルート」が発音していたが、現在の演奏においては伴奏パート「フルート」は発音していない。
On the other hand, when the accompaniment part that produces pronunciation in the current performance is only “piano”, the above data shows the following facts.
(A) In the performance currently being performed, the singing sound (261.102 Hz) is close to the guide sound (261.626 Hz) to the extent that no correction is required.
(B) In performances performed in the past, the singing sound (265.314 Hz) deviated from the guide sound (261.626 Hz) to the extent that correction is required.
(C) The accompaniment part “flute” was pronounced in the performances performed in the past, but the accompaniment part “flute” was not pronounced in the current performance.
上記のことから、ユーザは過去の演奏において伴奏パート「フルート」の音に引きずられて本来出すべき音のピッチよりも高いピッチの音を出していた可能性がある、と推論される。そこで、演奏パート特定部1014は過去の演奏における伴奏パート「フルート」の伴奏音1が過去の歌唱音のずれに影響を与えていた伴奏音であったかを推定する。その推定の方法は、上述したケース1におけるものと同様である。
From the above, it is inferred that in the past performance, the user might have been dragged by the sound of the accompaniment part “flute” and had produced a sound with a pitch higher than the pitch of the sound that should be originally produced. Therefore, the performance
演奏パート特定部1014は、上記のように歌唱音のずれに影響を与えていた伴奏音の演奏パートを推定すると、推定した演奏パートを示す演奏パートデータを画像信号生成部1015に引き渡す。また、演奏パート特定部1014はいずれの演奏パートも歌唱音のずれに影響を与えていなかったと判定した場合、例えば演奏パートデータ「なし」を画像信号生成部1015に引き渡す。
When the performance
画像信号生成部1015は、上述したように演奏パート特定部1014から、歌唱音のずれに影響を与えていると推定される演奏パートを示す演奏パートデータを受け取る。また、画像信号生成部1015は、再生部1011から各演奏パートにより発音される音の音高や表示されるべき歌詞を示すイベントデータを受け取る。また、画像信号生成部1015は、ピッチ特定部1013から現時点実演奏ピッチデータを受け取る。画像信号生成部1015はそれらのデータを用いて、ユーザに対し、歌唱すべき歌詞、ガイド音のピッチ、伴奏音のピッチ、歌唱音のピッチ、歌唱音がガイド音からずれた箇所およびそのずれに影響を与えたと推定される演奏パートを示すための画像信号を生成する。
As described above, the image
入出力インタフェース103は、画像信号生成部1015により生成された画像信号を外部装置に出力する画像信号出力部1033を備えている。画像信号生成部1015は生成した画像信号を、画像信号出力部1033を介してディスプレイ13に送信する。
The input /
図6は、画像信号出力部1033から送信された画像信号に従い、ディスプレイ13により表示される画像を示した図である。図6に示される画像において、横軸は楽曲の進行に伴い経過する時間を示しており、縦軸は発音される音のピッチを示している。文字131は歌詞を示している。ライン132は楽曲における現在のタイミングを示している。
FIG. 6 is a diagram showing an image displayed on the
折れ線133〜135はそれぞれ、ガイド音、伴奏パート1(フルート)および伴奏パート2(ピアノ1)のピッチを示している。また、曲線136は歌唱音のピッチを示している。なお、図6においては図の簡略化のため伴奏パート3および4(ピアノ2および3)のピッチを示す折れ線は省略されている。なお、過去の演奏に参加し、現在の演奏に参加していない伴奏パートのピッチを示す折れ線については、例えば点線で示す等により現在の演奏に参加している伴奏パートのピッチを示す折れ線と区別される。
The
折れ線134および135には、それぞれマーカ137および138が付されている。これらのマーカは、歌唱音のピッチがガイド音のピッチから大きくずれた期間を示すとともに、そのずれの原因となったと推定される演奏パートおよびその演奏パートにより発音された音のピッチを示すマーカである。ただし、ここで折れ線134で示される伴奏パート1(フルート)は現在の演奏に参加しておらず、過去の演奏のマーカ137により示される期間において歌唱音に影響を与えていたことが示されている。従って、現在の歌唱音のピッチは、マーカ137により示される期間においてガイド音のピッチから大きく外れていない。つまり、その期間の演奏が、伴奏パート1(フルート)が抜けることにより改善されていることを示している。また、矢印139および140は、各々、いずれの伴奏パートにより歌唱音が影響されているかを示す矢印である。
以上のように、演奏トレーニングシステム1によれば、ユーザは自分の現在の演奏音のピッチが本来発音されるべき音のピッチからどれだけずれているかをリアルタイムに確認することができるとともに、そのずれが他のいずれの演奏パートの音によりもたらされているかを知ることができる。従って、ユーザはそのように通知された演奏パートの音に引きずられないように意識しながら演奏のトレーニングを繰り返すことにより、効果的に演奏能力を向上することができる。 As described above, according to the performance training system 1, the user can confirm in real time how much the pitch of his current performance sound is deviated from the pitch of the sound that should be originally pronounced, and the deviation. Can be found by the sound of any other performance part. Therefore, the user can effectively improve performance performance by repeating performance training while being conscious not to be dragged by the sound of the performance part thus notified.
ところで、上記の説明においては、ユーザの演奏パートはボーカルパートであるものとしたが、ユーザの演奏パートがバイオリン等の楽器であってもよい。その場合、ピッチ特定部1013により基本周波数の候補の抽出における周波数帯Wの範囲が異なる他、上記と異なることはない。
In the above description, the performance part of the user is a vocal part, but the performance part of the user may be an instrument such as a violin. In that case, the
また、上記の説明においては、基準ピッチデータ1021は図2に例示されるような演奏制御データの形式をとるものとしたが、例えば図5に例示されるような、各々のタイミングで発音されるべき音のピッチを周波数等により示す形式のデータであってもよい。その場合、音高を周波数に変換する音高変換処理は不要になる。
In the above description, the
また、図6に示した画像は演奏トレーニングシステム1によりユーザに対し演奏に影響を与えている他の演奏パートを通知するための画像の例示であって、他に様々な表示態様があり得ることは言うまでもない。例えば、マーカの代わりに折れ線の色や太さを変えたり、ユーザの演奏音が他の演奏パートの音に引きずられている様子を矢印で示したりしてもよい。 Further, the image shown in FIG. 6 is an example of an image for notifying the user of other performance parts that have an influence on the performance by the performance training system 1, and may have various display modes. Needless to say. For example, the color or thickness of the broken line may be changed instead of the marker, or the state where the user's performance sound is dragged by the sound of another performance part may be indicated by an arrow.
また、ピッチ通知装置10は専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。ピッチ通知装置10が汎用コンピュータにより実現される場合、制御部101の各構成部は、汎用コンピュータが備えるCPU(Central Processing Unit)およびCPUの制御下で動作するDSP(Digital Signal Processor)が、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。
The
[2.第2実施形態]
以下、複数のユーザがコーラスのトレーニングを行う場合を例として、本発明の第2実施形態を説明する。図7は第2実施形態にかかる演奏トレーニングシステム2の構成を示した図である。演奏トレーニングシステム2は演奏トレーニングシステム1と比較し、マイク12をユーザの数に応じて複数備えている点が異なるが、他の構成は演奏トレーニングシステム1と同様である。従って、図7において、演奏トレーニングシステム1の構成部と同じもしくは類似の構成部には、図1において用いられているものと同じ符号が付されている。ただし、演奏トレーニングシステム2が備えるピッチ通知装置は制御部の処理が一部ピッチ通知装置10のそれと異なるため、ピッチ通知装置20としてピッチ通知装置10と区別する。また、演奏トレーニングシステム2の動作は、演奏トレーニングシステム1の動作と多くの点で共通している。従って、以下、それらが異なる点のみを説明する。
[2. Second Embodiment]
Hereinafter, the second embodiment of the present invention will be described using a case where a plurality of users perform chorus training as an example. FIG. 7 is a diagram showing a configuration of the performance training system 2 according to the second embodiment. The performance training system 2 is different from the performance training system 1 in that a plurality of
以下、説明のため、演奏トレーニングシステム2を利用するユーザの数は3名であり、それらをユーザ19−1〜3とする。また、演奏トレーニングシステム2はユーザ19−1〜3が各々利用するマイク12−1〜3を備えているものとする。さらに、ユーザ19−1〜3は、トレーニングを行う合唱曲において、コーラスパート1〜3を各々担当するものとする。 Hereinafter, for explanation, the number of users who use the performance training system 2 is three, and these are users 19-1 to 19-3. The performance training system 2 is assumed to include microphones 12-1 to 12-3 used by the users 19-1 to 19-3. Furthermore, it is assumed that the users 19-1 to 19-3 are in charge of the chorus parts 1 to 3, respectively, in the choral music for training.
ピッチ通知装置20の制御部101が備えるピッチ特定部1013は、マイク12−1〜3の各々により集音された音を示す音信号を受け取り、それら3組の音信号から、ユーザ19−1〜3の各々の歌唱音の基本周波数を特定する。まず、マイク12−1〜3の各々により集音される音には、演奏トレーニングシステム1における場合と同様に、音源部1012から出力されスピーカ11により発音される伴奏パートの音が含まれている。また、マイク12−1〜3の各々のユーザの歌唱音の周波数成分には、基本周波数の倍音成分も含まれている。
The
上記に加え、演奏トレーニングシステム2においては、マイク12−1〜3が同じ空間内に配置されていることから、例えばマイク12−1は主としてユーザ19−1の歌唱音を集音するものの、同時に近くにいるユーザ19−2および3の歌唱音も集音してしまう。従って、ピッチ通知装置20のピッチ特定部1013は、例えばマイク12−1から取得した音信号からユーザ19−1の歌唱音の基本周波数を特定するに際し、他のマイク12、すなわちマイク12−2および3から取得した音信号の周波数成分とマイク12−1から取得した音信号の周波数成分の、基本周波数の候補における振幅の差を変数として含む関数の値を算出し、その値に基づき基本周波数を特定する。
In addition to the above, in the performance training system 2, since the microphones 12-1 to 12-3 are arranged in the same space, for example, the microphone 12-1 mainly collects the singing sound of the user 19-1, but at the same time. The singing sounds of the nearby users 19-2 and 3 are also collected. Therefore, when the
具体的には、ピッチ特定部1013は、まず演奏トレーニングシステム1における場合と同様に、再生部1011から受け取ったイベントデータにより示される、コーラスパート1のガイド音のピッチを示す周波数ω0を算出する。続いて、ピッチ特定部1013はマイク12−1から入力された音信号を示す実演奏波形データ1022に対し周波数分析を行い、その包絡線を示すグラフを求める。ピッチ特定部1013はそのように求めたグラフにおいて、人の音声の基本周波数が分布する周波数帯Wに含まれる、振幅が極大値をとる周波数を基本周波数の候補として抽出する。以下、それらの基本周波数の候補をω1〜ωk(ただし、kは抽出された基本周波数の候補の数)とする。
Specifically, the
続いて、ピッチ特定部1013はマイク12−2および3から入力された音信号を示す実演奏波形データ1022に対し周波数分析を行い、各周波数における周波数成分の振幅を算出する。以下、マイク12−1〜3の各々から入力された音信号の周波数ωにおける周波数成分をsi(ω)(ただし、iはマイク12−1〜3に対応する数値1〜3のいずれか)とする。
Subsequently, the
続いて、ピッチ特定部1013は、例えば以下の(式2)に示される関数の値を算出する。
(式2)の右辺第1項および第3項は、それぞれ演奏トレーニングシステム1における(式1)の右辺第1項および第2項と同様の役割を果たす項である。(式2)の右辺第2項は、基本周波数の候補ωkにおけるマイク12−1により集音された音の周波数成分と他のマイク12により集音された音の周波数成分の差の総和を示す項である。この(式2)の右辺第2項は、ωkがマイク12−1〜3により集音された同じ音のうちマイク12−1により大きなボリュームで集音された音の成分である場合に大きな値となる。従って、f1(ωk)は、ユーザ19−2および3の歌唱音の基本周波数よりも、マイク12−1の近くで歌唱するユーザ19−1の歌唱音の基本周波数において、より大きな値をとる。ピッチ特定部1013は、f1(ωk)の値が最大となるωkをユーザ19−1の歌唱音の基本周波数として特定する。
The first term and the third term on the right side of (Formula 2) are terms that play the same role as the first term and the second term on the right side of (Formula 1) in the performance training system 1, respectively. The second term of the right side of (Equation 2) is the sum of the difference between the frequency components of the sound collected by the frequency component and the
ピッチ特定部1013は、マイク12−2および3から入力された音信号を示す実演奏波形データ1022に対しても、同様の関数値を算出し、算出した関数値が最大となる周波数を、ユーザ19−2および3の歌唱音の基本周波数として特定する。すなわち、(式2)は(式3)のように一般化される。
なお、(式2)もしくは(式3)におけるaおよびbは、各項の寄与度を示す係数を決定するための変数であり、経験的に適当な値が選択される。ここで、(式3)はピッチ特定部1013が歌唱音の基本周波数を特定するために用いる関数式の例示であって、他にも様々な関数式が利用可能であることは演奏トレーニングシステム1における場合と同様である。要すれば、注目するマイク12により集音された音の音信号の周波数成分と他のマイク12により集音された音の音信号の周波数成分との差を評価指標に反映させることにより、注目していないマイク12に向かって歌唱しているユーザ19の歌唱音の基本周波数が誤って注目しているマイク12に向かって歌唱しているユーザ19の歌唱音の基本周波数として特定されることを防止する方法であれば、如何なる方法であってもピッチ特定部1013がピッチを特定するための方法として採用可能である。
Note that a and b in (Equation 2) or (Equation 3) are variables for determining a coefficient indicating the degree of contribution of each term, and appropriate values are selected empirically. Here, (Equation 3) is an example of a functional equation used by the
ピッチ特定部1013は、上記のようにして特定されたユーザ19−1〜3の歌唱音の基本周波数、すなわちコーラスパート1〜3のピッチを示すデータを生成し、生成したデータを順次、実演奏ピッチデータ1023として記憶部102に記憶するとともに、演奏パート特定部1014および画像信号生成部1015に引き渡す。
The
ピッチ通知装置20の演奏パート特定部1014は、再生部1011からコーラスパート1〜3のガイド音の音高を示すイベントデータを受け取る代わりに、ピッチ特定部1013からコーラスパート1〜3の歌唱音のピッチを示すデータを受け取り、そのデータを用いて演奏パートの特定処理を行う。その処理の内容は、演奏トレーニングシステム1におけるものと同様である。
The performance
および画像信号生成部1015は、演奏パート特定部1014により特定された演奏パートを示す演奏パートデータ、再生部1011から引き渡されるガイド音の音高を示すイベントデータ、そしてピッチ特定部1013から引き渡されるユーザ19−1〜3の各々の歌唱音に関する現時点実演奏ピッチデータを用いて、ユーザ19−1〜3の各々の歌唱音がいずれの他の歌唱音に引きずられているかを示す画像信号を生成し、生成した画像信号をディスプレイ13に送信する。
The image
図8は、演奏トレーニングシステム2においてディスプレイ13に表示される画像を例示した図である。図8において、折れ線231〜233はそれぞれコーラスパート1〜3のガイド音のピッチを示し、曲線234および235はそれぞれユーザ19−2および3の歌唱音のピッチを示している。なお、ユーザ19−1は現在の演奏に参加していないため、その歌唱音のピッチを示す曲線は示されていない。また、マーカ236〜238および矢印239〜241は、歌唱音が他のコーラスパートの音に影響されている様子を示す表示である。
FIG. 8 is a diagram exemplifying an image displayed on the
上記のように、演奏トレーニングシステム2によっても、演奏トレーニングシステム1による場合と同様に、ユーザは他の演奏パートの音に引きずられないように意識しながら、効果的に演奏能力を向上することができる。また、演奏トレーニングシステム2によれば、複数のユーザにより同時に演奏が行われるような場合でも、それらの複数のユーザが同時に各々の演奏能力を向上することができる。 As described above, with the performance training system 2, as with the performance training system 1, the user can effectively improve the performance ability while being conscious of not being dragged by the sound of other performance parts. it can. Moreover, according to the performance training system 2, even when a performance is performed simultaneously by a plurality of users, the plurality of users can simultaneously improve their performance capabilities.
1・2…演奏トレーニングシステム、10・20…ピッチ通知装置、11…スピーカ、12…マイク、13…ディスプレイ、14…キーボード、101…制御部、102…記憶部、103…入出力インタフェース、104…発振器、1011…再生部、1012…音源部、1013…ピッチ特定部、1014…演奏パート特定部、1015…画像信号生成部、1021…基準ピッチデータ、1022…実演奏波形データ、1023…実演奏ピッチデータ、1024…作業用ピッチデータ、1031…音信号出力部、1032…音信号入力部、1033…画像信号出力部 1... 2, performance training system, 10 20, pitch notification device, 11 speaker, 12 microphone, 13 display, 14 keyboard, 101 control unit, 102 storage unit, 103 input / output interface, 104 Oscillator, 1011... Playback unit, 1012... Sound generator unit, 1013... Pitch specification unit, 1014... Performance part specification unit, 1015. Data, 1024 ... Work pitch data, 1031 ... Sound signal output unit, 1032 ... Sound signal input unit, 1033 ... Image signal output unit
Claims (9)
前記一の演奏パートにより発音された音を示す音信号を取得する入力手段と、
前記入力手段により取得された音信号により示される音のピッチを特定するピッチ特定手段と、
一のタイミングにおける前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと、当該一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パートの音のピッチと、当該一のタイミングにおける前記複数の演奏パートのうちの前記一の演奏パート以外の演奏パートの各々の音のピッチとの関係に基づき、当該一のタイミングにおいて前記一の演奏パートの演奏に影響を与えている他の演奏パートを特定する演奏パート特定手段と、
前記演奏パート特定手段により特定された演奏パートもしくは当該演奏パートにより発音された音のピッチを示すデータを出力する出力手段と
を備えることを特徴とするピッチ通知装置。 Storage means for storing reference pitch data indicating time-sequentially the pitch of the sound to be pronounced by one of the plurality of performance parts in a music played by a plurality of performance parts;
Input means for obtaining a sound signal indicating a sound produced by the one performance part;
Pitch specifying means for specifying the pitch of the sound indicated by the sound signal acquired by the input means;
The pitch of the sound indicated by the reference pitch data of the one performance part at one timing, the pitch of the sound of the one performance part specified by the pitch specifying means at the one timing, and the one timing Other performance parts other than the one performance part among the plurality of performance parts in FIG. 5 are affected by the performance of the one performance part at the one timing. A performance part identifying means for identifying a performance part;
A pitch notification device comprising: output means for outputting data indicating the pitch of the performance part specified by the performance part specifying means or the sound produced by the performance part.
前記演奏パート特定手段は、前記他の演奏パートを特定するに際し、一のタイミングにおける前記一の演奏パート以外の演奏パートの各々の前記基準ピッチデータにより示される音のピッチを、当該一のタイミングにおける前記一の演奏パート以外の演奏パートの各々の音のピッチとして用いる
ことを特徴とする請求項1に記載のピッチ通知装置。 The reference pitch data stored by the storage means is data indicating in time series the pitch of the sound to be generated by each of the plurality of performance parts.
The performance part specifying means specifies the pitch of the sound indicated by the reference pitch data of each performance part other than the one performance part at one timing when specifying the other performance part. The pitch notification device according to claim 1, wherein the pitch notification device is used as a pitch of each sound of a performance part other than the one performance part.
前記ピッチ特定手段は、前記入力手段により取得された音信号により示される前記複数の演奏パートにより発音された音の各々に関し、当該音のピッチを特定し、
前記演奏パート特定手段は、前記他の演奏パートを特定するに際し、一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パート以外の演奏パートの各々の音のピッチを、当該一のタイミングにおける前記一の演奏パート以外の演奏パートの各々の音のピッチとして用いる
ことを特徴とする請求項1に記載のピッチ通知装置。 The input means obtains a sound signal indicating a sound produced by each of the plurality of performance parts;
The pitch specifying means specifies the pitch of the sound for each of the sounds produced by the plurality of performance parts indicated by the sound signal acquired by the input means,
When the performance part specifying means specifies the other performance part, the pitch of each sound of the performance parts other than the one performance part specified by the pitch specifying means at one timing is used as the one timing. The pitch notification device according to claim 1, wherein the pitch notification device is used as a pitch of each sound of a performance part other than the one performance part.
前記演奏パート特定手段は、現在行われている演奏中の一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パートの音のピッチと、過去に行われた演奏中の当該一のタイミングにおける前記一の演奏パートの前記実演奏ピッチデータにより示される音のピッチと、当該現在行われている演奏に参加しており当該過去に行われた演奏に参加していなかった演奏パートにより当該現在行われている演奏中の当該一のタイミングにおける音のピッチとの関係に基づき、前記他の演奏パートを特定する
ことを特徴とする請求項1に記載のピッチ通知装置。 The storage means stores actual performance pitch data indicating the pitch specified by the pitch specifying means in time series,
The performance part specifying means includes the pitch of the sound of the one performance part specified by the pitch specifying means at one timing during the performance being performed and the one timing during the performance performed in the past. The pitch of the sound indicated by the actual performance pitch data of the one performance part and the performance part that has participated in the current performance and has not participated in the performance performed in the past. The pitch notification device according to claim 1, wherein the other performance part is specified based on a relationship with a pitch of the sound at the one timing during the performance being performed.
前記演奏パート特定手段は、現在行われている演奏中の一のタイミングにおける前記ピッチ特定手段により特定された前記一の演奏パートの音のピッチと、過去に行われた演奏中の当該一のタイミングにおける前記一の演奏パートの前記実演奏ピッチデータにより示される音のピッチと、当該現在行われている演奏に参加しておらず当該過去に行われた演奏に参加していた演奏パートにより当該過去に行われた演奏中の当該一のタイミングにおける音のピッチとの関係に基づき、前記他の演奏パートを特定する
ことを特徴とする請求項1に記載のピッチ通知装置。 The storage means stores actual performance pitch data indicating the pitch specified by the pitch specifying means in time series,
The performance part specifying means includes the pitch of the sound of the one performance part specified by the pitch specifying means at one timing during the performance being performed and the one timing during the performance performed in the past. In the past, the pitch of the sound indicated by the actual performance pitch data of the one performance part and the performance part that has not participated in the currently performed performance and participated in the performance performed in the past The pitch notification device according to claim 1, wherein the other performance part is specified based on a relationship with a pitch of the sound at the one timing during the performance performed at the same time.
前記演奏パート特定手段は、前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと前記一の演奏パートの前記実演奏ピッチデータにより示される音のピッチとの差と、前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと前記一の演奏パート以外の演奏パートの各々の音のピッチとの差との相関関係に基づき、前記他の演奏パートを特定する
ことを特徴とする請求項1に記載のピッチ通知装置。 The storage means stores actual performance pitch data indicating the pitch specified by the pitch specifying means in time series,
The performance part specifying means includes a difference between a pitch of a sound indicated by the reference pitch data of the one performance part and a pitch of a sound indicated by the actual performance pitch data of the one performance part, and the one performance The other performance part is specified based on the correlation between the pitch of the sound indicated by the reference pitch data of the part and the difference between the pitches of the sounds of the performance parts other than the one performance part. The pitch notification device according to claim 1.
ことを特徴とする請求項1に記載のピッチ通知装置。 The pitch specifying means is a function value including, as a variable, a difference between a sound pitch candidate indicated by the sound signal acquired by the input means and a sound pitch indicated by the reference pitch data of the one performance part. The pitch notification device according to claim 1, wherein the pitch of the sound produced at the one timing by the one performance part is specified based on the value of the function.
前記関数は、一の周波数に関し、前記一の演奏パートに対応する入力手段により取得された音信号の当該一の周波数における周波数成分の振幅と、前記一の演奏パート以外の演奏パートに対応する入力手段のうちの少なくとも一の入力手段により取得された音信号の当該一の周波数における周波数成分の振幅との差を示す数値を変数として含む
ことを特徴とする請求項7に記載のピッチ通知装置。 The input means is a plurality of input means provided in association with each of the plurality of performance parts,
The function is related to one frequency, the amplitude of the frequency component at the one frequency of the sound signal acquired by the input means corresponding to the one performance part, and the input corresponding to the performance part other than the one performance part. The pitch notification device according to claim 7, wherein a numerical value indicating a difference between the amplitude of the frequency component at the one frequency of the sound signal acquired by at least one of the means is included as a variable.
前記一の演奏パートにより発音された音を示す音信号を取得する処理と、
取得した音信号により示される音のピッチを特定する処理と、
一のタイミングにおける前記一の演奏パートの前記基準ピッチデータにより示される音のピッチと、当該一のタイミングにおける特定した前記一の演奏パートの音のピッチと、当該一のタイミングにおける前記複数の演奏パートのうちの前記一の演奏パート以外の演奏パートの各々の音のピッチとの関係に基づき、当該一のタイミングにおいて前記一の演奏パートの演奏に影響を与えている他の演奏パートを特定する処理と、
特定した演奏パートもしくは当該演奏パートにより発音された音のピッチを示すデータを出力する処理と
をコンピュータに実行させることを特徴とするプログラム。 A process of storing reference pitch data indicating time-sequentially the pitch of the sound to be produced by one of the plurality of performance parts in a music played by a plurality of performance parts;
Processing for obtaining a sound signal indicating a sound produced by the one performance part;
A process of identifying the pitch of the sound indicated by the acquired sound signal;
The pitch of the sound indicated by the reference pitch data of the one performance part at one timing, the pitch of the sound of the one performance part specified at the one timing, and the plurality of performance parts at the one timing A process of identifying another performance part that affects the performance of the one performance part at the one timing based on the relationship with the pitch of each sound of the performance parts other than the one performance part When,
A program for causing a computer to execute a process of outputting data indicating a specified performance part or a pitch of a sound produced by the performance part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005118590A JP2006301019A (en) | 2005-04-15 | 2005-04-15 | Pitch-notifying device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005118590A JP2006301019A (en) | 2005-04-15 | 2005-04-15 | Pitch-notifying device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006301019A true JP2006301019A (en) | 2006-11-02 |
Family
ID=37469421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005118590A Pending JP2006301019A (en) | 2005-04-15 | 2005-04-15 | Pitch-notifying device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006301019A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011043769A (en) * | 2009-08-24 | 2011-03-03 | Xing Inc | Singing voice reproducing device, singing voice reproducing method, and computer program |
JP2014048469A (en) * | 2012-08-31 | 2014-03-17 | Brother Ind Ltd | Musical instrument performance evaluation device, karaoke device, musical instrument performance evaluation system |
WO2016017623A1 (en) * | 2014-07-28 | 2016-02-04 | ヤマハ株式会社 | Reference display device, reference display method, and program |
US20210225345A1 (en) * | 2020-01-17 | 2021-07-22 | Yamaha Corporation | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program |
-
2005
- 2005-04-15 JP JP2005118590A patent/JP2006301019A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011043769A (en) * | 2009-08-24 | 2011-03-03 | Xing Inc | Singing voice reproducing device, singing voice reproducing method, and computer program |
JP2014048469A (en) * | 2012-08-31 | 2014-03-17 | Brother Ind Ltd | Musical instrument performance evaluation device, karaoke device, musical instrument performance evaluation system |
WO2016017623A1 (en) * | 2014-07-28 | 2016-02-04 | ヤマハ株式会社 | Reference display device, reference display method, and program |
JP2016031395A (en) * | 2014-07-28 | 2016-03-07 | ヤマハ株式会社 | Reference display device, and program |
US20210225345A1 (en) * | 2020-01-17 | 2021-07-22 | Yamaha Corporation | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program |
US11955104B2 (en) * | 2020-01-17 | 2024-04-09 | Yamaha Corporation | Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3598598B2 (en) | Karaoke equipment | |
JP3718919B2 (en) | Karaoke equipment | |
WO2006112584A1 (en) | Music composing device | |
JP5229998B2 (en) | Code name detection device and code name detection program | |
JP4204941B2 (en) | Karaoke equipment | |
JP2006301019A (en) | Pitch-notifying device and program | |
JP5297662B2 (en) | Music data processing device, karaoke device, and program | |
JP3567123B2 (en) | Singing scoring system using lyrics characters | |
JP4271667B2 (en) | Karaoke scoring system for scoring duet synchronization | |
JP2009169103A (en) | Practice support device | |
JP5005445B2 (en) | Code name detection device and code name detection program | |
JP4070120B2 (en) | Musical instrument judgment device for natural instruments | |
JP5292702B2 (en) | Music signal generator and karaoke device | |
JP3599686B2 (en) | Karaoke device that detects the critical pitch of the vocal range when singing karaoke | |
JP3430814B2 (en) | Karaoke equipment | |
JP4219652B2 (en) | A singing practice support system for a karaoke device that controls the main melody volume at the relevant location based on the pitch error measured immediately before repeat performance | |
JP3879524B2 (en) | Waveform generation method, performance data processing method, and waveform selection device | |
JP4180548B2 (en) | Karaoke device with vocal range notification function | |
JP5413380B2 (en) | Music data correction device | |
JP5418525B2 (en) | Karaoke equipment | |
JPH11249674A (en) | Singing marking system for karaoke device | |
JP2006259401A (en) | Karaoke machine | |
JP2007248880A (en) | Musical performance controller and program | |
JP2011197564A (en) | Electronic music device and program | |
JP2014191331A (en) | Music instrument sound output device and music instrument sound output program |