JP2017078829A - Performance analysis device - Google Patents

Performance analysis device Download PDF

Info

Publication number
JP2017078829A
JP2017078829A JP2015207885A JP2015207885A JP2017078829A JP 2017078829 A JP2017078829 A JP 2017078829A JP 2015207885 A JP2015207885 A JP 2015207885A JP 2015207885 A JP2015207885 A JP 2015207885A JP 2017078829 A JP2017078829 A JP 2017078829A
Authority
JP
Japan
Prior art keywords
performance
pattern
statistical processing
processing means
performer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015207885A
Other languages
Japanese (ja)
Inventor
隆一 成山
Ryuichi Nariyama
隆一 成山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015207885A priority Critical patent/JP2017078829A/en
Publication of JP2017078829A publication Critical patent/JP2017078829A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To transmit, to a player, a performance pattern when the player executes a wrong performance.SOLUTION: When the number of mistakes is counted for every performance pattern, performance patterns causing the number of mistakes equal to or more than a predetermined threshold are regarded as mistakable performance patterns for the player. For example, when the threshold is 3 and Figure 5 (A) is cited, the number of mistakes of performance patterns in performance numbers x to x+2 in an upper column of Figure 5 (A) is more than the threshold, so that it is defined to be mistakable, however, the number of mistakes of performance patterns in performance numbers y to y+2 in a lower column of Figure 5 (A) is less than the threshold, so that it is defined not to be mistakable. Further, when the upper column and the lower column are compared, only difference between the performance patterns is string crossing from D to A (D→A) and string crossing from D to G (D→G), so that it is estimated that a cause of the mistake of the performance is string crossing from D→A.SELECTED DRAWING: Figure 5(A)

Description

本発明は、演奏者の演奏を解析する技術に関する。   The present invention relates to a technique for analyzing a performance of a performer.

例えば特許文献1には、楽器の演奏を教習するための仕組みが提案されている。演奏者が自身の演奏を上達させるためには、自らが苦手とする演奏の内容を知り、その点を改善するよう努めることが重要である。   For example, Patent Document 1 proposes a mechanism for learning how to play a musical instrument. In order for a performer to improve his performance, it is important to know the content of the performance he is not good at and try to improve that point.

特開2006−284638号公報JP 2006-284638 A

特許文献1に記載の仕組みによれば、演奏者が演奏した楽曲において間違って演奏した演奏箇所を特定することはできるが、何故その演奏者がその演奏箇所を苦手としているのかという観点での示唆を与えることはできない。
そこで、本発明の目的は、間違った演奏をしてしまうときの演奏パターンを演奏者に伝えることにある。
According to the mechanism described in Patent Document 1, it is possible to specify the performance location that was performed incorrectly in the music performed by the performer, but the suggestion from the viewpoint of why the performer is not good at the performance location. Can not give.
Therefore, an object of the present invention is to convey a performance pattern to the performer when an incorrect performance is performed.

上記課題を解決するため、本発明は、演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得手段と、前記演奏データ取得手段により取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較手段と、前記比較手段により特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理手段とを備えることを特徴とする演奏解析装置を提供する。   In order to solve the above problems, the present invention provides performance data acquisition means for acquiring performance data generated based on a performance by a performer, the performance data acquired by the performance data acquisition means, and an example of the performance. Comparison means for comparing the reference data, and a statistical processing means for calculating the performance pattern of the performance at the erroneous location specified by the comparison means by statistical processing. Provided is a performance analysis apparatus characterized by comprising:

前記統計処理手段は、間違い箇所と特定された演奏に用いる指の組み合わせを前記演奏パターンとして特定するようにしてもよい。   The statistical processing means may specify a combination of fingers used for a performance identified as an error location as the performance pattern.

前記統計処理手段は、間違い箇所と特定された演奏に用いる弦の組み合わせを前記演奏パターンとして特定するようにしてもよい。   The statistical processing means may identify a combination of strings used for a performance identified as an error location as the performance pattern.

前記統計処理手段は、間違い箇所と特定された演奏におけるポジションの組み合わせを前記演奏パターンとして特定するようにしてもよい。   The statistical processing means may identify a combination of positions in a performance identified as an error location as the performance pattern.

前記統計処理手段は、間違い箇所と特定された演奏から、当該演奏よりも時間的に前の演奏にわたって、前記演奏パターンを特定するようにしてもよい。   The statistical processing means may identify the performance pattern from a performance identified as an error location to a performance that is temporally prior to the performance.

前記統計処理手段は、間違い箇所と特定された演奏から、当該演奏よりも時間的に後の演奏にわたって、前記演奏パターンを特定するようにしてもよい。   The statistical processing means may identify the performance pattern from a performance identified as an error location to a performance later in time than the performance.

前記統計処理手段は、演奏期間又は演奏による発音数に基づいて前記演奏パターンの時間的範囲を決めるようにしてもよい。   The statistical processing means may determine the time range of the performance pattern based on the performance period or the number of pronunciations by performance.

前記統計処理手段は、前記演奏パターンの時間的範囲を決めるための前記演奏期間又は前記演奏による発音数を、所定の条件に応じて変更するようにしてもよい。   The statistical processing means may change the performance period for determining the time range of the performance pattern or the number of pronunciations by the performance according to a predetermined condition.

また、本発明は、コンピュータを、演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得手段と、前記演奏データ取得手段により取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較手段と、前記比較手段により特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理手段として機能させるためのプログラムを提供する。   Further, the present invention provides a performance data acquisition means for acquiring performance data generated based on a performance by a performer, the performance data acquired by the performance data acquisition means, and an example of the performance. Comparison means for comparing the reference data with each other to specify the wrong place of the performance by the performer, and statistical processing means for calculating the performance pattern of the performance at the wrong place specified by the comparison means by statistical processing Provide a program.

本発明によれば、間違った演奏をしてしまうときの演奏パターンを演奏者に伝えることができる。   According to the present invention, it is possible to inform a performer of a performance pattern when an incorrect performance is performed.

本発明の一実施形態に係る解析システム全体の構成を示すブロック図である。It is a block diagram which shows the structure of the whole analysis system which concerns on one Embodiment of this invention. 解析装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of an analyzer. 解析装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an analyzer. 解析装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an analyzer. 解析内容の一例を示す図である。It is a figure which shows an example of the analysis content. 解析内容の一例を示す図である。It is a figure which shows an example of the analysis content. 解析内容の一例を示す図である。It is a figure which shows an example of the analysis content. 統計処理を説明するための概念図である。It is a conceptual diagram for demonstrating a statistical process.

本発明の実施の形態を説明する。
[1.構成]
図1は、本実施形態に係る解析システム1の全体構成を示すブロック図である。この解析システム1は、複数の楽器2a,2b,2cと、解析装置3と、これらを通信可能に接続するネットワーク4とを備えている。ネットワーク4は、例えばISDN(Integrated Services Digital Network)やインターネットであり、有線区間又は無線区間を含んでいる。
An embodiment of the present invention will be described.
[1. Constitution]
FIG. 1 is a block diagram showing the overall configuration of an analysis system 1 according to this embodiment. The analysis system 1 includes a plurality of musical instruments 2a, 2b, and 2c, an analysis device 3, and a network 4 that connects these devices so that they can communicate with each other. The network 4 is, for example, ISDN (Integrated Services Digital Network) or the Internet, and includes a wired section or a wireless section.

楽器2a,2b,2cは、例えば電子鍵盤楽器や電子弦楽器或いは電子管楽器などの電子楽器であってもよいし、電子楽器ではない通常のピアノやバイオリン或いは各種管楽器などのアコースティック楽器であってもよい。楽器2a,2b,2cが電子楽器の場合は、演奏者による演奏に基づいて生成された演奏データ(例えばMIDI形式)を生成してネットワーク4経由で解析装置3に送信する。また、楽器2a,2b,2cが通常の楽器の場合は、その楽器自体又はその楽器の近傍に配置された図示せぬマイクロフォンから音声処理を経てA/D変換された例えばWAVE形式やMP3(MPEG Audio Layer-3)形式の音声データが、ネットワーク4経由で解析装置3に送信される。なお、図1には3つの楽器が例示されているが、この解析システム1に含まれる楽器の数は3に限定されるものではなく、これより多くても少なくてもよい。また、楽器2a,2b,2cはいずれも同じ構成及び動作であるから、これらを各々区別する必要がない場合には単に「楽器2」と呼ぶことにする。   The musical instruments 2a, 2b, and 2c may be electronic musical instruments such as electronic keyboard musical instruments, electronic stringed musical instruments, and electronic wind instruments, or may be acoustic instruments such as ordinary pianos, violins, and various wind musical instruments that are not electronic musical instruments. . When the musical instruments 2a, 2b, and 2c are electronic musical instruments, performance data (for example, MIDI format) generated based on the performance by the performer is generated and transmitted to the analysis device 3 via the network 4. When the musical instruments 2a, 2b, and 2c are ordinary musical instruments, for example, WAVE format or MP3 (MPEG) that has been subjected to A / D conversion through voice processing from a microphone (not shown) arranged in the vicinity of the musical instrument itself or the musical instrument. Audio layer-3) format audio data is transmitted to the analysis device 3 via the network 4. Although three musical instruments are illustrated in FIG. 1, the number of musical instruments included in the analysis system 1 is not limited to three, and may be more or less. Since the musical instruments 2a, 2b, and 2c all have the same configuration and operation, they are simply referred to as “musical instrument 2” when they do not need to be distinguished from each other.

解析装置3は、楽器2から取得した演奏データを解析する演奏解析装置として機能するコンピュータである。より具体的には、解析装置3は、楽器2cから取得した演奏データに基づいて、間違った演奏がされている間違い箇所を特定し、特定された間違い箇所における演奏の演奏パターンを統計処理により算出し、その演奏パターンに関する情報を出力する。   The analysis device 3 is a computer that functions as a performance analysis device that analyzes performance data acquired from the musical instrument 2. More specifically, the analysis device 3 identifies the wrong place where the wrong performance is performed based on the performance data acquired from the musical instrument 2c, and calculates the performance pattern of the performance at the identified wrong place by statistical processing. And information on the performance pattern is output.

図2は、解析装置3のハードウェア構成を示したブロック図である。制御部31は、例えばCPUであり、記憶部32に記憶されているコンピュータプログラムを読み出して実行することにより、解析装置3の各部を制御する。記憶部32は、例えばハードディスクなどの大容量の記憶手段である。記憶部32には、上記のコンピュータプログラムが記憶されるほか、楽器2cから取得した複数の演奏データが演奏データベースとして記憶されている。記憶部32に記憶されているコンピュータプログラムには、演奏者に対する模範となる演奏内容を示す曲ごとのリファレンスデータが含まれている。通信部33は、制御部31による制御の下で、ネットワーク4を介して楽器2とデータ通信を行う。   FIG. 2 is a block diagram illustrating a hardware configuration of the analysis device 3. The control unit 31 is, for example, a CPU, and controls each unit of the analysis device 3 by reading and executing a computer program stored in the storage unit 32. The storage unit 32 is a large-capacity storage unit such as a hard disk. The storage unit 32 stores the computer program and a plurality of performance data acquired from the musical instrument 2c as a performance database. The computer program stored in the storage unit 32 includes reference data for each piece of music indicating the performance contents that serve as a model for the performer. The communication unit 33 performs data communication with the musical instrument 2 via the network 4 under the control of the control unit 31.

図3は、解析装置3の機能構成を示したブロック図である。演奏データ取得部301は、制御部31及び通信部33によって実現される機能であり、演奏者による演奏に基づいて生成された演奏データをネットワーク4経由で取得する。リファレンスデータ記憶部302は、記憶部32によって実現される機能であり、前述したリファレンスデータを記憶している。比較部303は、制御部31によって実現される機能であり、演奏データ取得部301により取得された演奏データと、リファレンスデータ記憶部302に記憶されているリファレンスデータとを比較して、演奏者による演奏の間違い箇所を特定する。統計処理部304は、比較部303によりそれぞれ特定された間違い箇所における演奏の演奏パターンを統計処理により算出する。出力部305は、統計処理部304によって算出された演奏パターンに関する情報を、例えば演奏者が操作する通信端末(図示略)や楽器2(電子楽器の場合)に出力する。なお、本発明に係る演奏解析装置は、図3において実線で示された構成である演奏データ取得部301、リファレンスデータ記憶部302、比較部303及び統計処理部304を備えているが、点線で示された構成である出力部305については必ずしも必須の構成ではなく、これを備えていても備えていなくてもよい。   FIG. 3 is a block diagram illustrating a functional configuration of the analysis apparatus 3. The performance data acquisition unit 301 is a function realized by the control unit 31 and the communication unit 33, and acquires performance data generated based on the performance by the performer via the network 4. The reference data storage unit 302 is a function realized by the storage unit 32 and stores the above-described reference data. The comparison unit 303 is a function realized by the control unit 31. The comparison unit 303 compares the performance data acquired by the performance data acquisition unit 301 with the reference data stored in the reference data storage unit 302. Identify mistakes in performance. The statistical processing unit 304 calculates the performance pattern of the performance at the wrong place specified by the comparison unit 303 by statistical processing. The output unit 305 outputs information on the performance pattern calculated by the statistical processing unit 304 to, for example, a communication terminal (not shown) or a musical instrument 2 (in the case of an electronic musical instrument) operated by the performer. The performance analysis apparatus according to the present invention includes a performance data acquisition unit 301, a reference data storage unit 302, a comparison unit 303, and a statistical processing unit 304, which are configured as shown by a solid line in FIG. The output unit 305 having the configuration shown is not necessarily an essential configuration and may or may not be provided.

[2.動作]
次に、図4に示すフローチャートを参照しつつ、本実施形態の動作説明を行う。以下は楽器2が電子楽器の場合の例である。演奏者は、楽器2の操作部(図示略)を操作して演奏したい曲を選定してから、楽器2を用いて演奏を行う。この演奏に基づいて生成された演奏データと、選定された曲を識別する曲識別情報とが、楽器2から解析装置3に送信される。解析装置3の制御部31は通信部33(演奏データ取得部301)によって演奏データ及び曲識別情報を取得する(ステップS1)。
[2. Operation]
Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG. The following is an example when the musical instrument 2 is an electronic musical instrument. The performer operates the operation unit (not shown) of the musical instrument 2 to select a song to be performed, and then performs the performance using the musical instrument 2. The performance data generated based on this performance and the music identification information for identifying the selected music are transmitted from the musical instrument 2 to the analysis device 3. The control unit 31 of the analysis device 3 acquires performance data and song identification information through the communication unit 33 (performance data acquisition unit 301) (step S1).

解析装置3の制御部31(比較部303)は、曲識別情報に対応する曲のリファレンスデータを記憶部32(リファレンスデータ記憶部302)から読み出し、読み出したリファレンスデータと取得した演奏データとを比較して、演奏者による演奏の間違い箇所を特定する(ステップS2)。具体的には、制御部31は、まず、演奏データとリファレンスデータとが時間的に前後にずれている場合であっても、両者を対応付けられるようにするため、演奏データとリファレンスデータのいずれか一方の時間軸を伸縮させる時間正規化(DTW;Dynamic Time Warping)を行い、両者の時間軸を合わせる。このDTWを行うための手法としては、DP(Dynamic Programming:動的計画法)マッチングがあるので、これを用いればよい。そして、制御部31は、リファレンスデータが表すピッチと、演奏データが表す演奏音のピッチとを比較して両者の相違内容を特定する。例えば、一方の音声のピッチが他方の音声のピッチよりもどの程度高いか低いかなど、両者の差分を特定する。また、楽器2が管楽器の場合には、リファレンスデータが表すピッチと演奏データが表す演奏音のピッチとの差分が特定の値であれば、倍音の違い(予期せずに高い倍音が出てしまう、いわゆるリードミス)と判断することができるので、制御部31は、このような差分も特定する。また、制御部31は、リファレンスデータが表す発音タイミングと、演奏データのピッチが切り替わったタイミング(つまり演奏音の発音タイミング)とを比較して両者の相違内容を特定する。例えば、一方の音声の発音タイミングが他方の音声の発音タイミングよりもどの程度早いか遅いかなど、両者の差分を特定する。さらに、制御部31は、例えば演奏音の音色や長さ或いはピッチが時系列に変動していく様子を表すピッチ変動曲線などについて、リファレンスデータ及び演奏データの差分を特定するようにしてもよい。制御部31は、このような相違内容を、リファレンスデータ及び演奏データの対応箇所の全てについて特定し、その差分が予め定められた閾値を超える箇所を、演奏者による演奏が間違っている間違い箇所として特定する。また、管楽器を用いた演奏についてピエゾ素子を用いたマイクで録音した場合、キーによるノイズが発生するが、このノイズの発生期間は短いほど望ましいので、制御部31は、リファレンスデータと演奏データとを比較して、両者の相違内容としてノイズが発生している期間を特定し、その期間が閾値を超える箇所を、演奏者による演奏が間違っている間違い箇所として特定する。即ち、管楽器の演奏においては、指を同時に素早く何本も動かす必要があるが、このとき指の動きにバラつきがあると、リファレンスデータとは異なる音が混じったり、演奏のリズムが撚れたりするので、このような間違いを検出する。   The control unit 31 (comparison unit 303) of the analysis device 3 reads the reference data of the music corresponding to the music identification information from the storage unit 32 (reference data storage unit 302), and compares the read reference data with the acquired performance data. Then, the wrong place of the performance by the performer is specified (step S2). Specifically, the control unit 31 first selects either the performance data or the reference data so that the performance data and the reference data can be associated with each other even when the performance data and the reference data are shifted in time. Time normalization (DTW: Dynamic Time Warping) is performed to expand or contract one of the time axes, and both time axes are aligned. As a method for performing this DTW, there is DP (Dynamic Programming) matching, which may be used. Then, the control unit 31 compares the pitch represented by the reference data with the pitch of the performance sound represented by the performance data, and identifies the difference between the two. For example, the difference between the two voices is specified, such as how much the pitch of one voice is higher or lower than the pitch of the other voice. Further, when the musical instrument 2 is a wind instrument, if the difference between the pitch represented by the reference data and the pitch of the performance sound represented by the performance data is a specific value, a difference in harmonics (a higher harmonic will be unexpectedly generated). Therefore, the control unit 31 also identifies such a difference. In addition, the control unit 31 compares the sound generation timing represented by the reference data with the timing at which the pitch of the performance data is switched (that is, the sound generation timing of the performance sound) to identify the difference between the two. For example, the difference between the two is specified, such as how early or late the sounding timing of one sound is compared to the sounding timing of the other sound. Further, the control unit 31 may specify the difference between the reference data and the performance data, for example, with respect to a pitch fluctuation curve representing a state in which the tone color, length, or pitch of the performance sound changes in time series. The control unit 31 identifies such differences for all of the corresponding portions of the reference data and the performance data, and places where the difference exceeds a predetermined threshold as incorrect portions where the performance by the performer is wrong. Identify. Further, when recording with a microphone using a piezo element for performance using a wind instrument, noise due to a key is generated. Since the generation period of this noise is preferably as short as possible, the control unit 31 stores reference data and performance data. In comparison, a period in which noise is generated is specified as a difference between the two, and a part where the period exceeds a threshold is specified as an erroneous part in which the performance by the performer is wrong. In other words, when playing a wind instrument, it is necessary to move several fingers at the same time quickly. However, if there are variations in the movement of the fingers, sounds different from the reference data may be mixed or the rhythm of the performance may be twisted. So detect such mistakes.

そして、制御部31は、ステップS1,S2の処理を所要数の演奏データについて行ったか否かを判断する(ステップS3)。この所要数とは、例えば、同じ演奏者が同一の曲について演奏した回数として予め決めておいた回数でよく、例えば1回でもよいし、もっと多くてもよい。ステップS1,S2の処理は、所要数の演奏データに達するまで(ステップS3;NO)、繰り返される。   And the control part 31 judges whether the process of step S1, S2 was performed about the required number of performance data (step S3). This required number may be, for example, the number of times determined in advance as the number of times that the same performer has performed the same song, and may be, for example, one or more. The processes of steps S1 and S2 are repeated until the required number of performance data is reached (step S3; NO).

ステップS1,S2の処理が所要数の演奏データについて行われると(ステップS3;YES)、制御部31(統計処理部304)は、特定された間違い箇所における演奏の演奏パターンを統計処理により算出する(ステップS4)。この統計処理について、図5,6を用いて説明する。   When the processing of steps S1 and S2 is performed on the required number of performance data (step S3; YES), the control unit 31 (statistical processing unit 304) calculates the performance pattern of the performance at the specified error location by statistical processing. (Step S4). This statistical processing will be described with reference to FIGS.

図5(A)は、或る曲の或る演奏箇所をバイオリンで演奏したときの演奏パターンを例示している。演奏番号は、曲の開始から終了に至る各演奏音に対して割り当てられた番号である。線は、演奏音を演奏するときに用いた弦に割り当てられた番号である。ポジションは、演奏音を演奏するときの手の位置に相当する番号である。指は、演奏音を演奏するときに用いた指に割り当てられた番号である。図5(A)上段の例のように、時間的に連続する3つの演奏音を含む演奏を行ったときの線、ポジション及び指の組み合わせが、演奏番号x〜x+2における演奏パターンに相当する。このとき、演奏番号x+2の演奏が間違い箇所であるとすると、時間的にそれ以前の演奏番号x〜x+2における演奏パターンが、間違い箇所の演奏パターンとして特定される。一方、図5(A)下段の例において、演奏番号y+2が間違い箇所であるとすると、時間的にそれ以前の演奏番号y〜y+2における演奏パターンが間違い箇所の演奏パターンとして特定される。   FIG. 5A illustrates an example of a performance pattern when a performance portion of a song is played with a violin. The performance number is a number assigned to each performance sound from the start to the end of the song. The line is the number assigned to the string used when playing the performance sound. The position is a number corresponding to the position of the hand when performing the performance sound. The finger is a number assigned to the finger used when playing the performance sound. As shown in the upper example of FIG. 5A, the combination of lines, positions, and fingers when performing a performance including three performance sounds that are continuous in time corresponds to the performance pattern in performance numbers x to x + 2. To do. At this time, if the performance of performance number x + 2 is an incorrect place, the performance patterns in performance numbers x to x + 2 that are earlier in time are specified as the performance pattern of the incorrect place. On the other hand, in the example in the lower part of FIG. 5A, if the performance number y + 2 is an incorrect place, the performance patterns in the previous performance numbers y to y + 2 are specified as the incorrect place performance patterns. The

図6は、統計処理を説明する概念図である。図6のグラフの横軸は、或る楽曲に現れる全ての演奏パターンであり、縦軸は、各演奏パターンの演奏において間違い箇所と判定された回数である。例えば演奏パターン1は、図5(A)における演奏番号x〜x+2における演奏パターンであり、演奏パターン2は、図5(A)における演奏番号y〜y+2における演奏パターンであるといった具合であり、これらの演奏パターンにおいて演奏間違いがあると、図6の縦軸である間違い回数がインクリメントされる。このように、あらゆる演奏パターンごとに間違い回数がカウントされた場合に、予め決められた閾値以上の間違い回数が発生した演奏パターンは、演奏者にとって間違いやすい演奏パターンであると言える。   FIG. 6 is a conceptual diagram illustrating statistical processing. The horizontal axis of the graph of FIG. 6 is all performance patterns that appear in a certain musical piece, and the vertical axis is the number of times that the performance pattern is determined to be an error. For example, performance pattern 1 is a performance pattern at performance numbers x to x + 2 in FIG. 5A, performance pattern 2 is a performance pattern at performance numbers y to y + 2 in FIG. If there is a performance error in these performance patterns, the number of errors on the vertical axis in FIG. 6 is incremented. In this way, when the number of errors is counted for every performance pattern, it can be said that a performance pattern in which the number of errors more than a predetermined threshold has occurred is a performance pattern that is easily mistaken for the performer.

例えば図6における閾値を3として図5(A)の例で考えた場合、図5(A)上段の演奏番号x〜x+2における演奏パターンは間違い回数が閾値以上なので、演奏者にとって間違いやすいと言えるが、図5(A)下段の演奏番号y〜y+2における演奏パターンの間違い回数は閾値未満なので、間違いやすいとは言えない。そして、上段と下段を比較すると、演奏パターンとしての違いは、D→Aの移弦か又はD→Gの移弦かという違いしかないので、D→Aの移弦という演奏が間違いの原因であると推定することができる(ステップS5)。   For example, when the threshold value in FIG. 6 is set to 3 and the example in FIG. 5A is considered, the performance pattern in the performance numbers x to x + 2 in the upper part of FIG. However, since the number of performance pattern mistakes in performance numbers y to y + 2 in the lower part of FIG. And when comparing the upper and lower tiers, the only difference in the performance pattern is D → A or D → G. It can be estimated that there is (step S5).

また、図5(B)は、管楽器で同時に押さえる指の組み合わせを例示したものであるが、この例では、間違い箇所において、5→4という指の移動及び8→7という指の移動という、2本の指の移動が同時に発生している。このような場合に間違い回数が閾値以上となっているので、2本の指の移動という演奏が間違いの原因であると推定することができる(ステップS5)。   FIG. 5B illustrates a combination of fingers simultaneously pressed by a wind instrument. In this example, the finger movement of 5 → 4 and the finger movement of 8 → 7 in the wrong place are 2 The movement of the fingers of the book occurs simultaneously. In such a case, since the number of mistakes is equal to or greater than the threshold, it can be estimated that the performance of movement of two fingers is the cause of the mistake (step S5).

また、図5(C)は、管楽器で同時に押さえる指の組み合わせの別の例を示したものである。この例で上段と下段を比較すると、指の移動に関する演奏パターンとして共通している点は、8→7という指の移動を伴う演奏において間違い回数が閾値以上となっていることである。このため、8→7という指の移動を伴う演奏が間違いの原因であると推定することができる(ステップS5)。   FIG. 5C shows another example of a combination of fingers simultaneously pressed by a wind instrument. Comparing the upper and lower tiers in this example, the common point is that the performance pattern related to finger movement is that the number of mistakes is greater than or equal to a threshold value in performance involving finger movement of 8 → 7. For this reason, it can be estimated that the performance with the finger movement of 8 → 7 is the cause of the mistake (step S5).

制御部31(統計処理部304)は、以上のようにして間違い箇所における演奏の演奏パターンを統計処理により算出すると、その演奏パターンに関する情報を出力する(ステップS6)。具体的には、制御部31は、間違い箇所に相当する演奏パターン(つまり、線、ポジション、指の少なくともいずれか1の組み合わせ)を出力したり、上記のようにして推定した演奏間違いの原因を出力したり、或いは、そのような原因と同等の演奏が頻出する曲を提示して練習を促したり、といった出力処理を行う。   When the control unit 31 (statistical processing unit 304) calculates the performance pattern of the performance at the wrong place by statistical processing as described above, it outputs information on the performance pattern (step S6). Specifically, the control unit 31 outputs a performance pattern (that is, a combination of at least one of a line, a position, and a finger) corresponding to the error location, or the cause of the performance error estimated as described above. Output processing is performed, such as outputting or prompting a practice by presenting a tune with frequent performance equivalent to the cause.

以上説明したように、本実施形態によれば、間違った演奏をしてしまうときの演奏パターンを演奏者に伝えることが可能となる。   As described above, according to the present embodiment, it is possible to inform a performer of a performance pattern when an incorrect performance is performed.

[3.変形例]
上述した実施形態を次のように変形してもよい。
[3−1] 実施形態では、間違い箇所と特定された演奏から、その演奏よりも時間的に前の演奏(当該演奏箇所を含め演奏音3つ分だけ遡った期間における演奏)にわたって、演奏パターンを特定していたが、演奏パターンを特定するためのルールは、実施形態の例に限らない。
例えば制御部31(統計処理部304)は、間違い箇所と特定された演奏から、当該演奏よりも時間的に後の演奏にわたって演奏パターンを特定してもよい。例えば演奏番号xにおいて間違いが発生した場合、演奏番号x〜x+2における演奏パターンを間違い箇所の演奏パターンとして特定してもよいし、また、演奏番号x-1〜x+1における演奏パターンを間違い箇所の演奏パターンとして特定してもよい。
[3. Modified example]
The above-described embodiment may be modified as follows.
[3-1] In the embodiment, a performance pattern extends from a performance identified as an error location to a performance temporally prior to the performance (performance in a period that is backed by three performance sounds including the performance location). However, the rule for specifying the performance pattern is not limited to the example of the embodiment.
For example, the control unit 31 (statistical processing unit 304) may specify a performance pattern from a performance specified as an error location to a performance later in time than the performance. For example, when an error occurs in the performance number x, the performance pattern in the performance numbers x to x + 2 may be specified as the performance pattern in the wrong place, and the performance pattern in the performance numbers x-1 to x + 1 is specified. You may specify as a performance pattern of a mistake part.

制御部31(統計処理部304)は、演奏期間又は演奏による発音数(演奏音の数)に基づいて演奏パターンの時間的範囲を決めてもよい。例えば実施形態では、演奏音の数を3つとしていたがこの数は2以上であれば任意である。また、演奏音の数に代えて、演奏期間を用いてもよい。例えば演奏番号xにおいて間違いが発生した場合、演奏番号xの前の5秒間における演奏パターンを間違い箇所の演奏パターンとして特定してもよい。   The control unit 31 (statistical processing unit 304) may determine the time range of the performance pattern based on the performance period or the number of sounds produced by the performance (number of performance sounds). For example, in the embodiment, the number of performance sounds is three, but this number is arbitrary as long as it is two or more. Further, a performance period may be used instead of the number of performance sounds. For example, when an error occurs in the performance number x, the performance pattern for 5 seconds before the performance number x may be specified as the performance pattern of the error location.

さらに、制御部31(統計処理部304)は、演奏パターンの時間的範囲を決めるための演奏期間又は演奏による発音数を、所定の条件に応じて変更するようにしてもよい。このときの所定の条件としては、例えば、演奏者の演奏レベルや練習量などの、演奏者の属性を用いてもよいし、曲の難易度やテンポなどの、演奏対象となる曲の属性を用いてもよい。また、演奏者自身が、演奏パターンの時間的範囲を決めるための演奏期間又は演奏による発音数を指定してもよい。   Further, the control unit 31 (statistical processing unit 304) may change the performance period for determining the time range of the performance pattern or the number of pronunciations by the performance according to a predetermined condition. As predetermined conditions at this time, for example, the player's attributes such as the player's performance level and practice amount may be used, and the attributes of the song to be played such as the difficulty level and tempo of the song may be used. It may be used. In addition, the performer himself / herself may designate the performance period for determining the time range of the performance pattern or the number of pronunciations by the performance.

[3−2]
上述した実施形態では、1人の演奏者に対応する演奏データに基づいて上記のような解析を行っていたが、複数の演奏者全体に対して上記のような解析を行ってもよい。この場合、解析装置3による解析の結果として、演奏者群全体において演奏間違いが起こりやすい演奏パターンやその原因を提示することが可能となる。
[3-2]
In the embodiment described above, the above analysis is performed based on performance data corresponding to one performer. However, the above analysis may be performed on a plurality of performers as a whole. In this case, as a result of the analysis by the analysis device 3, it is possible to present a performance pattern and its cause that are likely to cause a performance error in the entire performer group.

[3−3]
図6は、あらゆる間違いの回数を演奏パターンごとに統計処理した例であったが、間違いの種類ごとにその間違い回数を演奏パターンごとに統計処理してもよい。例えば、管楽器による演奏の場合、制御部31は、既に説明したような単なるピッチ(運指)の間違いや、いわゆるリードミスによるピッチの間違いや、ピエゾマイクを用いて録音したときのノイズによって判断される間違いというような、それぞれの間違いの種類ごとに演奏の間違い回数をインクリメントして統計処理を行ってもよい。
[3-3]
Although FIG. 6 shows an example in which the number of mistakes is statistically processed for each performance pattern, the number of errors may be statistically processed for each performance pattern for each type of error. For example, in the case of a performance by a wind instrument, the control unit 31 is determined by a simple pitch (fingering) error as described above, a pitch error due to a so-called lead error, or noise when recording using a piezo microphone. Statistical processing may be performed by incrementing the number of performance mistakes for each type of mistake, such as mistakes.

[3−4]
上述した実施形態では、楽器2と解析装置3とが通信ネットワークで接続された解析システム1が、本実施形態に係る機能の全てを実現するようになっている。これに対し、通信ネットワークで接続された3以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが本実施形態と同等のシステムを実現するようにしてもよい。例えば、図3に例示した演奏データ取得部301、リファレンスデータ記憶部302、比較部303及び統計処理部304をネットワーク4に接続された複数の装置が分散して備え、これらの複数の装置が協働して実施形態に係る解析装置3と同等の機能を実現してもよい。この場合、これら複数の装置によって、本発明に係る演奏解析装置が実現される。
又は、ひとつの装置が本実施形態に係る機能の全てを実現するようにしてもよい。
[3-4]
In the above-described embodiment, the analysis system 1 in which the musical instrument 2 and the analysis device 3 are connected via a communication network realizes all the functions according to the present embodiment. On the other hand, three or more devices connected by a communication network may share the above functions, and a system including the plurality of devices may realize a system equivalent to the present embodiment. For example, a plurality of devices connected to the network 4 include the performance data acquisition unit 301, the reference data storage unit 302, the comparison unit 303, and the statistical processing unit 304 illustrated in FIG. 3, and these plurality of devices cooperate. The same function as the analysis device 3 according to the embodiment may be realized. In this case, the performance analysis device according to the present invention is realized by the plurality of devices.
Alternatively, one device may realize all the functions according to the present embodiment.

[3−5]
本発明は、例えば解析装置3のような演奏解析装置のほか、解析装置3が行う演奏解析方法や、解析装置3によって実行されるプログラムとして実施されてもよい。
本発明に係る演奏解析方法は、演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得ステップと、前記演奏データ取得ステップにおいて取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較ステップと、前記比較ステップにおいて特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理ステップとを備えることを特徴とする。
なお、解析装置3の制御部31によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由で解析装置3にダウンロードさせることも可能である。
[3-5]
The present invention may be implemented as a performance analysis method performed by the analysis device 3 or a program executed by the analysis device 3 in addition to a performance analysis device such as the analysis device 3, for example.
The performance analysis method according to the present invention is a performance data acquisition step for acquiring performance data generated based on a performance by a performer, the performance data acquired in the performance data acquisition step, and an example of the performance. Comparing with reference data, a comparison step for specifying a wrong place of the performance by the performer, and a statistical processing step for calculating a performance pattern of the performance at the wrong place specified in the comparison step by statistical processing are provided. It is characterized by.
The programs executed by the control unit 31 of the analysis apparatus 3 are magnetic tape, magnetic disk, flexible disk, optical recording medium, magneto-optical recording medium, CD (Compact Disk) -ROM, DVD (Digital Versatile Disk), RAM. Or the like stored in a recording medium. It is also possible to download to the analysis device 3 via a network such as the Internet.

1…解析システム、2a,2b,2c…楽器、3…解析装置、4…ネットワーク、31…制御部、32…記憶部、33…通信部、301…演奏データ取得部、302…リファレンスデータ記憶部、303…比較部、304…統計処理部、305…出力部 DESCRIPTION OF SYMBOLS 1 ... Analysis system, 2a, 2b, 2c ... Musical instrument, 3 ... Analysis apparatus, 4 ... Network, 31 ... Control part, 32 ... Storage part, 33 ... Communication part, 301 ... Performance data acquisition part, 302 ... Reference data storage part , 303: comparison unit, 304 ... statistical processing unit, 305 ... output unit

Claims (8)

演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得手段と、
前記演奏データ取得手段により取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較手段と、
前記比較手段により特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理手段と
を備えることを特徴とする演奏解析装置。
Performance data acquisition means for acquiring performance data generated based on a performance by a performer;
Comparison means for comparing the performance data acquired by the performance data acquisition means with reference data serving as an example of the performance, and identifying a wrong place of the performance by the performer,
A performance analysis apparatus comprising: statistical processing means for calculating a performance pattern of a performance at an erroneous location specified by the comparison means by statistical processing.
前記統計処理手段は、間違い箇所と特定された演奏に用いる指の組み合わせを前記演奏パターンとして特定する
ことを特徴とする請求項1記載の演奏解析装置。
The performance analysis apparatus according to claim 1, wherein the statistical processing means identifies a combination of fingers used for a performance identified as an error location as the performance pattern.
前記統計処理手段は、間違い箇所と特定された演奏に用いる弦の組み合わせを前記演奏パターンとして特定する
ことを特徴とする請求項1又は2記載の演奏解析装置。
The performance analysis apparatus according to claim 1 or 2, wherein the statistical processing means identifies a combination of strings used for a performance identified as an error location as the performance pattern.
前記統計処理手段は、間違い箇所と特定された演奏におけるポジションの組み合わせを前記演奏パターンとして特定する
ことを特徴とする請求項1又は2記載の演奏解析装置。
The performance analysis apparatus according to claim 1 or 2, wherein the statistical processing means identifies a combination of positions in a performance identified as an error location as the performance pattern.
前記統計処理手段は、間違い箇所と特定された演奏から、当該演奏よりも時間的に前の演奏にわたって、前記演奏パターンを特定する
ことを特徴とする請求項1〜4のいずれか1項に記載の演奏解析装置。
The said statistical processing means specifies the said performance pattern over the performance before the said performance from the performance specified as the mistake location, The any one of Claims 1-4 characterized by the above-mentioned. Performance analysis device.
前記統計処理手段は、間違い箇所と特定された演奏から、当該演奏よりも時間的に後の演奏にわたって、前記演奏パターンを特定する
ことを特徴とする請求項1〜5のいずれか1項に記載の演奏解析装置。
The said statistical processing means specifies the said performance pattern over the performance after the performance from the performance specified as the mistake location. The one of the Claims 1-5 characterized by the above-mentioned. Performance analysis device.
前記統計処理手段は、演奏期間又は演奏による発音数に基づいて前記演奏パターンの時間的範囲を決める
ことを特徴とする請求項5又は6に記載の演奏解析装置。
The performance analysis apparatus according to claim 5 or 6, wherein the statistical processing means determines a time range of the performance pattern based on a performance period or the number of pronunciations by performance.
前記統計処理手段は、前記演奏パターンの時間的範囲を決めるための前記演奏期間又は前記演奏による発音数を、所定の条件に応じて変更する
ことを特徴とする請求項7記載の演奏解析装置。
The performance analysis apparatus according to claim 7, wherein the statistical processing unit changes the performance period for determining a time range of the performance pattern or the number of pronunciations by the performance according to a predetermined condition.
JP2015207885A 2015-10-22 2015-10-22 Performance analysis device Pending JP2017078829A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015207885A JP2017078829A (en) 2015-10-22 2015-10-22 Performance analysis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015207885A JP2017078829A (en) 2015-10-22 2015-10-22 Performance analysis device

Publications (1)

Publication Number Publication Date
JP2017078829A true JP2017078829A (en) 2017-04-27

Family

ID=58666241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015207885A Pending JP2017078829A (en) 2015-10-22 2015-10-22 Performance analysis device

Country Status (1)

Country Link
JP (1) JP2017078829A (en)

Similar Documents

Publication Publication Date Title
US7189912B2 (en) Method and apparatus for tracking musical score
JP4672613B2 (en) Tempo detection device and computer program for tempo detection
KR100949872B1 (en) Song practice support device, control method for a song practice support device and computer readable medium storing a program for causing a computer to excute a control method for controlling a song practice support device
JP4767691B2 (en) Tempo detection device, code name detection device, and program
JP4916947B2 (en) Rhythm detection device and computer program for rhythm detection
US10504498B2 (en) Real-time jamming assistance for groups of musicians
US20160104469A1 (en) Musical-performance analysis method and musical-performance analysis device
JP2009047861A (en) Device and method for assisting performance, and program
US20170316769A1 (en) Latency enhanced note recognition method in gaming
JP5229998B2 (en) Code name detection device and code name detection program
US20220383842A1 (en) Estimation model construction method, performance analysis method, estimation model construction device, and performance analysis device
JP5196550B2 (en) Code detection apparatus and code detection program
JP5005445B2 (en) Code name detection device and code name detection program
JP4932614B2 (en) Code name detection device and code name detection program
JP5153517B2 (en) Code name detection device and computer program for code name detection
JP7293653B2 (en) Performance correction method, performance correction device and program
JP2017078829A (en) Performance analysis device
JP2008040260A (en) Musical piece practice assisting device, dynamic time warping module, and program
JP6677041B2 (en) Performance analyzer and program
JP5029258B2 (en) Performance practice support device and performance practice support processing program
JP2009047860A (en) Performance supporting device and method, and program
KR102564399B1 (en) Apparatus for improving auditory function that changes training difficulty according to training performance accuracy
JP2010032809A (en) Automatic musical performance device and computer program for automatic musical performance
JP2010224430A (en) Automatic music collection device, scale identification program, scale discrimination program, electric traditional stringed musical instrument music automatic collection system, and electric shamisen music automatic collection system
JP2016071188A (en) Music transcription device and music transcription system