JP2017078829A - Performance analysis device - Google Patents
Performance analysis device Download PDFInfo
- Publication number
- JP2017078829A JP2017078829A JP2015207885A JP2015207885A JP2017078829A JP 2017078829 A JP2017078829 A JP 2017078829A JP 2015207885 A JP2015207885 A JP 2015207885A JP 2015207885 A JP2015207885 A JP 2015207885A JP 2017078829 A JP2017078829 A JP 2017078829A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- pattern
- statistical processing
- processing means
- performer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、演奏者の演奏を解析する技術に関する。 The present invention relates to a technique for analyzing a performance of a performer.
例えば特許文献1には、楽器の演奏を教習するための仕組みが提案されている。演奏者が自身の演奏を上達させるためには、自らが苦手とする演奏の内容を知り、その点を改善するよう努めることが重要である。
For example,
特許文献1に記載の仕組みによれば、演奏者が演奏した楽曲において間違って演奏した演奏箇所を特定することはできるが、何故その演奏者がその演奏箇所を苦手としているのかという観点での示唆を与えることはできない。
そこで、本発明の目的は、間違った演奏をしてしまうときの演奏パターンを演奏者に伝えることにある。
According to the mechanism described in
Therefore, an object of the present invention is to convey a performance pattern to the performer when an incorrect performance is performed.
上記課題を解決するため、本発明は、演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得手段と、前記演奏データ取得手段により取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較手段と、前記比較手段により特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理手段とを備えることを特徴とする演奏解析装置を提供する。 In order to solve the above problems, the present invention provides performance data acquisition means for acquiring performance data generated based on a performance by a performer, the performance data acquired by the performance data acquisition means, and an example of the performance. Comparison means for comparing the reference data, and a statistical processing means for calculating the performance pattern of the performance at the erroneous location specified by the comparison means by statistical processing. Provided is a performance analysis apparatus characterized by comprising:
前記統計処理手段は、間違い箇所と特定された演奏に用いる指の組み合わせを前記演奏パターンとして特定するようにしてもよい。 The statistical processing means may specify a combination of fingers used for a performance identified as an error location as the performance pattern.
前記統計処理手段は、間違い箇所と特定された演奏に用いる弦の組み合わせを前記演奏パターンとして特定するようにしてもよい。 The statistical processing means may identify a combination of strings used for a performance identified as an error location as the performance pattern.
前記統計処理手段は、間違い箇所と特定された演奏におけるポジションの組み合わせを前記演奏パターンとして特定するようにしてもよい。 The statistical processing means may identify a combination of positions in a performance identified as an error location as the performance pattern.
前記統計処理手段は、間違い箇所と特定された演奏から、当該演奏よりも時間的に前の演奏にわたって、前記演奏パターンを特定するようにしてもよい。 The statistical processing means may identify the performance pattern from a performance identified as an error location to a performance that is temporally prior to the performance.
前記統計処理手段は、間違い箇所と特定された演奏から、当該演奏よりも時間的に後の演奏にわたって、前記演奏パターンを特定するようにしてもよい。 The statistical processing means may identify the performance pattern from a performance identified as an error location to a performance later in time than the performance.
前記統計処理手段は、演奏期間又は演奏による発音数に基づいて前記演奏パターンの時間的範囲を決めるようにしてもよい。 The statistical processing means may determine the time range of the performance pattern based on the performance period or the number of pronunciations by performance.
前記統計処理手段は、前記演奏パターンの時間的範囲を決めるための前記演奏期間又は前記演奏による発音数を、所定の条件に応じて変更するようにしてもよい。 The statistical processing means may change the performance period for determining the time range of the performance pattern or the number of pronunciations by the performance according to a predetermined condition.
また、本発明は、コンピュータを、演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得手段と、前記演奏データ取得手段により取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較手段と、前記比較手段により特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理手段として機能させるためのプログラムを提供する。 Further, the present invention provides a performance data acquisition means for acquiring performance data generated based on a performance by a performer, the performance data acquired by the performance data acquisition means, and an example of the performance. Comparison means for comparing the reference data with each other to specify the wrong place of the performance by the performer, and statistical processing means for calculating the performance pattern of the performance at the wrong place specified by the comparison means by statistical processing Provide a program.
本発明によれば、間違った演奏をしてしまうときの演奏パターンを演奏者に伝えることができる。 According to the present invention, it is possible to inform a performer of a performance pattern when an incorrect performance is performed.
本発明の実施の形態を説明する。
[1.構成]
図1は、本実施形態に係る解析システム1の全体構成を示すブロック図である。この解析システム1は、複数の楽器2a,2b,2cと、解析装置3と、これらを通信可能に接続するネットワーク4とを備えている。ネットワーク4は、例えばISDN(Integrated Services Digital Network)やインターネットであり、有線区間又は無線区間を含んでいる。
An embodiment of the present invention will be described.
[1. Constitution]
FIG. 1 is a block diagram showing the overall configuration of an
楽器2a,2b,2cは、例えば電子鍵盤楽器や電子弦楽器或いは電子管楽器などの電子楽器であってもよいし、電子楽器ではない通常のピアノやバイオリン或いは各種管楽器などのアコースティック楽器であってもよい。楽器2a,2b,2cが電子楽器の場合は、演奏者による演奏に基づいて生成された演奏データ(例えばMIDI形式)を生成してネットワーク4経由で解析装置3に送信する。また、楽器2a,2b,2cが通常の楽器の場合は、その楽器自体又はその楽器の近傍に配置された図示せぬマイクロフォンから音声処理を経てA/D変換された例えばWAVE形式やMP3(MPEG Audio Layer-3)形式の音声データが、ネットワーク4経由で解析装置3に送信される。なお、図1には3つの楽器が例示されているが、この解析システム1に含まれる楽器の数は3に限定されるものではなく、これより多くても少なくてもよい。また、楽器2a,2b,2cはいずれも同じ構成及び動作であるから、これらを各々区別する必要がない場合には単に「楽器2」と呼ぶことにする。
The
解析装置3は、楽器2から取得した演奏データを解析する演奏解析装置として機能するコンピュータである。より具体的には、解析装置3は、楽器2cから取得した演奏データに基づいて、間違った演奏がされている間違い箇所を特定し、特定された間違い箇所における演奏の演奏パターンを統計処理により算出し、その演奏パターンに関する情報を出力する。
The
図2は、解析装置3のハードウェア構成を示したブロック図である。制御部31は、例えばCPUであり、記憶部32に記憶されているコンピュータプログラムを読み出して実行することにより、解析装置3の各部を制御する。記憶部32は、例えばハードディスクなどの大容量の記憶手段である。記憶部32には、上記のコンピュータプログラムが記憶されるほか、楽器2cから取得した複数の演奏データが演奏データベースとして記憶されている。記憶部32に記憶されているコンピュータプログラムには、演奏者に対する模範となる演奏内容を示す曲ごとのリファレンスデータが含まれている。通信部33は、制御部31による制御の下で、ネットワーク4を介して楽器2とデータ通信を行う。
FIG. 2 is a block diagram illustrating a hardware configuration of the
図3は、解析装置3の機能構成を示したブロック図である。演奏データ取得部301は、制御部31及び通信部33によって実現される機能であり、演奏者による演奏に基づいて生成された演奏データをネットワーク4経由で取得する。リファレンスデータ記憶部302は、記憶部32によって実現される機能であり、前述したリファレンスデータを記憶している。比較部303は、制御部31によって実現される機能であり、演奏データ取得部301により取得された演奏データと、リファレンスデータ記憶部302に記憶されているリファレンスデータとを比較して、演奏者による演奏の間違い箇所を特定する。統計処理部304は、比較部303によりそれぞれ特定された間違い箇所における演奏の演奏パターンを統計処理により算出する。出力部305は、統計処理部304によって算出された演奏パターンに関する情報を、例えば演奏者が操作する通信端末(図示略)や楽器2(電子楽器の場合)に出力する。なお、本発明に係る演奏解析装置は、図3において実線で示された構成である演奏データ取得部301、リファレンスデータ記憶部302、比較部303及び統計処理部304を備えているが、点線で示された構成である出力部305については必ずしも必須の構成ではなく、これを備えていても備えていなくてもよい。
FIG. 3 is a block diagram illustrating a functional configuration of the
[2.動作]
次に、図4に示すフローチャートを参照しつつ、本実施形態の動作説明を行う。以下は楽器2が電子楽器の場合の例である。演奏者は、楽器2の操作部(図示略)を操作して演奏したい曲を選定してから、楽器2を用いて演奏を行う。この演奏に基づいて生成された演奏データと、選定された曲を識別する曲識別情報とが、楽器2から解析装置3に送信される。解析装置3の制御部31は通信部33(演奏データ取得部301)によって演奏データ及び曲識別情報を取得する(ステップS1)。
[2. Operation]
Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG. The following is an example when the
解析装置3の制御部31(比較部303)は、曲識別情報に対応する曲のリファレンスデータを記憶部32(リファレンスデータ記憶部302)から読み出し、読み出したリファレンスデータと取得した演奏データとを比較して、演奏者による演奏の間違い箇所を特定する(ステップS2)。具体的には、制御部31は、まず、演奏データとリファレンスデータとが時間的に前後にずれている場合であっても、両者を対応付けられるようにするため、演奏データとリファレンスデータのいずれか一方の時間軸を伸縮させる時間正規化(DTW;Dynamic Time Warping)を行い、両者の時間軸を合わせる。このDTWを行うための手法としては、DP(Dynamic Programming:動的計画法)マッチングがあるので、これを用いればよい。そして、制御部31は、リファレンスデータが表すピッチと、演奏データが表す演奏音のピッチとを比較して両者の相違内容を特定する。例えば、一方の音声のピッチが他方の音声のピッチよりもどの程度高いか低いかなど、両者の差分を特定する。また、楽器2が管楽器の場合には、リファレンスデータが表すピッチと演奏データが表す演奏音のピッチとの差分が特定の値であれば、倍音の違い(予期せずに高い倍音が出てしまう、いわゆるリードミス)と判断することができるので、制御部31は、このような差分も特定する。また、制御部31は、リファレンスデータが表す発音タイミングと、演奏データのピッチが切り替わったタイミング(つまり演奏音の発音タイミング)とを比較して両者の相違内容を特定する。例えば、一方の音声の発音タイミングが他方の音声の発音タイミングよりもどの程度早いか遅いかなど、両者の差分を特定する。さらに、制御部31は、例えば演奏音の音色や長さ或いはピッチが時系列に変動していく様子を表すピッチ変動曲線などについて、リファレンスデータ及び演奏データの差分を特定するようにしてもよい。制御部31は、このような相違内容を、リファレンスデータ及び演奏データの対応箇所の全てについて特定し、その差分が予め定められた閾値を超える箇所を、演奏者による演奏が間違っている間違い箇所として特定する。また、管楽器を用いた演奏についてピエゾ素子を用いたマイクで録音した場合、キーによるノイズが発生するが、このノイズの発生期間は短いほど望ましいので、制御部31は、リファレンスデータと演奏データとを比較して、両者の相違内容としてノイズが発生している期間を特定し、その期間が閾値を超える箇所を、演奏者による演奏が間違っている間違い箇所として特定する。即ち、管楽器の演奏においては、指を同時に素早く何本も動かす必要があるが、このとき指の動きにバラつきがあると、リファレンスデータとは異なる音が混じったり、演奏のリズムが撚れたりするので、このような間違いを検出する。
The control unit 31 (comparison unit 303) of the
そして、制御部31は、ステップS1,S2の処理を所要数の演奏データについて行ったか否かを判断する(ステップS3)。この所要数とは、例えば、同じ演奏者が同一の曲について演奏した回数として予め決めておいた回数でよく、例えば1回でもよいし、もっと多くてもよい。ステップS1,S2の処理は、所要数の演奏データに達するまで(ステップS3;NO)、繰り返される。
And the
ステップS1,S2の処理が所要数の演奏データについて行われると(ステップS3;YES)、制御部31(統計処理部304)は、特定された間違い箇所における演奏の演奏パターンを統計処理により算出する(ステップS4)。この統計処理について、図5,6を用いて説明する。 When the processing of steps S1 and S2 is performed on the required number of performance data (step S3; YES), the control unit 31 (statistical processing unit 304) calculates the performance pattern of the performance at the specified error location by statistical processing. (Step S4). This statistical processing will be described with reference to FIGS.
図5(A)は、或る曲の或る演奏箇所をバイオリンで演奏したときの演奏パターンを例示している。演奏番号は、曲の開始から終了に至る各演奏音に対して割り当てられた番号である。線は、演奏音を演奏するときに用いた弦に割り当てられた番号である。ポジションは、演奏音を演奏するときの手の位置に相当する番号である。指は、演奏音を演奏するときに用いた指に割り当てられた番号である。図5(A)上段の例のように、時間的に連続する3つの演奏音を含む演奏を行ったときの線、ポジション及び指の組み合わせが、演奏番号x〜x+2における演奏パターンに相当する。このとき、演奏番号x+2の演奏が間違い箇所であるとすると、時間的にそれ以前の演奏番号x〜x+2における演奏パターンが、間違い箇所の演奏パターンとして特定される。一方、図5(A)下段の例において、演奏番号y+2が間違い箇所であるとすると、時間的にそれ以前の演奏番号y〜y+2における演奏パターンが間違い箇所の演奏パターンとして特定される。 FIG. 5A illustrates an example of a performance pattern when a performance portion of a song is played with a violin. The performance number is a number assigned to each performance sound from the start to the end of the song. The line is the number assigned to the string used when playing the performance sound. The position is a number corresponding to the position of the hand when performing the performance sound. The finger is a number assigned to the finger used when playing the performance sound. As shown in the upper example of FIG. 5A, the combination of lines, positions, and fingers when performing a performance including three performance sounds that are continuous in time corresponds to the performance pattern in performance numbers x to x + 2. To do. At this time, if the performance of performance number x + 2 is an incorrect place, the performance patterns in performance numbers x to x + 2 that are earlier in time are specified as the performance pattern of the incorrect place. On the other hand, in the example in the lower part of FIG. 5A, if the performance number y + 2 is an incorrect place, the performance patterns in the previous performance numbers y to y + 2 are specified as the incorrect place performance patterns. The
図6は、統計処理を説明する概念図である。図6のグラフの横軸は、或る楽曲に現れる全ての演奏パターンであり、縦軸は、各演奏パターンの演奏において間違い箇所と判定された回数である。例えば演奏パターン1は、図5(A)における演奏番号x〜x+2における演奏パターンであり、演奏パターン2は、図5(A)における演奏番号y〜y+2における演奏パターンであるといった具合であり、これらの演奏パターンにおいて演奏間違いがあると、図6の縦軸である間違い回数がインクリメントされる。このように、あらゆる演奏パターンごとに間違い回数がカウントされた場合に、予め決められた閾値以上の間違い回数が発生した演奏パターンは、演奏者にとって間違いやすい演奏パターンであると言える。
FIG. 6 is a conceptual diagram illustrating statistical processing. The horizontal axis of the graph of FIG. 6 is all performance patterns that appear in a certain musical piece, and the vertical axis is the number of times that the performance pattern is determined to be an error. For example,
例えば図6における閾値を3として図5(A)の例で考えた場合、図5(A)上段の演奏番号x〜x+2における演奏パターンは間違い回数が閾値以上なので、演奏者にとって間違いやすいと言えるが、図5(A)下段の演奏番号y〜y+2における演奏パターンの間違い回数は閾値未満なので、間違いやすいとは言えない。そして、上段と下段を比較すると、演奏パターンとしての違いは、D→Aの移弦か又はD→Gの移弦かという違いしかないので、D→Aの移弦という演奏が間違いの原因であると推定することができる(ステップS5)。 For example, when the threshold value in FIG. 6 is set to 3 and the example in FIG. 5A is considered, the performance pattern in the performance numbers x to x + 2 in the upper part of FIG. However, since the number of performance pattern mistakes in performance numbers y to y + 2 in the lower part of FIG. And when comparing the upper and lower tiers, the only difference in the performance pattern is D → A or D → G. It can be estimated that there is (step S5).
また、図5(B)は、管楽器で同時に押さえる指の組み合わせを例示したものであるが、この例では、間違い箇所において、5→4という指の移動及び8→7という指の移動という、2本の指の移動が同時に発生している。このような場合に間違い回数が閾値以上となっているので、2本の指の移動という演奏が間違いの原因であると推定することができる(ステップS5)。 FIG. 5B illustrates a combination of fingers simultaneously pressed by a wind instrument. In this example, the finger movement of 5 → 4 and the finger movement of 8 → 7 in the wrong place are 2 The movement of the fingers of the book occurs simultaneously. In such a case, since the number of mistakes is equal to or greater than the threshold, it can be estimated that the performance of movement of two fingers is the cause of the mistake (step S5).
また、図5(C)は、管楽器で同時に押さえる指の組み合わせの別の例を示したものである。この例で上段と下段を比較すると、指の移動に関する演奏パターンとして共通している点は、8→7という指の移動を伴う演奏において間違い回数が閾値以上となっていることである。このため、8→7という指の移動を伴う演奏が間違いの原因であると推定することができる(ステップS5)。 FIG. 5C shows another example of a combination of fingers simultaneously pressed by a wind instrument. Comparing the upper and lower tiers in this example, the common point is that the performance pattern related to finger movement is that the number of mistakes is greater than or equal to a threshold value in performance involving finger movement of 8 → 7. For this reason, it can be estimated that the performance with the finger movement of 8 → 7 is the cause of the mistake (step S5).
制御部31(統計処理部304)は、以上のようにして間違い箇所における演奏の演奏パターンを統計処理により算出すると、その演奏パターンに関する情報を出力する(ステップS6)。具体的には、制御部31は、間違い箇所に相当する演奏パターン(つまり、線、ポジション、指の少なくともいずれか1の組み合わせ)を出力したり、上記のようにして推定した演奏間違いの原因を出力したり、或いは、そのような原因と同等の演奏が頻出する曲を提示して練習を促したり、といった出力処理を行う。
When the control unit 31 (statistical processing unit 304) calculates the performance pattern of the performance at the wrong place by statistical processing as described above, it outputs information on the performance pattern (step S6). Specifically, the
以上説明したように、本実施形態によれば、間違った演奏をしてしまうときの演奏パターンを演奏者に伝えることが可能となる。 As described above, according to the present embodiment, it is possible to inform a performer of a performance pattern when an incorrect performance is performed.
[3.変形例]
上述した実施形態を次のように変形してもよい。
[3−1] 実施形態では、間違い箇所と特定された演奏から、その演奏よりも時間的に前の演奏(当該演奏箇所を含め演奏音3つ分だけ遡った期間における演奏)にわたって、演奏パターンを特定していたが、演奏パターンを特定するためのルールは、実施形態の例に限らない。
例えば制御部31(統計処理部304)は、間違い箇所と特定された演奏から、当該演奏よりも時間的に後の演奏にわたって演奏パターンを特定してもよい。例えば演奏番号xにおいて間違いが発生した場合、演奏番号x〜x+2における演奏パターンを間違い箇所の演奏パターンとして特定してもよいし、また、演奏番号x-1〜x+1における演奏パターンを間違い箇所の演奏パターンとして特定してもよい。
[3. Modified example]
The above-described embodiment may be modified as follows.
[3-1] In the embodiment, a performance pattern extends from a performance identified as an error location to a performance temporally prior to the performance (performance in a period that is backed by three performance sounds including the performance location). However, the rule for specifying the performance pattern is not limited to the example of the embodiment.
For example, the control unit 31 (statistical processing unit 304) may specify a performance pattern from a performance specified as an error location to a performance later in time than the performance. For example, when an error occurs in the performance number x, the performance pattern in the performance numbers x to x + 2 may be specified as the performance pattern in the wrong place, and the performance pattern in the performance numbers x-1 to x + 1 is specified. You may specify as a performance pattern of a mistake part.
制御部31(統計処理部304)は、演奏期間又は演奏による発音数(演奏音の数)に基づいて演奏パターンの時間的範囲を決めてもよい。例えば実施形態では、演奏音の数を3つとしていたがこの数は2以上であれば任意である。また、演奏音の数に代えて、演奏期間を用いてもよい。例えば演奏番号xにおいて間違いが発生した場合、演奏番号xの前の5秒間における演奏パターンを間違い箇所の演奏パターンとして特定してもよい。 The control unit 31 (statistical processing unit 304) may determine the time range of the performance pattern based on the performance period or the number of sounds produced by the performance (number of performance sounds). For example, in the embodiment, the number of performance sounds is three, but this number is arbitrary as long as it is two or more. Further, a performance period may be used instead of the number of performance sounds. For example, when an error occurs in the performance number x, the performance pattern for 5 seconds before the performance number x may be specified as the performance pattern of the error location.
さらに、制御部31(統計処理部304)は、演奏パターンの時間的範囲を決めるための演奏期間又は演奏による発音数を、所定の条件に応じて変更するようにしてもよい。このときの所定の条件としては、例えば、演奏者の演奏レベルや練習量などの、演奏者の属性を用いてもよいし、曲の難易度やテンポなどの、演奏対象となる曲の属性を用いてもよい。また、演奏者自身が、演奏パターンの時間的範囲を決めるための演奏期間又は演奏による発音数を指定してもよい。 Further, the control unit 31 (statistical processing unit 304) may change the performance period for determining the time range of the performance pattern or the number of pronunciations by the performance according to a predetermined condition. As predetermined conditions at this time, for example, the player's attributes such as the player's performance level and practice amount may be used, and the attributes of the song to be played such as the difficulty level and tempo of the song may be used. It may be used. In addition, the performer himself / herself may designate the performance period for determining the time range of the performance pattern or the number of pronunciations by the performance.
[3−2]
上述した実施形態では、1人の演奏者に対応する演奏データに基づいて上記のような解析を行っていたが、複数の演奏者全体に対して上記のような解析を行ってもよい。この場合、解析装置3による解析の結果として、演奏者群全体において演奏間違いが起こりやすい演奏パターンやその原因を提示することが可能となる。
[3-2]
In the embodiment described above, the above analysis is performed based on performance data corresponding to one performer. However, the above analysis may be performed on a plurality of performers as a whole. In this case, as a result of the analysis by the
[3−3]
図6は、あらゆる間違いの回数を演奏パターンごとに統計処理した例であったが、間違いの種類ごとにその間違い回数を演奏パターンごとに統計処理してもよい。例えば、管楽器による演奏の場合、制御部31は、既に説明したような単なるピッチ(運指)の間違いや、いわゆるリードミスによるピッチの間違いや、ピエゾマイクを用いて録音したときのノイズによって判断される間違いというような、それぞれの間違いの種類ごとに演奏の間違い回数をインクリメントして統計処理を行ってもよい。
[3-3]
Although FIG. 6 shows an example in which the number of mistakes is statistically processed for each performance pattern, the number of errors may be statistically processed for each performance pattern for each type of error. For example, in the case of a performance by a wind instrument, the
[3−4]
上述した実施形態では、楽器2と解析装置3とが通信ネットワークで接続された解析システム1が、本実施形態に係る機能の全てを実現するようになっている。これに対し、通信ネットワークで接続された3以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが本実施形態と同等のシステムを実現するようにしてもよい。例えば、図3に例示した演奏データ取得部301、リファレンスデータ記憶部302、比較部303及び統計処理部304をネットワーク4に接続された複数の装置が分散して備え、これらの複数の装置が協働して実施形態に係る解析装置3と同等の機能を実現してもよい。この場合、これら複数の装置によって、本発明に係る演奏解析装置が実現される。
又は、ひとつの装置が本実施形態に係る機能の全てを実現するようにしてもよい。
[3-4]
In the above-described embodiment, the
Alternatively, one device may realize all the functions according to the present embodiment.
[3−5]
本発明は、例えば解析装置3のような演奏解析装置のほか、解析装置3が行う演奏解析方法や、解析装置3によって実行されるプログラムとして実施されてもよい。
本発明に係る演奏解析方法は、演奏者による演奏に基づいて生成された演奏データを取得する演奏データ取得ステップと、前記演奏データ取得ステップにおいて取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較ステップと、前記比較ステップにおいて特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理ステップとを備えることを特徴とする。
なお、解析装置3の制御部31によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由で解析装置3にダウンロードさせることも可能である。
[3-5]
The present invention may be implemented as a performance analysis method performed by the
The performance analysis method according to the present invention is a performance data acquisition step for acquiring performance data generated based on a performance by a performer, the performance data acquired in the performance data acquisition step, and an example of the performance. Comparing with reference data, a comparison step for specifying a wrong place of the performance by the performer, and a statistical processing step for calculating a performance pattern of the performance at the wrong place specified in the comparison step by statistical processing are provided. It is characterized by.
The programs executed by the
1…解析システム、2a,2b,2c…楽器、3…解析装置、4…ネットワーク、31…制御部、32…記憶部、33…通信部、301…演奏データ取得部、302…リファレンスデータ記憶部、303…比較部、304…統計処理部、305…出力部
DESCRIPTION OF
Claims (8)
前記演奏データ取得手段により取得された前記演奏データと、前記演奏の模範となるリファレンスデータとを比較して、前記演奏者による演奏の間違い箇所を特定する比較手段と、
前記比較手段により特定された間違い箇所における演奏の演奏パターンを統計処理により算出する統計処理手段と
を備えることを特徴とする演奏解析装置。 Performance data acquisition means for acquiring performance data generated based on a performance by a performer;
Comparison means for comparing the performance data acquired by the performance data acquisition means with reference data serving as an example of the performance, and identifying a wrong place of the performance by the performer,
A performance analysis apparatus comprising: statistical processing means for calculating a performance pattern of a performance at an erroneous location specified by the comparison means by statistical processing.
ことを特徴とする請求項1記載の演奏解析装置。 The performance analysis apparatus according to claim 1, wherein the statistical processing means identifies a combination of fingers used for a performance identified as an error location as the performance pattern.
ことを特徴とする請求項1又は2記載の演奏解析装置。 The performance analysis apparatus according to claim 1 or 2, wherein the statistical processing means identifies a combination of strings used for a performance identified as an error location as the performance pattern.
ことを特徴とする請求項1又は2記載の演奏解析装置。 The performance analysis apparatus according to claim 1 or 2, wherein the statistical processing means identifies a combination of positions in a performance identified as an error location as the performance pattern.
ことを特徴とする請求項1〜4のいずれか1項に記載の演奏解析装置。 The said statistical processing means specifies the said performance pattern over the performance before the said performance from the performance specified as the mistake location, The any one of Claims 1-4 characterized by the above-mentioned. Performance analysis device.
ことを特徴とする請求項1〜5のいずれか1項に記載の演奏解析装置。 The said statistical processing means specifies the said performance pattern over the performance after the performance from the performance specified as the mistake location. The one of the Claims 1-5 characterized by the above-mentioned. Performance analysis device.
ことを特徴とする請求項5又は6に記載の演奏解析装置。 The performance analysis apparatus according to claim 5 or 6, wherein the statistical processing means determines a time range of the performance pattern based on a performance period or the number of pronunciations by performance.
ことを特徴とする請求項7記載の演奏解析装置。 The performance analysis apparatus according to claim 7, wherein the statistical processing unit changes the performance period for determining a time range of the performance pattern or the number of pronunciations by the performance according to a predetermined condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015207885A JP2017078829A (en) | 2015-10-22 | 2015-10-22 | Performance analysis device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015207885A JP2017078829A (en) | 2015-10-22 | 2015-10-22 | Performance analysis device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017078829A true JP2017078829A (en) | 2017-04-27 |
Family
ID=58666241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015207885A Pending JP2017078829A (en) | 2015-10-22 | 2015-10-22 | Performance analysis device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017078829A (en) |
-
2015
- 2015-10-22 JP JP2015207885A patent/JP2017078829A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7189912B2 (en) | Method and apparatus for tracking musical score | |
JP4672613B2 (en) | Tempo detection device and computer program for tempo detection | |
KR100949872B1 (en) | Song practice support device, control method for a song practice support device and computer readable medium storing a program for causing a computer to excute a control method for controlling a song practice support device | |
JP4767691B2 (en) | Tempo detection device, code name detection device, and program | |
JP4916947B2 (en) | Rhythm detection device and computer program for rhythm detection | |
US10504498B2 (en) | Real-time jamming assistance for groups of musicians | |
US20160104469A1 (en) | Musical-performance analysis method and musical-performance analysis device | |
JP2009047861A (en) | Device and method for assisting performance, and program | |
US20170316769A1 (en) | Latency enhanced note recognition method in gaming | |
JP5229998B2 (en) | Code name detection device and code name detection program | |
US20220383842A1 (en) | Estimation model construction method, performance analysis method, estimation model construction device, and performance analysis device | |
JP5196550B2 (en) | Code detection apparatus and code detection program | |
JP5005445B2 (en) | Code name detection device and code name detection program | |
JP4932614B2 (en) | Code name detection device and code name detection program | |
JP5153517B2 (en) | Code name detection device and computer program for code name detection | |
JP7293653B2 (en) | Performance correction method, performance correction device and program | |
JP2017078829A (en) | Performance analysis device | |
JP2008040260A (en) | Musical piece practice assisting device, dynamic time warping module, and program | |
JP6677041B2 (en) | Performance analyzer and program | |
JP5029258B2 (en) | Performance practice support device and performance practice support processing program | |
JP2009047860A (en) | Performance supporting device and method, and program | |
KR102564399B1 (en) | Apparatus for improving auditory function that changes training difficulty according to training performance accuracy | |
JP2010032809A (en) | Automatic musical performance device and computer program for automatic musical performance | |
JP2010224430A (en) | Automatic music collection device, scale identification program, scale discrimination program, electric traditional stringed musical instrument music automatic collection system, and electric shamisen music automatic collection system | |
JP2016071188A (en) | Music transcription device and music transcription system |