JP2001337675A - Playing support device and playing support method - Google Patents
Playing support device and playing support methodInfo
- Publication number
- JP2001337675A JP2001337675A JP2000155383A JP2000155383A JP2001337675A JP 2001337675 A JP2001337675 A JP 2001337675A JP 2000155383 A JP2000155383 A JP 2000155383A JP 2000155383 A JP2000155383 A JP 2000155383A JP 2001337675 A JP2001337675 A JP 2001337675A
- Authority
- JP
- Japan
- Prior art keywords
- data
- performance
- tempo
- input
- note
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、楽譜を表示する
とともに、演奏者の演奏を入力し、テンポずれを検出し
て修正を指示する演奏支援装置および演奏支援方法に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance support apparatus and a performance support method for displaying a musical score, inputting a performance of a player, detecting a tempo deviation, and instructing a correction.
【0002】[0002]
【従来の技術】楽譜の画像を電気的にディスプレイに表
示する楽譜表示装置(電子楽譜)が提案されている。こ
の種の電子楽譜において、複数ページの楽譜を表示する
場合に演奏者の演奏位置を自動検出して表示するページ
を更新(ページめくり)できるようになっているものが
ある。2. Description of the Related Art There has been proposed a musical score display device (electronic musical score) for electrically displaying an image of a musical score on a display. In this type of electronic musical score, when displaying a musical score of a plurality of pages, there is a type in which the playing position of the player is automatically detected and the displayed page can be updated (page turning).
【0003】[0003]
【発明が解決しようとする課題】上記のように従来の電
子楽譜でも、演奏の音高データ等を入力して演奏位置を
自動検出し、これに基づいてページめくりする機能を備
えたものが提案されていたが、演奏者のテンポずれを指
摘して修正を指示するような演奏支援機能を備えたもの
がなかった。As described above, even in the conventional electronic musical score, there is proposed an electronic musical score having a function of automatically detecting a musical performance position by inputting performance pitch data and the like and turning a page based on the data. However, there was no one provided with a performance support function for pointing out the tempo deviation of the player and instructing correction.
【0004】この発明は、演奏者の演奏位置を検出して
楽譜の表示位置を更新する機能を用いて、構成的に複雑
化させずにテンポずれの修正を指示できる演奏支援装置
および演奏支援方法を提供することを目的とする。The present invention provides a performance support apparatus and a performance support method capable of instructing correction of a tempo deviation without complicating the configuration by using a function of detecting a performance position of a player and updating a display position of a musical score. The purpose is to provide.
【0005】[0005]
【課題を解決するための手段】この発明に係る演奏支援
装置は、楽曲の音符を表す音符データ列を含む楽譜デー
タを記憶する記憶手段と、演奏の音高データを入力する
入力手段と、入力手段から入力された音高データに基づ
いて、前記音符データ列における現在の演奏位置および
演奏のテンポを推定し、この推定された演奏位置および
演奏のテンポに基づいて、前記楽譜データのうち前記表
示手段に表示する箇所を決定するとともに、この推定さ
れた演奏位置および演奏のテンポに基づいて、次に入力
されるべき音高データの入力タイミングを予測し、次に
音高データが入力されたとき、その実際の入力タイミン
グと前記予測された入力タイミングとのずれに基づいて
テンポずれを割り出す制御手段と、前記楽譜データに基
づく楽譜画像および前記テンポずれに応じた修正指示画
像を合成して表示する表示手段と、を備えたことを特徴
とする。According to the present invention, there is provided a performance support apparatus for storing musical score data including a musical note data string representing musical notes, inputting means for inputting musical pitch data, and inputting. Means for estimating a current performance position and a performance tempo in the note data string based on the pitch data input from the means, and displaying the display of the music score data based on the estimated performance position and performance tempo. Means for determining the position to be displayed on the means, and predicting the input timing of the pitch data to be input next based on the estimated performance position and the tempo of the performance, and when the next pitch data is input. Control means for calculating a tempo shift based on a difference between the actual input timing and the predicted input timing; and a score image and a score image based on the score data. Characterized by comprising a display means for displaying by synthesizing modified instruction image corresponding to the tempo shift.
【0006】また、この発明に係る演奏支援方法は、楽
曲の音符を表す音符データ列を含む楽譜データを記憶し
た装置において、演奏の音高データを入力する手順、こ
の音高データに基づいて前記音符データ列における現在
の演奏位置および演奏のテンポを推定する手順、この推
定された演奏位置および演奏のテンポに基づいて前記楽
譜データのうち表示すべき箇所を決定する手順、この推
定された演奏位置および演奏のテンポに基づいて次に入
力されるべき音高データの入力タイミングを予測する手
順、次に音高データが入力されたときその実際の入力タ
イミングと前記予測された入力タイミングとのずれに基
づいてテンポずれを割り出す手順、前記楽譜データに基
づく楽譜画像および前記テンポずれに応じた修正指示画
像を合成する手順、を有することを特徴とする。Further, according to the performance support method of the present invention, in a device storing musical score data including a musical note data sequence representing musical notes, a procedure for inputting musical pitch data is performed. A procedure for estimating a current performance position and a performance tempo in the note data sequence, a procedure for determining a portion to be displayed in the musical score data based on the estimated performance position and the performance tempo, and a process for estimating the estimated performance position And a procedure for predicting the input timing of the pitch data to be input next based on the tempo of the performance. When pitch data is next input, a difference between the actual input timing and the predicted input timing is calculated. Calculating a tempo shift based on the score data, and synthesizing a score image based on the score data and a correction instruction image corresponding to the tempo shift Characterized in that it has a.
【0007】音符データ列は、複数の音符データからな
っており、各音符データは、少なくとも各音符の音高を
表す音高情報や音長を表す音長情報を含んでいる。音高
情報は例えば、C3、D3など音名+オクターブの形式
で表現されていてもよく、また、C1=0、C2=1
2、C3=24とする半音数で表現してもよい。また、
演奏の音高データも上記音高情報と同様の形式で入力さ
れ、これらの一致/不一致が比較可能になっている。The note data string is composed of a plurality of note data, and each note data includes at least pitch information indicating a pitch of each note and pitch information indicating a note length. The pitch information may be expressed in the form of pitch + octave, for example, C3, D3, or C1 = 0, C2 = 1.
2, it may be represented by the number of semitones with C3 = 24. Also,
The pitch data of the performance is also input in the same format as the pitch information, and it is possible to compare the match / mismatch.
【0008】入力された音高データが音符データ列にお
けるどの音符に対応しているかを検出する方式として、
以下のようなノートトレース+タイムスケールトレース
の方式がある。まず、入力された音高データと音符デー
タ列上で一致する箇所を検索するノートトレース処理を
行う。演奏によって複数の音高データが入力されるが、
このうち全てが一致しなくても一致するものが多ければ
その位置を演奏位置の候補の一つとする。すなわち、入
力された音高データと音高が一致する確率の高い音符デ
ータ列上の位置を候補とする。このように音符データ列
の全体を検索することにより、どの位置から演奏がスタ
ートした場合でも対応することが可能になり、演奏にミ
スタッチ等があっても正しい演奏位置の検出が可能にな
る。As a method for detecting which note in the note data string the inputted pitch data corresponds to,
There are the following note trace and time scale trace methods. First, note tracing processing is performed to search for a point on the note data string that matches the input pitch data. Multiple pitch data is input depending on the performance,
If there is a lot of matches even if not all match, the position is determined as one of the candidates for the performance position. That is, a position on the note data string having a high probability that the input pitch data matches the pitch is set as a candidate. By retrieving the entire note data string in this manner, it is possible to cope with a case where the performance starts from any position, and it is possible to detect the correct performance position even if there is a mistouch or the like in the performance.
【0009】そして、このうち最も確率の高い1つの候
補または確率の高い複数の候補についてタイムスケール
処理をする。タイムスケール処理は、候補としてあげら
れた演奏位置で次に演奏されるべき音符データの音高情
報で入力を待ち受け、これと一致する音高データが入力
された候補の位置を演奏位置であると確定する処理であ
る。候補が1つの場合にはその候補の正誤を判断し、候
補が複数の場合にはそのうちどの候補が正しいかを判断
する。そして、入力されたタイミングがそれまでに推定
されていたテンポに基づいて予測される入力タイミング
からどの程度ずれていたかによりテンポずれを算出し、
さらに今回の入力タイミングを考慮して新たに演奏のテ
ンポを算出する。このように、演奏位置の検出は、表示
手段に表示する楽譜のページめくりなどのために用いら
れると同時に、演奏者のテンポずれを検出するためにも
用いられる。Then, a time scale process is performed on one candidate having the highest probability or a plurality of candidates having the highest probability. The time scale process waits for the input of the pitch data of the note data to be played next at the performance position given as the candidate, and determines that the position of the candidate for which the pitch data matching this is input is the performance position. This is the process to determine. When there is one candidate, the correctness of the candidate is determined, and when there are a plurality of candidates, which of the candidates is correct is determined. Then, a tempo shift is calculated based on how much the input timing deviates from the input timing predicted based on the tempo estimated up to that time,
Further, the performance tempo is newly calculated in consideration of the current input timing. As described above, the detection of the playing position is used not only for turning pages of the musical score displayed on the display means, but also for detecting a tempo deviation of the player.
【0010】またこの音高データの入力は、楽音をマイ
クから入力し、この楽音から音高データを抽出してもよ
く、MIDIインタフェースなどのインタフェースか
ら、音高データを直接入力してもよい。The pitch data may be input by inputting a tone from a microphone and extracting pitch data from the tone, or by directly inputting pitch data from an interface such as a MIDI interface.
【0011】[0011]
【発明の実施の形態】図1はこの発明の実施形態である
演奏支援装置のブロック図である。また、図2は同演奏
支援装置が記憶している楽譜データの例を示す図であ
る。楽譜データ記憶部5は、演奏される曲を表す楽譜デ
ータを記憶している。楽譜データは、図2に示す構成に
なっており、装置はこの楽譜データを用いて演奏のタイ
ミングずれを判定するとともに、楽譜の画像を表示部7
に表示する。FIG. 1 is a block diagram of a performance support apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of musical score data stored in the performance support apparatus. The musical score data storage unit 5 stores musical score data representing a music to be played. The musical score data has the configuration shown in FIG. 2. The apparatus determines the timing deviation of the performance using the musical score data and displays the image of the musical score on the display unit 7.
To be displayed.
【0012】図2において、楽譜データは、各音符の音
高と音長を示す音符データと楽譜に表現される音符以外
の各種記号を示す記号データを、その表示位置とともに
時系列に配置したものである。表示位置は、テンポクロ
ックを単位とする時間軸で表され、上下の位置は、音符
データの場合音高で決定され、記号データの場合その記
号の種類に応じて予め決められた位置に表示される。楽
譜データは複数ページからなっている。In FIG. 2, the musical score data is obtained by arranging note data indicating the pitch and duration of each note and symbol data indicating various symbols other than the notes expressed in the musical score in chronological order together with their display positions. It is. The display position is represented by a time axis in units of a tempo clock, and the upper and lower positions are determined by the pitch in the case of note data, and are displayed in predetermined positions according to the type of the symbol in the case of symbol data. You. The score data is composed of a plurality of pages.
【0013】楽譜データは、マッチング検出部4および
楽譜画像生成部9に出力される。マッチング検出部4に
は、演奏者の演奏から音高をリアルタイムに抽出した音
高データが入力される。The musical score data is output to the matching detecting section 4 and the musical score image generating section 9. Pitch data obtained by extracting a pitch from a performance of a player in real time is input to the matching detection unit 4.
【0014】マイク1は、楽器の演奏音、歌唱者による
歌唱音声などの音声を入力し、この音声信号をADコン
バータ2に入力する。ADコンバータ2はこの音声をデ
ジタルの音声データに変換し、分析部3に入力する。分
析部3は、入力された音声データを短い区間のフレーム
に分割し、各フレーム毎にその音声信号の音高データを
抽出する。音高データは、入力された楽音信号が12音
階のどの高さであるかを表すデータであり、C3、D4
などの音名+オクターブとして表現しても、処理音域の
全音高をそれぞれ個別の数値で表してもよい。また、楽
音信号の多少の周波数ずれはいずれかの音高に収束させ
る。抽出された音高データが、マッチング検出部4に入
力される。The microphone 1 inputs voices such as a performance sound of a musical instrument and a singing voice of a singer, and inputs this voice signal to the AD converter 2. The AD converter 2 converts this voice into digital voice data and inputs the digital voice data to the analysis unit 3. The analysis unit 3 divides the input audio data into frames of a short section, and extracts pitch data of the audio signal for each frame. The pitch data is data representing the pitch of the input musical tone signal in the 12 scales, and C3, D4
Alternatively, the whole pitch of the processed sound range may be represented by individual numerical values. Further, a slight frequency shift of the tone signal is made to converge to any pitch. The extracted pitch data is input to the matching detection unit 4.
【0015】また、マッチング検出部4には、MIDI
インタフェース11が接続されている。MIDIインタ
フェース11にはMIDI出力機能を有する電子楽器が
接続される。MIDIインタフェース11から入力され
るMIDIデータは、そのまま音高データとして用いる
ことができるため、直接マッチング検出部4に入力され
る。The matching detection unit 4 includes a MIDI
Interface 11 is connected. An electronic musical instrument having a MIDI output function is connected to the MIDI interface 11. Since the MIDI data input from the MIDI interface 11 can be used as pitch data as it is, it is directly input to the matching detection unit 4.
【0016】マッチング検出部4は、分析された音高デ
ータと楽譜データ中の音符データとを比較して演奏箇所
を特定するとともに、音高データの入力タイミング(ま
たは変化タイミング)に基づいて演奏テンポのずれを検
出する。マッチング検出部4は、演奏箇所を特定した演
奏箇所情報を楽譜画像生成部9に出力し、演奏テンポの
ずれを検出したテンポずれ情報を指示画像生成部10に
出力する。The matching detection section 4 compares the analyzed pitch data with the note data in the musical score data to specify a performance location, and based on the input timing (or change timing) of the pitch data, the performance tempo. Detect the deviation. The matching detection unit 4 outputs the performance location information specifying the performance location to the musical score image generation unit 9 and outputs to the instruction image generation unit 10 tempo deviation information that has detected a deviation in the performance tempo.
【0017】楽譜画像生成部9は、マッチング検出部4
から入力された演奏箇所情報に基づいてその前後の楽譜
データを楽譜データ記憶部5から読み出し、この楽譜デ
ータに基づいて楽譜の画像データを生成する。生成され
た画像データは表示制御部6に入力される。The musical score image generating section 9 includes a matching detecting section 4
The musical score data before and after the musical score data is read out from the musical score data storage unit 5 based on the performance location information input from the CPU, and image data of the musical score is generated based on the musical score data. The generated image data is input to the display control unit 6.
【0018】指示画像生成部10は、テンポずれ情報に
基づき、演奏者に演奏テンポを修正するように指示する
指示画像を生成する。その画像の例を図3に示す。現在
の演奏の進行位置(カレントポイント)が楽譜上どこで
あるかを縦線50で示し、今の演奏テンポが全体の演奏
テンポに比べて速すぎるか遅れているかを矢印51で示
す。今の演奏テンポは、直前の音符の演奏タイミングで
推定され、全体の演奏テンポはいままでの全ての音符の
演奏タイミングに基づいて推定される。さらに、その速
すぎるまたは遅れている程度を数値および文言52で表
示する。The instruction image generation unit 10 generates an instruction image for instructing the player to correct the performance tempo based on the tempo deviation information. FIG. 3 shows an example of the image. The vertical line 50 indicates where the current performance progress position (current point) is on the musical score, and the arrow 51 indicates whether the current performance tempo is too fast or delayed compared to the entire performance tempo. The current performance tempo is estimated at the performance timing of the immediately preceding note, and the overall performance tempo is estimated based on the performance timings of all the notes up to now. Further, the degree of being too fast or too late is indicated by a numerical value and wording 52.
【0019】表示制御部6は、楽譜画像生成部9から入
力された楽譜画像、および、指示画像生成部10から入
力された指示画像を合成して表示部7に表示する。The display control section 6 combines the musical score image input from the musical score image generating section 9 and the instruction image input from the instruction image generating section 10 and displays them on the display section 7.
【0020】操作部8は、予め演奏をスタートする箇所
をマッチング検出部4に指示する操作子であり、楽譜の
小節番号やページ番号などが入力される。The operation section 8 is an operation element for instructing the matching detection section 4 in advance at a place where the performance is to be started, and the bar number and page number of the musical score are input.
【0021】マッチング検出部4の動作について説明す
る。マッチング検出部4は、入力された音高データとテ
ンポに基づいて、楽譜データ上の現在演奏されている箇
所を検出する。この検出作業を、入力された音高データ
に基づいて音符データ列をサーチして一致箇所(候補)
を見つけるという演奏→楽譜のマッチング検出作業であ
るノートトレース、および、音符データのうちもうすぐ
演奏されるであろう音符データを割り出し、この音符デ
ータに対応する楽音(音高データ)の入力を待ち受ける
という楽譜→演奏のマッチング検出作業であるタイムス
ケールトレースの双方向について行う。The operation of the matching detecting section 4 will be described. The matching detection unit 4 detects a currently played part on the musical score data based on the inputted pitch data and tempo. This detection work is performed by searching a note data string based on the input pitch data and finding a matching portion (candidate).
To find the note trace, which is the work of detecting the matching of musical scores, and the note data that will soon be played out of the note data, and wait for the input of the musical tone (pitch data) corresponding to this note data This is performed for the two-way time scale trace, which is the work of detecting the matching of musical score → performance.
【0022】図4はマッチング検出部4が行う演奏箇所
の特定、テンポずれの検出を説明する図である。FIG. 4 is a diagram for explaining how the matching detection section 4 specifies a performance location and detects a tempo deviation.
【0023】先ず図4を参照して演奏位置の特定の方式
について説明する。演奏位置の特定は、ノートトレース
およびタイムスケールトレースで行う。まず、ノートト
レースについて説明する。これは、入力された音高デー
タに基づいて音高列を生成し、これをパターンとして楽
譜データの音符データ列とのマッチングを検出するもの
である。図4の例では、楽譜データの音符データ列がド
レミドミレド、ミレミソファレドと並んでいるものとす
る。同図は第5音のミから弾きはじめられミスタッチな
く演奏された場合の例である。すなわち「ミレド…」と
演奏された場合の例である。この実施形態では、演奏を
練習する場合などで途中から弾きなおしされた場合でも
演奏箇所を検出できるようにしている。First, referring to FIG. 4, a description will be given of a method of specifying a performance position. The performance position is specified by a note trace and a time scale trace. First, the note trace will be described. This is to generate a pitch sequence based on input pitch data, and to use this as a pattern to detect matching of musical score data with a note data sequence. In the example of FIG. 4, it is assumed that the musical note data string of the musical score data is lined up with Doremi Mired and MiRemi Sophored. FIG. 11 shows an example in which the player starts playing from the fifth note M and is played without a mistouch. That is, this is an example of a case where "Miredo ..." is played. In this embodiment, the performance location can be detected even when the performance is practiced or the like and the player is re-played from the middle.
【0024】まず最初の音高データとしてミが入力され
る。ミと一致する音符データを楽譜データから検索する
と、第3音、第5音、第8音、第10音がこれに該当す
る。この第3音、第5音、第8音、第10音の位置をそ
れぞれ現在位置の候補21、22、23、24として記
憶する。この候補は入力された音高データが次の音符デ
ータ(第4音、第6音、第9音、第11音)と一致した
とき、その位置に移動する。First, "mi" is input as the first pitch data. When the musical note data that matches mi is retrieved from the musical score data, the third, fifth, eighth, and tenth sounds correspond to this. The positions of the third, fifth, eighth, and tenth sounds are stored as current position candidates 21, 22, 23, and 24, respectively. When the input pitch data matches the next note data (fourth, sixth, ninth, and eleventh notes), the candidate moves to that position.
【0025】各候補の候補データは、「音符位置/一致
ノート数/不一致ノート数/連続一致数/連続不一致
数」で構成され、新たな音高データが入力されるごとに
更新される。音符位置は、この候補が現在どの音符デー
タ上にあるかを示すものである。一致ノート数は入力さ
れた音高データのうち音符データ列と一致したものの数
である。不一致ノート数は入力された音高データのうち
音符データ列と一致しなかったものの数である。連続一
致数は、入力された音高データが音符データ列と一致し
たときこれで連続していくつ一致しているかを示す数で
ある。連続不一致数は、入力された音高データが音符デ
ータ列と一致しなかったときこれで連続していくつ不一
致であるかを示す数である。The candidate data of each candidate is composed of "note position / number of matched notes / number of mismatched notes / number of continuous matches / number of continuous mismatches", and is updated each time new pitch data is input. The note position indicates on which note data the candidate is currently located. The number of coincident notes is the number of note data that matches the note data string among the inputted pitch data. The number of unmatched notes is the number of pieces of pitch data that did not match the note data string. The number of consecutive matches is a number indicating the number of continuous matches when the input pitch data matches the note data string. The consecutive mismatch number is a number indicating the number of consecutive mismatches when the input pitch data does not match the note data string.
【0026】上記候補21〜24は、最初の1音のみの
一致であるため、候補データは、それぞれ、「第3音/
1/0/1/0」、「第5音/1/0/1/0」、「第
8音/1/0/1/0」、「第10音/1/0/1/
0」である。Since the candidates 21 to 24 match only the first one sound, the candidate data are respectively “third sound /
1/0/1/0 "," 5th sound / 1/0/1/0 "," 8th sound / 1/0/1/0 "," 10th sound / 1/0/1/1 "
0 ".
【0027】次の演奏の音高データとしてレが入力され
る。前記候補21〜24の各々について次の音符がレで
あるかを検査する。そうすると、候補22および候補2
3の次の音符がレであるため、これらの候補の音符位置
をこの音符データの位置に移動して候補データを更新す
る。候補22は「第6音/2/0/2/0」、候補23
は「第9音/2/0/2/0」となる。一方、候補2
1、24は、次の音符データがレでないため音高データ
と不一致となり、候補21は「第3音/1/1/0/
1」となり、候補24は「第10音/1/1/0/1」
となる。A note is input as the pitch data of the next performance. A check is made for each of the candidates 21 to 24 to see if the next note is レ. Then, candidate 22 and candidate 2
Since the note following the third is, the note position of these candidates is moved to the position of this note data to update the candidate data. Candidate 22 is “sixth sound / 2/0/2/0”, candidate 23
Is “9th sound / 2/0/2/0”. On the other hand, candidate 2
Nos. 1 and 24 do not match the pitch data because the next note data is not レ, and candidate 21 is “third note / 1/1/0 /
1 ", and candidate 24 is" 10th sound / 1/1/0/1 "
Becomes
【0028】次に、既存の候補が移動してこなかったレ
の音符データを検索すると、第2音、第13音が存在す
る。これらを新たな現在位置の候補として候補25、2
6とする。候補25は「第2音/1/0/1/0」、候
補26は「第13音/1/0/1/0」となる。Next, when the musical note data of the existing candidate is not moved, the second and thirteenth sounds are found. These are set as candidates for the new current position.
6 is assumed. Candidate 25 is “second sound / 1/0/1/0” and candidate 26 is “thirteenth sound / 1/0/1/0”.
【0029】さらに次の音高データとしてドが入力され
るので、候補21〜26について次の音符データがドで
あるかを検査する。候補21、候補22および候補26
の次の音符データがドであるため、これらの候補の音符
位置をこの音符データの位置に移動して候補データを更
新する。候補21は「第4音/2/1/1/0」、候補
22は「第7音/3/0/3/0」、候補26は「第1
4音/2/0/2/0」となる。Further, since "do" is input as the next pitch data, it is checked whether the next note data is "do" for the candidates 21 to 26. Candidate 21, Candidate 22, and Candidate 26
Since the next note data is "C", the note position of these candidates is moved to the position of the note data to update the candidate data. Candidate 21 is “fourth sound / 2/1/1/0”, candidate 22 is “seventh sound / 3/0/3/0”, and candidate 26 is “first sound”.
4 sounds / 2/0/2/0 ".
【0030】また、候補23〜25は、それぞれ、候補
23は「第9音/2/1/0/1」、候補24は「第1
0音/1/2/0/2」、候補25は「第2音/1/1
/0/1」となる。次に、既存の候補が移動して来なか
ったドの音符データを検索すると第1音が存在する。こ
れを新たな現在位置の候補として候補27「第1音/1
/0/1/0」となる。For candidates 23 to 25, candidate 23 is "ninth sound / 2/1/0/1" and candidate 24 is "first sound".
0 sound / 1/2/0/2 ", and candidate 25 is" second sound / 1/1
/ 0/1 ". Next, when the musical note data of C whose existing candidate has not moved is searched, the first sound is present. This is set as a candidate for the new current position and the candidate 27 “first sound / 1
/ 0/1/0 ".
【0031】このように、正しい演奏位置であるカレン
トポイントを示している候補22は一致数、連続一致数
とも大きな値となり、不一致数は少ない(0)。このよ
うに候補データを検査することによって正しいカレント
ポイントを割り出すことができる。また、不一致の場合
でも、候補を即座に削除しないで不一致数を記憶しなが
ら残しておくのは、演奏者がミスタッチして間違った音
を入力した場合に対応するためである。すなわち演奏者
がミスタッチをした場合でも不一致数が1つ増加する程
度であり、正しいカレントポイントを割り出す大きな妨
げにはならない。たとえば、「ミレド…」と演奏すべき
ところを「ミレレド…」と演奏した場合でも、候補22
は「第7音/3/1/2/0」となり、やはり有力なカ
レントポイントの候補である。また、演奏者が音を間違
えた場合や音を飛ばした場合には、その次の音からこの
図に示した正しい候補の割り出しが開始される。As described above, the number of matches and the number of consecutive matches of the candidate 22 indicating the current point which is a correct performance position have large values, and the number of mismatches is small (0). By examining the candidate data in this way, a correct current point can be determined. Further, even in the case of a mismatch, the reason why the candidate is not deleted immediately and the number of mismatches is memorized and stored is to cope with a case where the player makes a wrong touch and inputs an incorrect sound. That is, even when the player makes a mistouch, the number of mismatches increases by one, and does not significantly hinder finding the correct current point. For example, even if a place to be played as "Miredo ..." is played as "Miredo ..."
Is "7th sound / 3/1/2/0", which is also a potential current point candidate. If the player makes a mistake or skips a sound, the next sound starts to determine the correct candidate shown in FIG.
【0032】上記のノートトレースによって現在の演奏
位置の候補が絞り込まれると、タイムスケールトレース
によって現在の演奏位置を最終的に決定するとともに、
演奏のテンポずれを検出する。以下、タイムスケールト
レースについて説明する。上記のノートトレースによっ
てカレントポイントの候補が幾つかに絞り込まれると、
各カレントポイント候補の直後に存在する音譜データを
それぞれ1つずつ抽出し、どの音符データと一致する音
高データが次に入力されるかを待ち受ける。このとき入
力された音高データに基づいてどの候補が実際のカレン
トポイントであるかを決定するとともに、この音高デー
タの入力タイミングに基づいてテンポずれ量を割り出す
とともにテンポの修正を行う。When the candidates for the current performance position are narrowed down by the above note trace, the current performance position is finally determined by the time scale trace.
Detects tempo deviation in performance. Hereinafter, the time scale trace will be described. If the current note candidates are narrowed down to some by the above note trace,
The musical score data existing immediately after each current point candidate is extracted one by one, and it waits for which note data coincides with the next input of pitch data. At this time, which candidate is the actual current point is determined based on the input pitch data, the tempo deviation amount is calculated and the tempo is corrected based on the input timing of the pitch data.
【0033】抽出を行い、楽譜データの拍子と合わせる
ことでカレントポイントの表示を予測的に進行させる。Extraction is performed, and the display of the current point is made to progress predictably by matching the time signature of the musical score data.
【0034】図5は、テンポ推定の方法を説明する図で
ある。楽譜上の音符タイミングをX軸にとり、実際の音
高データ入力タイミングをY軸にとると、演奏が一定の
テンポで演奏されている場合は原点を通る直線になる。
同図の直線は楽譜が指示するテンポと演奏テンポが同じ
場合の傾き1の直線を示している。実際の演奏テンポ
は、音符タイミング、すなわちその音符に対応する音高
データが入力されたタイミング毎に離散的に検出される
ため、最小二乗法などの演算手法によりこれらの点近傍
を通過する直線を描いてテンポを推定する。全ての音符
タイミングを同じ重みにしてテンポを推定すると演奏者
が意図したテンポ変化に追従できない、また、現在の音
符タイミングのみでテンポを推定するとミスタッチやイ
レギュラータッチの影響が大きくなる。そこで、過去の
音符タイミングになるほど重みを小さくして、または現
在の音符タイミングほど重みを大きくしてテンポを推定
する。そして、このテンポに基づいて次の音符の音高デ
ータの入力タイミング(次の音符タイミング)を推定
し、この推定されたタイミングと実際の音高データの入
力タイミングとの前後をテンポずれ量とする。FIG. 5 is a diagram for explaining a method of estimating a tempo. If the note timing on the musical score is taken on the X-axis and the actual pitch data input timing is taken on the Y-axis, if the performance is performed at a constant tempo, it will be a straight line passing through the origin.
The straight line in the figure shows a straight line having a slope of 1 when the tempo indicated by the score and the performance tempo are the same. The actual performance tempo is detected discretely at each note timing, that is, at each timing at which pitch data corresponding to the note is input. Therefore, a straight line passing near these points is calculated by a calculation method such as the least square method. Draw and estimate tempo. If the tempo is estimated with all note timings having the same weight, it is impossible to follow the tempo change intended by the player. If the tempo is estimated only with the current note timing, the effect of mistouch or irregular touch will be large. Therefore, the tempo is estimated by making the weight smaller as the timing of the past note becomes smaller, or increasing the weight as the timing of the current note becomes larger. Then, the input timing of the pitch data of the next note (next note timing) is estimated based on the tempo, and the tempo difference between before and after the estimated timing and the input timing of the actual pitch data is defined as the tempo shift amount. .
【0035】また、音符タイミング毎にテンポを推定し
ないで、同図に示すように所定の周期毎にテンポを推定
(評価)するようにしてもよく、この場合には、この評
価周期毎を重みづけの区分に利用して、直近の周期の音
符タイミングに最大の重みを持たせ、さかのぼるにした
がって軽くすればよい。Instead of estimating the tempo at each note timing, the tempo may be estimated (evaluated) at predetermined intervals as shown in FIG. It is only necessary to assign the maximum weight to the note timing of the most recent cycle, and to make the note timing lighter as it goes back.
【0036】なお、図3に示した指示画像は、音符の音
高データが入力した直後にその音符データの入力タイミ
ングに基づいてテンポずれを検出したとき表示されるも
のである。遅れている場合には、図示のように、カレン
トポイント50から楽譜の進行方向に向いた矢印51と
(速く)の文字を表示し、その程度をパーセントで表示
する。走っている(速過ぎる)場合には楽譜の進行方向
とは逆向きの矢印と(遅く)の文字を表示し、その程度
をパーセントで表示する。表示態様はこれに限定され
ず、たとえば、矢印の長さで遅れている或いは走ってい
る程度を表示するようにしてもよい。また、このパーセ
ント表示は、必ずしも正確なテンポずれの量を表すもの
である必要はなく、ずれ量を表す指標として用いればよ
い。したがって、単位がパーセントである必要はない。The instruction image shown in FIG. 3 is displayed when a tempo deviation is detected based on the input timing of note data immediately after the note pitch data is input. If it is late, as shown in the figure, an arrow 51 pointing from the current point 50 in the musical score progression direction and (fast) characters are displayed, and the degree is displayed as a percentage. If it is running (too fast), an arrow and a (slow) arrow in the direction opposite to the direction of the score are displayed, and the degree is displayed as a percentage. The display mode is not limited to this, and for example, the degree of delay or running may be displayed by the length of the arrow. Also, this percentage display does not necessarily need to indicate the exact amount of tempo shift, and may be used as an index indicating the amount of shift. Thus, the units need not be percentages.
【0037】また、このテンポずれの指示画像を見てど
の程度テンポを修正するかは演奏者によって異なる。そ
こで、演奏者がテンポを修正する程度を見て、表示内容
を変更するようにしてもよい。すなわち、標準では図6
(A)のように表示されるテンポずれであっても、テン
ポの修正の程度が小さい(フィードバックが小さい)演
奏者に対しては同図(B)のように表示し、テンポの修
正の程度が大きい(フィードバックが大きい)演奏者に
対しては同図(C)のように表示するようにする。The degree to which the tempo is corrected by looking at the tempo-shifted instruction image differs depending on the player. Therefore, the display content may be changed by checking the degree to which the player corrects the tempo. That is, FIG.
Even if the tempo deviation is displayed as shown in (A), a player whose degree of tempo correction is small (small feedback) is displayed as shown in FIG. (C) is displayed for a player who has a large (high feedback).
【0038】図7,図8は同演奏支援装置の動作を示す
フローチャートである。図7は前記ノートトレース動作
を示すフローチャートである。まず、楽譜画像生成部9
が楽譜データ記憶部5から第1ページの楽譜データを読
み出して楽譜の画像を合成して表示制御部6に出力す
る。表示制御部6はこれを表示部7に表示する(ステッ
プ101:以下単に101という)。こののち音高デー
タが入力されるか(102)、操作部8から表示ページ
変更の指示が入力されるか(103)を検出する。表示
ページ変更の指示が入力されると(103)、その指示
されたページの楽譜データを楽譜データ記憶記憶部5か
ら読み出して表示部7に表示する(104)。そして、
カレントポイントの候補が記憶されている場合にはこれ
をクリアする(105)。FIGS. 7 and 8 are flowcharts showing the operation of the performance support apparatus. FIG. 7 is a flowchart showing the note trace operation. First, the score image generation unit 9
Reads the score data of the first page from the score data storage unit 5, synthesizes the image of the score, and outputs it to the display control unit 6. The display control unit 6 displays this on the display unit 7 (Step 101: hereinafter simply referred to as 101). Thereafter, it is detected whether pitch data is input (102) or an instruction to change the display page is input from the operation unit 8 (103). When an instruction to change the display page is input (103), the musical score data of the designated page is read from the musical score data storage unit 5 and displayed on the display unit 7 (104). And
If the current point candidate is stored, it is cleared (105).
【0039】音高データが入力されると(102)、こ
の音高データで楽譜データの音符データ列を検索してカ
レントポイントの候補を検索する(106)。この検索
処理は、図4を参照して説明した処理であり、既に設定
されている候補の更新も含まれる。そして、設定されて
いる各候補のマッチングの程度を判定する(107)。
マッチングの程度はノート一致率や連続一致/不一致数
などで判定される。ノート一致率は、ノート一致数/
(ノート一致数+ノート不一致数)で算出される。10
7ではノート一致率を各候補について算出し、ノート一
致率が所定値m1以下の候補および連続不一致数が所定
値m2以上の候補はカレントポイントである確率が極め
て低いとして候補から外し、候補データを削除する(1
08)。また、ノート一致数が所定値m3以上であり且
つノート一致率が所定値m4以上の候補のカレントポイ
ントとして確率の高い候補を決定し(109)、これを
タイムスケールトレースに送信する(110)。When pitch data is input (102), a note data string of musical score data is searched with this pitch data to search for a candidate for a current point (106). This search process is the process described with reference to FIG. 4 and includes updating of the already set candidates. Then, the degree of matching of each set candidate is determined (107).
The degree of matching is determined based on the note matching rate and the number of consecutive matches / mismatches. Note match rate is the number of note matches /
It is calculated by (note match number + note mismatch number). 10
In 7, a note matching rate is calculated for each candidate, and a candidate having a note matching rate equal to or less than a predetermined value m1 and a candidate having a continuous mismatch number equal to or more than a predetermined value m2 are excluded from the candidates because the probability of being a current point is extremely low. Delete (1
08). In addition, a candidate having a high probability is determined as a current point of a candidate whose number of note matches is equal to or more than a predetermined value m3 and a note matching rate is equal to or more than a predetermined value m4 (109), and transmitted to a time scale trace (110).
【0040】図8はタイムスケールトレースおよびテン
ポずれ検出動作を示すフローチャートである。ノートト
レース動作からカレントポイントの候補を受け取る(1
20)。複数の候補がある場合には、その複数の候補を
全て受け取る。受け取ったカレントポイント候補のそれ
ぞれについて次に入力されるべき音高データとそのタイ
ミングを予測する(121)。次に入力されるべき音高
データは、楽譜データ上における次の音符の音高データ
であり、そのタイミングは、楽譜データ上の次の音符ま
でのインターバルをそのとき推定されているテンポで進
行した場合の音高データの入力タイミングである。テン
ポの推定は、直前のこのタイムスケールトレース動作で
推定されたものを用いる。そして音高データが入力され
るまで待機する(122)。音高データが入力される
と、この音高データと上記予測した音高データ、タイミ
ングとの一致/不一致を判定する(123)。すなわ
ち、予測したのと同じ音高データが予測したタイミング
に入力されたかを判定する。ただし、実際の演奏ではテ
ンポずれやミスタッチがあるため、入力タイミングにつ
いてはある程度の時間的な幅をもたせて一致を判定し、
音高データは、入力されるべき音高データに対してミス
タッチしやすい音高もタイムスケールトレースでは正し
い入力と認める(ノートトレースでは誤り入力とする)
などの許容度をもって判定するようにすればよい。複数
の候補がある場合には、最も一致の確率の高いものを決
定する。一致するものがあった場合には(124)、こ
の位置がカレントポイントであると決定し、音高データ
の入力タイミングに基づいて演奏のテンポずれを計算す
る(125)。そして、このテンポずれ情報を指示画像
生成部10に出力する。指示画像生成部10はこのテン
ポずれ情報に基づいて図3に示すような指示画像を生成
し、表示制御部6に出力する。表示制御部6はこの指示
画像を楽譜画像生成部9が生成した楽譜画像に合成して
表示部7に表示する(126)。FIG. 8 is a flowchart showing a time scale trace and a tempo deviation detecting operation. Receive the current point candidate from the note trace operation (1
20). When there are a plurality of candidates, all of the plurality of candidates are received. For each of the received current point candidates, pitch data to be input next and its timing are predicted (121). The next pitch data to be input is the pitch data of the next note on the score data, and its timing has progressed in the interval to the next note on the score data at the currently estimated tempo. This is the input timing of the pitch data in the case. For estimating the tempo, the one estimated in the immediately preceding time scale tracing operation is used. Then, the process waits until pitch data is input (122). When pitch data is input, it is determined whether or not the pitch data matches the predicted pitch data and timing (123). That is, it is determined whether or not the same pitch data as that predicted was input at the predicted timing. However, since there are tempo shifts and mis-touches in the actual performance, the input timing is judged to match with a certain time width,
Regarding the pitch data, a pitch that is likely to be mistouched with the pitch data to be input is recognized as a correct input in the time scale trace (an incorrect input in the note trace).
What is necessary is just to make it determine with tolerance, such as. If there are a plurality of candidates, the candidate with the highest matching probability is determined. If there is a match (124), this position is determined to be the current point, and the tempo deviation of the performance is calculated based on the input timing of the pitch data (125). Then, the tempo shift information is output to the instruction image generation unit 10. The instruction image generation unit 10 generates an instruction image as shown in FIG. 3 based on the tempo shift information and outputs the instruction image to the display control unit 6. The display control unit 6 combines this instruction image with the musical score image generated by the musical score image generating unit 9 and displays it on the display unit 7 (126).
【0041】つぎに、今回の入力に基づいて演奏のテン
ポを再計算する(127)。このテンポ計算は図5で説
明した方式で行う。検出されたカレントポイントデータ
および算出されたテンポで演奏が進むとして楽譜画像生
成部9に対して楽譜データ記憶部5から読み出す楽譜デ
ータの箇所を指示する(128)。Next, the tempo of the performance is recalculated based on the current input (127). This tempo calculation is performed by the method described with reference to FIG. As the performance proceeds at the detected current point data and the calculated tempo, the musical score image generating unit 9 is instructed on the musical score data to be read from the musical score data storage unit 5 (128).
【0042】[0042]
【発明の効果】以上のようにこの発明によれば、テンポ
ずれを検出してこれを楽譜上に表示することにより、演
奏者はこれに基づいてテンポを修正して正しいテンポで
演奏をすることができる。また、テンポずれの検出は、
電子楽譜においてページめくり制御に用いられる演奏箇
所・テンポの検出結果を利用して行うことができるた
め、電子楽譜において新たな検出手段を設ける必要がな
く、装置を複雑化することがない。As described above, according to the present invention, by detecting a tempo deviation and displaying it on a musical score, the player can correct the tempo based on this and perform at the correct tempo. Can be. In addition, the detection of tempo deviation
Since the detection can be performed by using the detection result of the performance part / tempo used for the page turning control in the electronic musical score, there is no need to provide a new detecting means in the electronic musical score, and the apparatus is not complicated.
【図1】この発明の実施形態である演奏支援装置のブロ
ック図FIG. 1 is a block diagram of a performance support apparatus according to an embodiment of the present invention;
【図2】同演奏支援装置に記憶される楽譜データを示す
図FIG. 2 is a view showing musical score data stored in the performance support apparatus.
【図3】同演奏支援装置が表示する指示画像の例を示す
図FIG. 3 is a diagram showing an example of an instruction image displayed by the performance support device.
【図4】同演奏支援装置のノートトレース処理を説明す
る図FIG. 4 is a view for explaining a note trace process of the performance support apparatus.
【図5】同演奏支援装置のテンポ推定処理を説明する図FIG. 5 is a view for explaining tempo estimation processing of the performance support apparatus.
【図6】同演奏支援装置が表示する指示画像の変形例を
示す図FIG. 6 is a diagram showing a modification of the instruction image displayed by the performance support device.
【図7】同演奏支援装置の動作を示すフローチャートFIG. 7 is a flowchart showing the operation of the performance support apparatus.
【図8】同演奏支援装置の動作を示すフローチャートFIG. 8 is a flowchart showing the operation of the performance support apparatus.
1…マイク、2…ADコンバータ、3…分析部、4…マ
ッチング検出部、5…楽譜データ記憶部、6…表示制御
部、7…表示部、8…操作部DESCRIPTION OF SYMBOLS 1 ... Microphone, 2 ... AD converter, 3 ... Analysis part, 4 ... Matching detection part, 5 ... Music score data storage part, 6 ... Display control part, 7 ... Display part, 8 ... Operation part
Claims (5)
譜データを記憶する記憶手段と、 演奏の音高データを入力する入力手段と、 入力手段から入力された音高データに基づいて、前記音
符データ列における現在の演奏位置および演奏のテンポ
を推定し、この推定された演奏位置および演奏のテンポ
に基づいて、前記楽譜データのうち前記表示手段に表示
する箇所を決定するとともに、この推定された演奏位置
および演奏のテンポに基づいて、次に入力されるべき音
高データの入力タイミングを予測し、次に音高データが
入力されたとき、その実際の入力タイミングと前記予測
された入力タイミングとのずれに基づいてテンポずれを
割り出す制御手段と、 前記楽譜データに基づく楽譜画像および前記テンポずれ
に応じた修正指示画像を合成して表示する表示手段と、 を備えた演奏支援装置。1. A storage means for storing musical score data including a note data string representing a musical note, an input means for inputting pitch data of a performance, and the pitch data input from the input means. The current playing position and the playing tempo in the note data sequence are estimated, and based on the estimated playing position and the playing tempo, a portion of the musical score data to be displayed on the display means is determined, and the estimated position is determined. The input timing of the pitch data to be input next is predicted based on the performance position and the tempo of the performance, and when the next pitch data is input, the actual input timing and the predicted input timing are input. Control means for calculating a tempo deviation based on the deviation from the musical score, and synthesizing a score image based on the musical score data and a correction instruction image corresponding to the tempo deviation. And a display means for displaying the performance.
た音高データを、新しいほど大きく、古いものほど小さ
く重みづけして演奏のテンポを推定する請求項1に記載
の演奏支援装置。2. The performance support apparatus according to claim 1, wherein the matching detection means estimates the tempo of the performance by weighting previously input pitch data as newer and higher as older data.
し、このAD変換された楽音データから楽音の音高を抽
出する手段を含む請求項1または請求項2に記載の演奏
支援装置。3. The performance assisting apparatus according to claim 1, wherein the input means includes means for inputting and AD converting a musical tone and extracting a tone pitch of the musical tone from the AD-converted musical tone data.
ンタフェースを介して音高データを含む演奏データを入
力する手段を含む請求項1または請求項2に記載の演奏
支援装置。4. The performance support apparatus according to claim 1, wherein said input means includes means for inputting performance data including pitch data from a musical instrument being played via an interface.
譜データを記憶した装置において、 演奏の音高データを入力する手順、 この音高データに基づいて、前記音符データ列における
現在の演奏位置および演奏のテンポを推定する手順、 この推定された演奏位置および演奏のテンポに基づい
て、前記楽譜データのうち表示すべき箇所を決定する手
順、 この推定された演奏位置および演奏のテンポに基づい
て、次に入力されるべき音高データの入力タイミングを
予測する手順、 次に音高データが入力されたとき、その実際の入力タイ
ミングと前記予測された入力タイミングとのずれに基づ
いてテンポずれを割り出す手順、 前記楽譜データに基づく楽譜画像および前記テンポずれ
に応じた修正指示画像を合成する手順、 を有する演奏支援方法。5. A device for storing musical score data including a musical note data sequence representing musical notes of a musical composition, comprising the steps of: inputting performance pitch data; based on the pitch data, a current performance position in the musical note data sequence. And a procedure for estimating the performance tempo; a procedure for determining a location to be displayed in the musical score data based on the estimated performance position and the performance tempo; and a procedure based on the estimated performance position and the performance tempo. A procedure for predicting the input timing of pitch data to be input next, and when pitch data is input next, a tempo shift based on a shift between the actual input timing and the predicted input timing is calculated. A performance assisting method, comprising: determining a musical score image based on the musical score data; and synthesizing a correction instruction image corresponding to the tempo deviation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000155383A JP4399958B2 (en) | 2000-05-25 | 2000-05-25 | Performance support apparatus and performance support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000155383A JP4399958B2 (en) | 2000-05-25 | 2000-05-25 | Performance support apparatus and performance support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001337675A true JP2001337675A (en) | 2001-12-07 |
JP4399958B2 JP4399958B2 (en) | 2010-01-20 |
Family
ID=18660334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000155383A Expired - Fee Related JP4399958B2 (en) | 2000-05-25 | 2000-05-25 | Performance support apparatus and performance support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4399958B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005234303A (en) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | Performance sound decision apparatus and performance sound decision program and recording medium with the program recorded therein |
JP2005249844A (en) * | 2004-03-01 | 2005-09-15 | Kawai Musical Instr Mfg Co Ltd | Device and program for performance indication |
WO2007037067A1 (en) | 2005-09-28 | 2007-04-05 | Yamaha Corporation | Ensemble system |
JP2007086243A (en) * | 2005-09-21 | 2007-04-05 | Casio Comput Co Ltd | Accidental display device and program therefor |
JP2008242285A (en) * | 2007-03-28 | 2008-10-09 | Yamaha Corp | Performance device and program for attaining its control method |
US7939740B2 (en) | 2005-09-12 | 2011-05-10 | Yamaha Corporation | Ensemble system |
US7947889B2 (en) | 2005-09-28 | 2011-05-24 | Yamaha Corporation | Ensemble system |
JP2011528127A (en) * | 2008-07-15 | 2011-11-10 | ロラン・ゲヌー | Conductor-centric electronic score stand system |
JP2020064177A (en) * | 2018-10-17 | 2020-04-23 | 株式会社Nttドコモ | Information processing apparatus and program |
US10803845B2 (en) | 2018-05-18 | 2020-10-13 | Roland Corporation | Automatic performance device and automatic performance method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0527670A (en) * | 1991-07-24 | 1993-02-05 | Yamaha Corp | Score display device |
JPH05108075A (en) * | 1991-10-16 | 1993-04-30 | Casio Comput Co Ltd | Electronic musical instrument |
JPH06348272A (en) * | 1993-06-07 | 1994-12-22 | Roland Corp | Tempo detecting device |
JPH08305354A (en) * | 1995-05-09 | 1996-11-22 | Kashima Enterp:Kk | Automatic performance device |
JPH10198358A (en) * | 1997-01-09 | 1998-07-31 | Yamaha Corp | Tempo control device |
JPH11296168A (en) * | 1998-04-08 | 1999-10-29 | Yamaha Corp | Performance information evaluating device, its method and recording medium |
JP2000231379A (en) * | 1999-02-12 | 2000-08-22 | Ntt Data Corp | Electronic music stand and display method of electronic music |
-
2000
- 2000-05-25 JP JP2000155383A patent/JP4399958B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0527670A (en) * | 1991-07-24 | 1993-02-05 | Yamaha Corp | Score display device |
JPH05108075A (en) * | 1991-10-16 | 1993-04-30 | Casio Comput Co Ltd | Electronic musical instrument |
JPH06348272A (en) * | 1993-06-07 | 1994-12-22 | Roland Corp | Tempo detecting device |
JPH08305354A (en) * | 1995-05-09 | 1996-11-22 | Kashima Enterp:Kk | Automatic performance device |
JPH10198358A (en) * | 1997-01-09 | 1998-07-31 | Yamaha Corp | Tempo control device |
JPH11296168A (en) * | 1998-04-08 | 1999-10-29 | Yamaha Corp | Performance information evaluating device, its method and recording medium |
JP2000231379A (en) * | 1999-02-12 | 2000-08-22 | Ntt Data Corp | Electronic music stand and display method of electronic music |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4492932B2 (en) * | 2004-02-20 | 2010-06-30 | 株式会社河合楽器製作所 | Performance sound determination device, performance sound determination program, and medium recording the program |
JP2005234303A (en) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | Performance sound decision apparatus and performance sound decision program and recording medium with the program recorded therein |
JP2005249844A (en) * | 2004-03-01 | 2005-09-15 | Kawai Musical Instr Mfg Co Ltd | Device and program for performance indication |
US7939740B2 (en) | 2005-09-12 | 2011-05-10 | Yamaha Corporation | Ensemble system |
JP4696808B2 (en) * | 2005-09-21 | 2011-06-08 | カシオ計算機株式会社 | Temporary symbol display device and temporary symbol display program |
JP2007086243A (en) * | 2005-09-21 | 2007-04-05 | Casio Comput Co Ltd | Accidental display device and program therefor |
US7888576B2 (en) | 2005-09-28 | 2011-02-15 | Yamaha Corporation | Ensemble system |
US7947889B2 (en) | 2005-09-28 | 2011-05-24 | Yamaha Corporation | Ensemble system |
WO2007037067A1 (en) | 2005-09-28 | 2007-04-05 | Yamaha Corporation | Ensemble system |
JP2008242285A (en) * | 2007-03-28 | 2008-10-09 | Yamaha Corp | Performance device and program for attaining its control method |
JP2011528127A (en) * | 2008-07-15 | 2011-11-10 | ロラン・ゲヌー | Conductor-centric electronic score stand system |
US10803845B2 (en) | 2018-05-18 | 2020-10-13 | Roland Corporation | Automatic performance device and automatic performance method |
JP2020064177A (en) * | 2018-10-17 | 2020-04-23 | 株式会社Nttドコモ | Information processing apparatus and program |
JP7232011B2 (en) | 2018-10-17 | 2023-03-02 | 株式会社Nttドコモ | Information processing device and program |
Also Published As
Publication number | Publication date |
---|---|
JP4399958B2 (en) | 2010-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4389330B2 (en) | Performance position detection method and score display device | |
EP3843083A1 (en) | Method, system, and computer-readable medium for creating song mashups | |
US10504498B2 (en) | Real-time jamming assistance for groups of musicians | |
US20090173213A1 (en) | Music Score Recognizer and Its Applications | |
JP2010521021A (en) | Song-based search engine | |
CN107077836A (en) | For tracking the method for music score and the modeling method of correlation | |
CN1173008A (en) | Karaoke scoring apparatus analyzing singing voice relative to melody data | |
JPH0527670A (en) | Score display device | |
JPH09293083A (en) | Music retrieval device and method | |
JP2001337675A (en) | Playing support device and playing support method | |
WO2019180830A1 (en) | Singing evaluating method, singing evaluating device, and program | |
CN113689836A (en) | Method and terminal for converting audio frequency into musical notes and displaying same | |
JP5092589B2 (en) | Performance clock generating device, data reproducing device, performance clock generating method, data reproducing method and program | |
JP4738135B2 (en) | Music score recognition apparatus and music score recognition program | |
JP2003271160A (en) | Music retrieving device | |
JP4170279B2 (en) | Lyric display method and apparatus | |
JP3753798B2 (en) | Performance reproduction device | |
JP2009014978A (en) | Musical performance clock generating device, data reproducing device, musical performance clock generating method, data reproducing method, and program | |
JP6496998B2 (en) | Performance information editing apparatus and performance information editing program | |
JP6459162B2 (en) | Performance data and audio data synchronization apparatus, method, and program | |
JP5637169B2 (en) | Karaoke device and program | |
JP6728572B2 (en) | Plucked instrument performance evaluation device, music performance device, and plucked instrument performance evaluation program | |
JP5574130B2 (en) | Karaoke device and karaoke program | |
JP4173475B2 (en) | Lyric display method and apparatus | |
JP5195210B2 (en) | Performance data editing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091006 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4399958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091019 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121106 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121106 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131106 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |