WO2014189137A1 - 演奏解析方法及び演奏解析装置 - Google Patents

演奏解析方法及び演奏解析装置 Download PDF

Info

Publication number
WO2014189137A1
WO2014189137A1 PCT/JP2014/063722 JP2014063722W WO2014189137A1 WO 2014189137 A1 WO2014189137 A1 WO 2014189137A1 JP 2014063722 W JP2014063722 W JP 2014063722W WO 2014189137 A1 WO2014189137 A1 WO 2014189137A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
information
difference
tendency
degree
Prior art date
Application number
PCT/JP2014/063722
Other languages
English (en)
French (fr)
Inventor
祐 高橋
佳孝 浦谷
福太郎 奥山
川端 太郎
公一 石崎
暖 篠井
吉就 中村
大地 渡邉
理沙 小室
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to US14/892,764 priority Critical patent/US20160104469A1/en
Publication of WO2014189137A1 publication Critical patent/WO2014189137A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/011Hybrid piano, e.g. combined acoustic and electronic piano with complete hammer mechanism as well as key-action sensors coupled to an electronic sound generator
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format

Definitions

  • Patent Document 1 A technique for evaluating the skill of playing musical instruments is known. For example, in Patent Document 1, performance data is compared with sequence data for each note, and if there is an error in the scale, if there is one extra note, or conversely, one note is missing, the total note It is described that 1 is subtracted from the number, and the final number of notes, that is, the number of correctly played notes, is used as an improvement level as an indicator of skill of performance. Patent Document 1 further describes obtaining an expected practice amount required to acquire a performance technique from the degree of improvement.
  • FIG. 2 is a diagram showing the external appearance of the electronic musical instrument 10.
  • the electronic musical instrument 10 is an automatic performance piano in this embodiment.
  • the electronic musical instrument 10 includes the same mechanism as that of a general acoustic piano, such as an action mechanism that strikes a string in accordance with the movement of a key on the keyboard, or a damper that stops vibration of the string.
  • the electronic musical instrument 10 has the same configuration as that of a general automatic performance piano, such as an actuator for driving a key and a sensor for detecting the movement of the key.
  • the electronic musical instrument 10 includes an interface 150 through which various types of information are input and output, and a touch panel 103 that displays a screen for operating the electronic musical instrument 10 and receives instructions from the operator.
  • step SA1 when the player outputs a signal output from the sensor unit 107 by releasing the finger from the pressed key (FIG. 6: YES in step SA1), the control unit 101 detects the sensor unit. In response to the signal output from 107, a MIDI message including a note-off message, a note number corresponding to the released key, and performance information such as velocity corresponding to the key operation is generated (step). SA2). Further, the control unit 101 stores the note-off MIDI message in association with the date / time information output from the time measuring unit 1003 when the MIDI message is generated in the storage unit 102 (step SA3). The control unit 101 generates a MIDI message each time a key is operated, and stores the generated MIDI message and date / time information in association with each other in the storage unit 102.
  • the performance information is the MIDI message and date / time information, but is not limited to the MIDI message.
  • the performance information may be waveform data of sound collected by collecting performance sound with a microphone.
  • the performance analysis method of the present invention is different from each other in that the acquisition step of acquiring performance information of the performer and the performance information acquired by the acquisition step are compared with reference information indicating the reference of the performance.
  • the performance section having a large difference between the performance information acquired by the acquisition step and the reference information, and the performance having a small difference between the performance information acquired by the acquisition process and the reference information
  • the performance analysis method further includes a playback step of playing back the performance based on the performance information, and in the playback step, the content of the difference is determined in the performance section where the degree of difference is determined to be small. Play the performance as if emphasized.
  • a performance tendency of a performer prepared in advance is compared with the performance tendency specified by the specifying step, and the performance tendency of the performer and the specifying step are compared.
  • a similarity determination step of determining similarity to the identified performance tendency is further provided.
  • the specifying step the performance tendency is specified in units of performers, units of music performed by the performers, or a predetermined number of measures constituting the music.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 演奏解析装置は、演奏者の演奏情報を取得する演奏情報取得手段と、前記演奏情報取得手段によって取得された演奏情報を演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定手段と、前記判定手段によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定手段と、を備える。

Description

演奏解析方法及び演奏解析装置
 本発明は楽器の演奏を解析する技術に関する。
 楽器の演奏の巧拙を評価する技術が知られている。例えば特許文献1には、演奏データをノート毎にシーケンスデータと比較し、音階の誤りがあった場合や、余分な1音が存在する場合或いは逆に1音抜けている場合にはそれぞれ総ノート数から1を引き、最終的なノート数、つまり正しく演奏されたノート数を、演奏の巧拙の指標である上達度とすることが記載されている。特許文献1にはさらに、その上達度から演奏技術の習得に要する予想練習量を求めることが記載されている。
日本国特開2013-068879号公報
 ところで、現実の演奏においては、楽譜のとおりの演奏ではないものの、演奏の失敗やミスとまではいえないような状況がある。例えば、演奏を所定のタイミングよりも少し遅らせるとか、楽譜による演奏記号の指示を少し強調して演奏する場合などである。これを演奏の癖と呼ぶことにするが、このような癖はできれば解消して、楽譜どおりの演奏に近づけたほうがよいことがある。しかし、その一方で、著名な演奏者の場合には、或る種の情感を表現するために意図的に楽譜に従わないような演奏をすることがある。これを演奏の個性と呼ぶことにする。このような演奏の個性は、上記の演奏の癖とは異なり、演奏の芸術性を高めるための好ましい演奏技術である場合が多い。特許文献1に記載の技術では、演奏の失敗やミスであるか否かということしか判断しないため、このような演奏における癖や個性(以下ではこれらを「演奏の傾向」と総称する)を評価することができない。
 本発明は、上述した背景の下になされたものであり、演奏の失敗やミスとは区別して演奏の傾向を特定することを目的とする。
 本発明は、演奏者の演奏情報を取得する取得工程と、前記取得工程によって取得された演奏情報を演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記取得工程によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記取得工程によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定工程と、前記判定工程によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定工程と、を備える演奏解析方法を提供する。
 また、本発明は、演奏者の演奏情報を取得する演奏情報取得手段と、前記演奏情報取得手段によって取得された演奏情報を前記演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定手段と、前記判定手段によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定手段と、を備える演奏解析装置を提供する。
 本発明によれば、演奏の失敗やミスとは区別して演奏の傾向を特定することができる。
本発明の一実施形態に係る演奏解析システム1の全体構成を示した図。 電子楽器10の外観を示した図。 電子楽器10のハードウェア構成を示した図。 サーバ装置20のハードウェア構成を示した図。 電子楽器10が行う処理の流れを示したフローチャート。 電子楽器10が表示する画面の一例を示した図。 サーバ装置20が行う処理の流れを示したフローチャート。 発音タイミングの相違度を特定するときの考え方を説明する図。
[実施形態]
 図1は、本発明の一実施形態に係る演奏解析システム1の全体構成を示した図である。演奏解析システム1においては、演奏者が演奏するときに用いる電子楽器10と、その演奏を解析する演奏解析装置として機能するサーバ装置20とが、インターネットなどの通信網2に接続されている。なお、通信網2には多数の電子楽器10やサーバ装置20を接続可能であるが、図1においては、図面が繁雑になるのを防ぐため、一つの電子楽器10と一つのサーバ装置20とを示している。
(電子楽器10の構成)
 図2は、電子楽器10の外観を示した図である。電子楽器10は、本実施形態においては自動演奏ピアノである。電子楽器10は、鍵盤の鍵の動きに応じて弦を打弦するアクション機構や、弦の振動を止めるダンパなど、一般的なアコースティックピアノが有する機構と同じ機構を備えている。また、電子楽器10は、鍵を駆動するアクチュエータや、鍵の動きを検出するセンサなど、一般的な自動演奏ピアノが有する構成と同じ構成を備えている。また、電子楽器10は、各種情報の入出力が行われるインターフェース150や、電子楽器10を操作するための画面などを表示し、操作者からの指示を受け付けるタッチパネル103を備えている。
 図3は、電子楽器10のハードウェア構成を示したブロック図である。記憶部102は、不揮発性メモリを備えており、例えば電子楽器10を一意に識別する楽器識別子を記憶する。通信部105は、インターフェース150に接続されている。通信部105は、通信網2に接続されたインターフェース150を介してサーバ装置20と通信を行う機能を有している。
 センサ部107は、鍵盤の鍵の動きを検出するセンサを有している。センサは、鍵盤の鍵毎に設けられており、演奏者により鍵が操作されて演奏が行われると、鍵の動きに対応した信号がセンサ部107から制御部101へ出力される。駆動部108は、鍵盤の鍵を駆動するアクチュエータ(例えばソレノイド)を有している。アクチュエータは、鍵盤の鍵毎に設けられており、アクチュエータが駆動されると、鍵が動作し、鍵の動作に応じてアクション機構が動作することにより、打弦がなされる。
 制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコントローラである。CPUがROMに記憶されているプログラムを実行すると、自動演奏機能が実現する。また、ROMに記憶されているプログラムがCPUによって実行されると、鍵盤の操作に応じてMIDI(Musical Instrument Digital Interface:登録商標)メッセージを生成する機能や、日時を計る機能などが実現する。制御部101は、通信部105を制御し、生成したMIDIメッセージ及び日時情報などをサーバ装置20に送信する。MIDIメッセージ及び日時情報は、演奏者の演奏情報であり、その演奏者による演奏の結果を表したものである。また、制御部101は、通信部105を制御し、サーバ装置20に記憶されているMIDIメッセージ及び日時情報などを取得する。制御部101は、MIDIメッセージ及び日時情報に従って駆動部108を制御することにより自動演奏を行うこともできる。
(サーバ装置20の構成)
 図4は、サーバ装置20のハードウェア構成を示したブロック図である。通信部205は、通信網2を介して通信を行うインターフェースとして機能し、制御部201による制御の下で他の装置と通信を行う。表示部203は、ディスプレイ装置を備えており、サーバ装置20を操作するための各種画面を表示する。操作部204は、サーバ装置20を操作するためのキーボードやマウスを備えている。操作部204のキーボードやマウスを操作することにより、演奏者からサーバ装置20に対する各種指示の入力が行われる。
 記憶部202は、ハードディスク装置を備えており、電子楽器10から送信される各種情報や、クライアント-サーバシステムにおけるサーバの機能を実現するプログラムを記憶する。また、記憶部202は、各楽曲の楽譜に従ったMIDIメッセージ、及びその楽譜に従った各ノートの発音タイミングを示す日時情報や各ノートの発音を止めるタイミング(以下、止音タイミング)を示す日時情報を含む演奏基準情報を記憶している。この演奏基準情報は、演奏者の演奏を解析するときの基準となる。制御部201は、各部を制御するハードウェアであり、CPU、ROM、RAMなどを備えている。制御部201のCPUは、記憶部202に記憶されているプログラムを読み出して実行し、サーバ装置20の各部を制御する。制御部201のCPUが記憶部202に記憶されているプログラムを実行すると、サーバ装置20においては、電子楽器10から送信された各種情報を記憶部202に記憶する機能、記憶した各種情報のうちMIDIメッセージ及び日時情報に基づいて演奏を解析して演奏の傾向を特定する機能、及び、記憶部202に記憶された各種情報を電子楽器10へ送信する機能などが実現する。
 次に、本実施形態の動作例について説明する。
(演奏の記録)
 演奏者は、演奏を行う場合、タッチパネル103において演奏の開始を指示する操作を行う。このとき演奏者は、演奏する楽曲の名称ないし識別子を電子楽器10に対して入力する。制御部101は、演奏の開始を指示する操作が行われると、MIDIメッセージの記録を開始する。具体的には、演奏者が鍵を押鍵したことによりセンサ部107から出力された信号を取得すると(図5:ステップSA1でYES)、制御部101は、センサ部107から出力された信号に応じて、ノートオンのメッセージ、押下された鍵に対応するノート番号、及び、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する(ステップSA2)。制御部101は、このノートオンのMIDIメッセージと、MIDIメッセージが生成されたときに計時部1003が出力した日時情報とを対応付けて記憶部102に記憶させる(ステップSA3)。
 次に、電子楽器10において、押下された鍵から演奏者が指を離したことによりセンサ部107から出力された信号を取得すると(図6:ステップSA1でYES)、制御部101は、センサ部107から出力された信号に応じて、ノートオフのメッセージ、離鍵された鍵に対応するノート番号、及び、鍵の操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する(ステップSA2)。また、制御部101は、このノートオフのMIDIメッセージと、MIDIメッセージが生成されたときに計時部1003から出力された日時情報とを対応付けて記憶部102に記憶させる(ステップSA3)。制御部101は、鍵の操作がされる毎に、MIDIメッセージを生成し、生成したMIDIメッセージと日時情報とを対応付けて記憶部102に記憶させる。
 演奏者は、演奏を終了する場合、タッチパネル103において演奏の記録の終了を指示する操作を行う。制御部101は、演奏の記録の終了を指示する操作が行われると(ステップSA4でYES、ステップSB4でYES)、演奏の記録の開始指示を受け付けてから演奏の記録の終了指示を受け付けるまでの間に記憶されたMIDIメッセージ及び日時情報を一つのファイルとしてまとめた演奏ファイルを生成する。制御部101は、生成した演奏ファイルを一意に識別する演奏ファイル識別子を生成し、この演奏ファイル識別子や演奏者によって入力された楽曲の名称ないし識別子を含む演奏ファイルを記憶部102に記憶させる。
 演奏者は、演奏ファイルをサーバ装置20に記憶させる場合、演奏ファイルのリストの表示を指示する操作をタッチパネル103において行う。制御部101は、この操作が行われると、記憶部102に記憶されている演奏ファイルを参照し、演奏ファイルのリストが表示されるようにタッチパネル103を制御する。例えば、図6に示したリストの中から演奏者が所望する演奏ファイルを選択し、選択した演奏ファイルをサーバ装置20へ送信するよう指示する操作がタッチパネル103において行われると、制御部101は、演奏者が選択した演奏ファイルと楽器識別子とを記憶部102から読み出し、通信部105を制御してこれらをサーバ装置20へ送信する。
 電子楽器10から送信された演奏ファイル及び楽器識別子をサーバ装置20の通信部205が受信すると、制御部201は、通信部205が受信した演奏ファイルと楽器識別子とを対応付けて記憶部202に記憶させる。なお、制御部101は、演奏者がサーバ装置20に記憶することを指示しなくても、演奏ファイルの生成及び記憶と並行して、その演奏ファイルをサーバ装置20へ送信してもよい。また、制御部101は、演奏者によって演奏の記録の終了を指示する操作が行われた場合には自動的に演奏ファイルをサーバ装置20へ送信してもよい。
(演奏の解析)
 制御部201は、演奏ファイル内のMIDIメッセージ及び日時情報と、記憶部202に予め記憶されている演奏基準情報とを同じ楽曲について比較し、両者が相違している度合い(以下、相違度という)に基づいて、演奏の傾向を特定する。具体的には以下のとおりである。
 図7において、制御部201は、記憶部202に記憶されている演奏ファイルからMIDIメッセージ及び日時情報を抽出する(ステップSB1)。ここで制御部201は、演奏者の演奏情報を取得する演奏情報取得手段として機能する。一方、記憶部202に予め記憶されている演奏基準情報には、前述したように楽譜に従ったMIDIメッセージ及び日時情報が含まれている。制御部201は、一ノートずつ、演奏ファイル内のMIDIメッセージ及び日時情報と、演奏基準情報に含まれるMIDIメッセージ及び日時情報とを比較する(ステップSB2)。そして、制御部201は、両者の相違度を一ノート単位で記録する。
 ここでは相違度として、主に発音タイミングに関する例を説明する。図8は、発音タイミングの相違度を特定するときの考え方を説明する図である。上段の楽譜は、演奏基準情報の内容を示したものである。演奏基準情報において、例えば或るノートNの発音タイミングが時間軸上の時刻t0であったとする。この時刻t0から時間軸上で所定の期間だけ前の時刻をtFとし、時刻t0から時間軸上で所定の期間だけ後の時刻をtBとする。時刻tF~t0(時刻t0は含まず)の期間を、ノートNについての前演奏期間FSと呼び、時刻t0~tB(時刻t0は含まず)の期間を、ノートNについての後演奏期間BSと呼ぶ。また、時刻tFより前(時刻tFは含まず)の期間、及び、時刻tBより後ろ(時刻tBは含まず)の期間を、ノートNについての演奏失敗期間Mと呼ぶ。
 演奏者が上記のノートNを演奏したときの発音タイミングが、演奏失敗期間Mに属する場合には、演奏基準情報との相違度(時刻t0との時間差)が比較的大きいので、演奏の失敗又はミスと考える。また、ノートNを演奏したときの発音タイミングが前演奏期間FS又は後演奏期間BSに属する場合には、演奏基準情報との相違度(時刻t0との時間差)が比較的小さいので、演奏の失敗又はミスではなく、正しい演奏として許容される範囲内での演奏の傾向と考える。そして、前演奏期間FSにおける発音回数が多く、後演奏期間BSにおける発音回数が少なければ、演奏のタイミングが早めの傾向にあると考え、逆に、前演奏期間FSにおける発音回数が少なく、後演奏期間BSにおける発音回数が多ければ、演奏のタイミングが遅れ気味の傾向にあると考える。制御部201は、演奏ファイル内のMIDIメッセージと演奏基準情報に含まれるMIDIメッセージとを比較して、両者のノート同士の対応関係を特定し、対応するノートの日時情報を参照して、発音タイミングの時間差を相違度として記録する(ステップSB3)。具体的には、制御部201は、演奏者が各ノートを演奏したときの発音タイミングが、上記の演奏失敗期間M、前演奏期間FS又は後演奏期間BSのいずれに属するかをノートごとに記録していく。そして、制御部201は、その各ノートについて相違度を、演奏失敗期間M、前演奏期間FS及び後演奏期間BSごとに集計し、演奏の傾向を特定する(ステップSB5)。
 なお、発音タイミングの相違度を特定するときに、ノートNの発音タイミングを基準として相違度を求めているが、ノートNの直前のノートの発音タイミングを基準とし、この基準と演奏者がノートNを演奏した時の発音タイミングとの時間差に基づいて相違度を求めてもよい。
 このときに適用する具体的ルールは例えば以下のとおりである。(ルール1)解析対象となるノート群のうち発音タイミングが演奏失敗期間Mに属するものを除いて、発音タイミングが前演奏期間FSに属する割合が20%以上のときは、早めのタイミングで演奏する傾向がある(ルール2)解析対象となるノート群のうち発音タイミングが演奏失敗期間Mに属するものを除いて、発音タイミングが後演奏期間BSに属する割合が20%以上のときは、遅めのタイミングで演奏する傾向がある。
 制御部201は、上記のルール1,2を適用して、例えば、楽曲を構成する所定数の小節ごとに、演奏の傾向を特定する。ここで制御部201は、演奏者の演奏情報を演奏の基準となる基準情報と比較して、お互いに相違している演奏区間(各ノートの区間)のうち、両者の相違度が大きい演奏区間(演奏失敗期間Mに属するノートの区間)と、両者の相違度が小さい演奏区間(前演奏期間FS及び後演奏期間BSに属するノートの区間)とを判定する判定手段として機能する。
 さらに、著名な演奏者の演奏の傾向を予め用意しておき、制御部201は、ステップSB4にて特定した演奏の傾向と著名な演奏者の演奏の傾向とを比較し、その類似度が閾値以上の場合には、演奏の傾向が著名な演奏者と似ていると判断する(ステップSB5;YES)。この著名な演奏者の演奏の傾向として、所定数の小節ごとの演奏の傾向(例えば早めのタイミングで演奏するとか、遅めのタイミングで演奏するなど)が記憶部202に予め記憶されている。例えば、所定数の小節毎にこの著名な演奏者の演奏の傾向とステップSB5で特定した演奏の傾向とを比較し、楽曲全体で何割一致するかを求めることで類似度を算出する。そして、制御部201は、演奏ファイルに対応付けて、著名演奏者の氏名とその演奏者と同じような演奏の個性がある旨を記録する(ステップSB6)。
 一方、制御部201は、上記類似度が閾値未満の場合には、演奏の傾向が著名な演奏者とは似ていないと判断する(ステップSB5;NO)。そして、制御部201は、演奏ファイルに対応付けて、演奏の癖として発音のタイミングが早めの傾向があるとか遅めの傾向があるなどの旨を記録する(ステップSB7)。このように、制御部201は、相違度が小さいと判定された演奏区間における当該相違度に基づいて、演奏の傾向を特定する特定手段として機能する。このようにして特定された演奏の傾向は、サーバ装置20から電子楽器10に通知され、電子楽器10において表示されると、演奏者がそれを認識することができる。
 なお、上記は発音タイミングの解析の例であったが、解析対象として止音タイミングを用いても良い。これ以外にも、ベロシティやピッチ(弦楽器の場合)とか、或いは、例えばピアニッシモ、ピアノ、メゾピアノ、メゾフォルテ、フォルテ、フォルテッシモなどの演奏記号についても、制御部201は、上記と同様に、演奏ファイルと演奏基準情報とを比較して両者の相違度(例えば、ベロシティの場合は演奏ファイルのベロシティ値と演奏基準情報のベロシティ値との差、ピッチの場合は演奏ファイルのピッチの値と演奏基準情報のピッチの値との差を相違度とする)に基づいて演奏の傾向を特定すればよい。
(演奏の再生)
 次に、演奏ファイルを再生するときの動作について説明する。演奏者は、記憶部102に記憶されている演奏ファイルを再生する場合、まず、演奏者が、サーバ装置20に記憶されている演奏ファイルのリストを要求する操作をタッチパネル103において行うと、電子楽器10からサーバ装置20へ、楽器識別子を含み、演奏ファイルのリストを要求するメッセージが送信される。
 このメッセージがサーバ装置20において受信されると、制御部201は、受信したメッセージに含まれている楽器識別子が対応付けられている演奏ファイルのリストを生成し、生成したリストを電子楽器10へ送信する。サーバ装置20から送信されたリストが電子楽器10の通信部105で受信されると、制御部101は、受信したリストに従って、例えば、図6に示したように、演奏ファイル識別子、演奏開始日時及び演奏終了日時をタッチパネル103に表示させる。
 表示されたリストの中から演奏者が演奏ファイルを選択し、選択した演奏ファイルの取得を指示する操作がタッチパネル103において行われると、制御部101は、演奏者が選択した演奏ファイルの演奏ファイル識別子を含み、演奏ファイルを要求するメッセージをサーバ装置20へ送信する。
 このメッセージがサーバ装置20において受信されると、制御部201は、受信したメッセージに含まれている演奏ファイル識別子が対応付けられている演奏ファイルを記憶部202において検索する。そして、サーバ装置20は、この演奏ファイル識別子を含む演奏ファイルを見つけると、見つけた演奏ファイルを電子楽器10へ送信する。サーバ装置20から送信された演奏ファイルが電子楽器10において受信されると、制御部101は、受信した演奏ファイルを記憶部102に記憶させる。この後、記憶部102に記憶されている演奏ファイルのリストの表示を指示する操作がタッチパネル103において行われると、サーバ装置20から取得した演奏ファイルの情報が演奏ファイルのリスト中に表示される。ここで、タッチパネル103においては、図6に示したように、演奏ファイルに含まれている演奏ファイル識別子、演奏ファイルに含まれている時刻のうち最も早い日時情報(演奏開始日時)、演奏ファイルに含まれている時刻のうち最も遅い日時情報(演奏終了日時)とが表示される。表示されたリストにおいて、サーバ装置20から取得した演奏ファイルを演奏者が選択し、選択した演奏ファイルの再生を指示する操作がタッチパネル103において行われると、サーバ装置20から取得した演奏ファイルの再生が行われる。
 具体的には、制御部101は、演奏ファイルに含まれているMIDIメッセージのうち、対応付けられている日時情報の日時が早いMIDIメッセージから順番に、そのMIDIメッセージに基づいて駆動部108を制御する。つまり、制御部101は、演奏ファイルに基づいて演奏を再生する再生手段として機能する。例えば、日時情報の時刻が「13:06:05」であるノートオンメッセージの次に、日時情報の時刻が「13:06:06」であるノートオフメッセージがある場合、ノートオンメッセージの1秒後にノートオフメッセージがあるため、制御部101は、ノートオンのMIDIメッセージに基づいて鍵を駆動した1秒後にノートオフのMIDIメッセージに基づいて鍵を駆動する。そして、制御部101は、演奏ファイルに含まれている最も遅い日時情報に対応付けられている情報を処理すると、演奏ファイルの再生処理を終了する。
 本実施形態によれば、楽譜のとおりの演奏ではないものの、演奏の失敗やミスとまではいえないような、演奏の傾向というものを特定することが可能となる。さらに、演奏の傾向のうち、好ましくない演奏の癖と、好ましい演奏の個性とを判定することが可能となる。
[変形例]
 上述の実施形態を以下のように変形してもよい。なお、上述した実施形態及び以下の変形例は適宜組み合わせることができる。
 制御部201は、演奏の傾向が特定された演奏ファイルに基づいて演奏を再生する場合において、前演奏期間FS及び後演奏期間BSを再生するときには、その相違内容を強調するようにして演奏を再生してもよい。例えば、制御部101は、ルール1に基づき早めのタイミングで演奏する傾向があると特定された演奏区間においては、演奏ファイルに含まれる日時情報よりも早めにノートを発音する。また、制御部101は、ルール2に基づき遅めのタイミングで演奏する傾向があると特定された演奏区間においては、演奏ファイルに含まれる日時情報よりも遅めにノートを発音する。また、制御部101は、ルール1に基づき早めのタイミング又は遅めのタイミングで演奏する傾向があると特定された演奏区間については、演奏ファイルにおけるベロシティよりも大きなベロシティで発音する(つまり大きな音量で発音する)。
 つまり、制御部101は、演奏情報に基づいて演奏を再生する再生手段であって、相違度が小さいと判定された演奏区間においてはその相違内容を強調するようにして演奏を再生する再生手段として機能する。これにより、演奏の傾向が強調されて再生されるので、演奏者が自身の演奏の傾向を容易に認識することができる。
 演奏の傾向が特定された演奏ファイルに基づいて演奏を再生する場合において、再生と同時にその演奏ファイルに応じたテンポでビート音を再生するようにしてもよい。これにより、演奏のテンポの変化を容易に認識することができる。
 なお、演奏の傾向を特定する単位は、楽曲を構成する所定数の小節単位である必要はなく、例えば演奏者単位であってもよいし、当該演奏者が演奏した楽曲単位であってもよい。
 演奏基準情報は、実施形態のように楽譜に基づくお手本データであってもよいし、その演奏者が演奏したその楽曲、又は、その演奏者が演奏した複数楽曲から導き出された平均的な値であってもよい。又は、その演奏者とは異なる他の演奏者の平均的な値であってもよい。
 また、制御部201は、演奏の癖や個性の時間的な変化を記録しておき、この記録に基づき演奏の上達度を算出してもよい。さらに、制御部201は、上達度の時間的な変化から将来の上達度を予測してもよい。さらに、制御部201は、上達度の変化曲線における変化量が小さくなったら、その旨を演奏者に通知して、練習を促してもよい。記録した演奏の癖や個性の時間的な変化や演奏の上達度の変化曲線をグラフとして表示してもよい。
 上述した実施形態においては、電子楽器10は、アコースティックピアノの機構を備えた自動演奏ピアノであるが、電子楽器10は、この自動演奏ピアノに限定されるものではない。例えば、アコースティックピアノの機構を備えていない電子ピアノや、電子キーボードなどの鍵盤楽器であってもよい。電子楽器の機能を持たないアコースティック楽器でもあってよい。また、鍵盤楽器以外の楽器、例えばギターなどの弦楽器や、トランペットなどの吹奏楽器などであってもよい。
 上述した実施形態においては、演奏情報はMIDIメッセージ及び日時情報であったが、MIDIメッセージに限定されるものではない。例えば、演奏情報はマイクで演奏音を収音し、収音した音の波形データであってもよい。
 上述した実施形態においては、電子楽器10が演奏ファイルをサーバ装置20へ送信しているが、この構成に限定されるものではない。例えば、電子楽器10が生成したMIDIメッセージ及び日時情報を、インターフェース150に接続されたコンピュータ装置(例えば、パーソナルコンピュータやスマートフォン、タブレット端末など)に出力する構成としてもよい。この構成においては、コンピュータ装置において演奏の記録の開始と終了の操作を行い、演奏ファイルをコンピュータ装置に記憶させるようにしてもよい。これらの場合には、インターフェース150に接続されたコンピュータ装置が演奏解析装置として機能する。
 また、電子楽器10自身が演奏ファイルを記憶して解析してもよい。この場合は電子楽器10が演奏解析装置として機能する。
 上述した実施形態においては、演奏ファイル及び演奏基準情報の日時情報を比較に用いたが、ノート間の相対的な時間を時間情報として演奏ファイル及び演奏基準情報に含ませるようにしてこの時間情報(相対的な時間)を比較に用いるようにしてもよい。
 また、変形例として、特定した演奏の傾向を記憶部102もしくは記憶部202に記憶しておき、この演奏の傾向を楽譜情報(癖や個性のない情報)に付加することで、演奏情報を生成するようにしてもよい。これにより、演奏者の演奏の癖や個性を持った演奏情報が生成できる。また、生成した演奏情報を再生することで聴覚化するようにしてもよい。
 また、変形例として、同一楽曲における複数の演奏者の演奏傾向を比較することにより、演奏者個人の個性を把握するようにしてもよい。例えば、複数の演奏者の演奏傾向のうちタイミングに関する情報の平均値を求め、この平均値と比較することで、他の演奏者と比べて早めのタイミングで演奏する傾向がある等の個性を把握することができる。
 本発明は、演奏解析装置だけでなく、コンピュータが行う演奏解析方法や、コンピュータを演奏解析装置として機能させるためのプログラムといった形態でも実施が可能である。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。
 以下に、本開示を要約する。
(1)本発明の演奏解析方法は、演奏者の演奏情報を取得する取得工程と、前記取得工程によって取得された演奏情報を前記演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記取得工程によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記取得工程によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定工程と、前記判定工程によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定工程と、備える。
(2)例えば、前記演奏解析方法は、前記演奏情報に基づいて前記演奏を再生する再生工程をさらに備え、前記再生工程において、前記相違度が小さいと判定された演奏区間においてはその相違内容を強調するようにして演奏を再生する。
(3)例えば、前記演奏解析方法は、予め用意された演奏者の演奏の傾向と前記特定工程によって特定された前記演奏の傾向とを比較し、前記演奏者の演奏の傾向と前記特定工程によって特定された前記演奏の傾向との類似を判断する類似判断工程をさらに備える。
(4)例えば、前記特定工程において、演奏者単位、当該演奏者が演奏した楽曲単位又は当該楽曲を構成する所定数の小節単位で、前記演奏の傾向を特定する。
(5)例えば、前記判定工程において、1ノート単位で、前記取得工程によって取得された演奏情報と前記演奏の基準を示す基準情報とを比較して相違度を求める。
(6)例えば、本発明の演奏解析装置は、演奏者の演奏情報を取得する演奏情報取得手段と、前記演奏情報取得手段によって取得された演奏情報を前記演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定手段と、前記判定手段によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定手段と、備える。
(7)例えば、前記演奏解析装置は、前記演奏情報に基づいて前記演奏を再生する再生手段であって、前記相違度が小さいと判定された演奏区間においてはその相違内容を強調するようにして演奏を再生する再生手段をさらに備える。
(8)例えば、前記演奏解析装置は、予め用意された演奏者の演奏の傾向と前記特定手段によって特定された前記演奏の傾向とを比較し、前記演奏者の演奏の傾向と前記特定手段によって特定された前記演奏の傾向との類似を判断する類似判断手段をさらに備える。
(9)例えば、前記特定手段は、演奏者単位、当該演奏者が演奏した楽曲単位又は当該楽曲を構成する所定数の小節単位で、前記演奏の傾向を特定する。
(10)例えば、前記判定手段は、1ノート単位で、前記演奏情報取得手段によって取得された演奏情報と前記演奏の基準を示す基準情報とを比較して相違度を求める。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2013年5月23日出願の日本特許出願(特願2013-108708)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明の演奏解析方法及び演奏解析装置によれば、演奏の失敗やミスとは区別して演奏の傾向を特定することができる。
 1…演奏解析システム、10…電子楽器、20…サーバ装置、101…制御部、102…記憶部、103…タッチパネル、105…通信部、107…センサ部、108…駆動部、150…インターフェース、201…制御部、202…記憶部、203…表示部、204…操作部、205…通信部

Claims (10)

  1.  演奏者の演奏情報を取得する取得工程と、
     前記取得工程によって取得された演奏情報を演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記取得工程によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記取得工程によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定工程と、
     前記判定工程によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定工程と、
    を備える演奏解析方法。
  2.  前記演奏情報に基づいて前記演奏を再生する再生工程をさらに備え、
     前記再生工程において、前記相違度が小さいと判定された演奏区間においてはその相違内容を強調するようにして演奏を再生する請求項1記載の演奏解析方法。
  3.  予め用意された演奏者の演奏の傾向と前記特定工程によって特定された前記演奏の傾向とを比較し、前記演奏者の演奏の傾向と前記特定工程によって特定された前記演奏の傾向との類似を判断する類似判断工程をさらに備える請求項1又は2に記載の演奏解析方法。
  4.  前記特定工程において、演奏者単位、当該演奏者が演奏した楽曲単位又は当該楽曲を構成する所定数の小節単位で、前記演奏の傾向を特定する請求項1から3の何れかに記載の演奏解析方法。
  5.  前記判定工程において、1ノート単位で、前記取得工程によって取得された演奏情報と前記演奏の基準を示す基準情報とを比較して相違度を求める請求項1から3の何れかに記載の演奏解析方法。
  6.  演奏者の演奏情報を取得する演奏情報取得手段と、
     前記演奏情報取得手段によって取得された演奏情報を演奏の基準を示す基準情報と比較して、お互いに相違している演奏区間のうち、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が大きい演奏区間と、前記演奏情報取得手段によって取得された演奏情報と前記基準情報との相違度が小さい演奏区間とを判定する判定手段と、
     前記判定手段によって前記相違度が小さいと判定された演奏区間における当該相違度に基づいて、前記演奏の傾向を特定する特定手段と、
    を備える演奏解析装置。
  7.  前記演奏情報に基づいて前記演奏を再生する再生手段であって、前記相違度が小さいと判定された演奏区間においてはその相違内容を強調するようにして演奏を再生する再生手段をさらに備える請求項6記載の演奏解析装置。
  8.  予め用意された演奏者の演奏の傾向と前記特定手段によって特定された前記演奏の傾向とを比較し、前記演奏者の演奏の傾向と前記特定手段によって特定された前記演奏の傾向との類似を判断する類似判断手段をさらに備える請求項6又は7に記載の演奏解析装置。
  9.  前記特定手段は、演奏者単位、当該演奏者が演奏した楽曲単位又は当該楽曲を構成する所定数の小節単位で、前記演奏の傾向を特定する請求項6から8の何れかに記載の演奏解析装置。
  10.  前記判定手段は、1ノート単位で、前記演奏情報取得手段によって取得された演奏情報と前記演奏の基準を示す基準情報とを比較して相違度を求める請求項6から8の何れかに記載の演奏解析装置。
PCT/JP2014/063722 2013-05-23 2014-05-23 演奏解析方法及び演奏解析装置 WO2014189137A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/892,764 US20160104469A1 (en) 2013-05-23 2014-05-23 Musical-performance analysis method and musical-performance analysis device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-108708 2013-05-23
JP2013108708 2013-05-23

Publications (1)

Publication Number Publication Date
WO2014189137A1 true WO2014189137A1 (ja) 2014-11-27

Family

ID=51933687

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/063722 WO2014189137A1 (ja) 2013-05-23 2014-05-23 演奏解析方法及び演奏解析装置

Country Status (3)

Country Link
US (1) US20160104469A1 (ja)
JP (1) JP2015004973A (ja)
WO (1) WO2014189137A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137425A1 (en) * 2016-11-17 2018-05-17 International Business Machines Corporation Real-time analysis of a musical performance using analytics
US11580942B2 (en) * 2018-05-28 2023-02-14 Sunland Information Technology Co., Ltd. Systems, methods, smart musical instruments, computer readable media for music score matching

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708180B2 (ja) * 2017-07-25 2020-06-10 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP6699677B2 (ja) * 2018-02-06 2020-05-27 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP7069768B2 (ja) * 2018-02-06 2022-05-18 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP6724938B2 (ja) * 2018-03-01 2020-07-15 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP2021131401A (ja) * 2018-04-26 2021-09-09 国立大学法人 筑波大学 音楽性情報提供方法、音楽性情報提供装置、及び音楽性情報提供システム
JP7188337B2 (ja) * 2019-09-24 2022-12-13 カシオ計算機株式会社 サーバ装置、演奏支援方法、プログラム、および情報提供システム
JP6915910B2 (ja) * 2020-01-09 2021-08-04 Necプラットフォームズ株式会社 解析装置、演奏支援システム、解析方法及びプログラム
US10885891B2 (en) * 2020-01-23 2021-01-05 Pallavi Ekaa Desai System, method and apparatus for directing a presentation of a musical score via artificial intelligence

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142984A (ja) * 1991-11-24 1993-06-11 Casio Comput Co Ltd 電子楽器
JPH11296168A (ja) * 1998-04-08 1999-10-29 Yamaha Corp 演奏情報評価装置、演奏情報評価方法及び記録媒体
JP2000288254A (ja) * 1999-04-05 2000-10-17 Namco Ltd ゲーム装置及びコンピュータ読み取り可能な記録媒体
JP2003058153A (ja) * 2001-08-13 2003-02-28 Casio Comput Co Ltd 演奏教習装置及び演奏教習処理のプログラム
JP2007264569A (ja) * 2006-03-30 2007-10-11 Yamaha Corp 検索装置、制御方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6613971B1 (en) * 2000-04-12 2003-09-02 David J. Carpenter Electronic tuning system and methods of using same
US6529843B1 (en) * 2000-04-12 2003-03-04 David J. Carpenter Beat rate tuning system and methods of using same
US6627806B1 (en) * 2000-04-12 2003-09-30 David J. Carpenter Note detection system and methods of using same
JP3879545B2 (ja) * 2002-03-12 2007-02-14 ヤマハ株式会社 楽曲再生制御装置、楽曲再生制御プログラムおよび記録媒体
JP2006030414A (ja) * 2004-07-13 2006-02-02 Yamaha Corp 音色設定装置及びプログラム
US8629342B2 (en) * 2009-07-02 2014-01-14 The Way Of H, Inc. Music instruction system
US9053695B2 (en) * 2010-03-04 2015-06-09 Avid Technology, Inc. Identifying musical elements with similar rhythms

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142984A (ja) * 1991-11-24 1993-06-11 Casio Comput Co Ltd 電子楽器
JPH11296168A (ja) * 1998-04-08 1999-10-29 Yamaha Corp 演奏情報評価装置、演奏情報評価方法及び記録媒体
JP2000288254A (ja) * 1999-04-05 2000-10-17 Namco Ltd ゲーム装置及びコンピュータ読み取り可能な記録媒体
JP2003058153A (ja) * 2001-08-13 2003-02-28 Casio Comput Co Ltd 演奏教習装置及び演奏教習処理のプログラム
JP2007264569A (ja) * 2006-03-30 2007-10-11 Yamaha Corp 検索装置、制御方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137425A1 (en) * 2016-11-17 2018-05-17 International Business Machines Corporation Real-time analysis of a musical performance using analytics
US11580942B2 (en) * 2018-05-28 2023-02-14 Sunland Information Technology Co., Ltd. Systems, methods, smart musical instruments, computer readable media for music score matching

Also Published As

Publication number Publication date
US20160104469A1 (en) 2016-04-14
JP2015004973A (ja) 2015-01-08

Similar Documents

Publication Publication Date Title
WO2014189137A1 (ja) 演奏解析方法及び演奏解析装置
US20140041513A1 (en) Input interface for generating control signals by acoustic gestures
US20110000359A1 (en) Music composition data analyzing device, musical instrument type detection device, music composition data analyzing method, musical instrument type detection device, music composition data analyzing program, and musical instrument type detection program
JP6776788B2 (ja) 演奏制御方法、演奏制御装置およびプログラム
JP4926756B2 (ja) カラオケ効果音出力システム
US6570081B1 (en) Method and apparatus for editing performance data using icons of musical symbols
JP6657713B2 (ja) 音響処理装置および音響処理方法
JP4525591B2 (ja) 演奏評価装置、及びプログラム
JP6708180B2 (ja) 演奏解析方法、演奏解析装置およびプログラム
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP4048249B2 (ja) カラオケ装置
JP6838357B2 (ja) 音響解析方法および音響解析装置
JP6380305B2 (ja) データ生成装置、カラオケシステム、及びプログラム
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP6340303B2 (ja) ハモリ歌唱の採点を行うカラオケ採点装置
JP5983670B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP2003186476A (ja) 自動演奏装置およびサンプラ
WO2023182005A1 (ja) データ出力方法、プログラム、データ出力装置および電子楽器
JP6119422B2 (ja) 情報処理装置及び楽器
WO2024085175A1 (ja) データ処理方法およびプログラム
US8294015B2 (en) Method and system for utilizing a gaming instrument controller
Franjou Arty: Expressive timbre transfer using articulation detection for guitar
WO2019092780A1 (ja) 評価装置およびプログラム
JP6464853B2 (ja) オーディオ再生装置及びオーディオ再生プログラム
JP2016057389A (ja) コード決定装置及びコード決定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14801280

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14892764

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14801280

Country of ref document: EP

Kind code of ref document: A1