JP6467887B2 - 情報提供装置および情報提供方法 - Google Patents

情報提供装置および情報提供方法 Download PDF

Info

Publication number
JP6467887B2
JP6467887B2 JP2014236792A JP2014236792A JP6467887B2 JP 6467887 B2 JP6467887 B2 JP 6467887B2 JP 2014236792 A JP2014236792 A JP 2014236792A JP 2014236792 A JP2014236792 A JP 2014236792A JP 6467887 B2 JP6467887 B2 JP 6467887B2
Authority
JP
Japan
Prior art keywords
performance
user
adjustment amount
speed
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014236792A
Other languages
English (en)
Other versions
JP2016099512A (ja
Inventor
陽 前澤
陽 前澤
貴洋 原
貴洋 原
吉就 中村
吉就 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014236792A priority Critical patent/JP6467887B2/ja
Priority to CN201580073529.9A priority patent/CN107210030B/zh
Priority to EP15861046.9A priority patent/EP3223274B1/en
Priority to PCT/JP2015/082514 priority patent/WO2016080479A1/ja
Publication of JP2016099512A publication Critical patent/JP2016099512A/ja
Priority to US15/598,351 priority patent/US10366684B2/en
Application granted granted Critical
Publication of JP6467887B2 publication Critical patent/JP6467887B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/391Automatic tempo adjustment, correction or control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

利用者による楽曲の演奏に同期した情報を提供する技術に関する。
楽曲のうち利用者による演奏の時点を解析する技術(スコアアライメント)が従来から提案されている。例えば非特許文献1や非特許文献2には、楽曲の演奏音を表す音響信号と当該楽曲内の各時点との時間的な対応を、例えばHMM(Hidden Markov Model)等の確率モデルを利用して解析する技術が開示されている。
前澤陽,奥乃博,「楽曲パート混合オーディオ同士の楽譜なしアライメント手法」,情報処理学会研究報告,Vol.2013-MUS-100 No.14,2013/9/1 前澤陽,糸山克寿,吉井和佳,奥乃博,「潜在共通構造モデルに基づく音響信号間アライメント」,情報処理学会研究報告,Vol.2014-MUS-103 No.23,2014/5/24
ところで、利用者が演奏した楽曲の演奏時点を解析するとともに、事前に用意された当該楽曲の伴奏音や歌唱音の楽曲情報を利用者による演奏の演奏時点に同期するように再生できれば、複数のパートの演奏音を生成できて便利である。しかし、演奏時点の解析等には処理遅延が発生するから、楽曲のうち演奏音から特定された演奏時点の楽曲情報を利用者に提供したのでは、利用者による演奏に対して楽曲情報が遅延した状態となる。以上の説明では、演奏時点の解析の処理遅延を例示したが、端末装置から送信される演奏音を通信網から受信および解析して楽曲情報を当該端末装置に送信するような通信システムでは、装置間の通信遅延を原因として楽曲情報の遅延が発生し得る。以上の事情を考慮して、本発明は、楽曲情報の提供の遅延を低減することを目的とする。
以上の課題を解決するために、本発明の第1態様に係る情報提供装置は、利用者による対象楽曲の演奏の演奏速度を順次に特定する速度解析手段と、対象楽曲のうち利用者による演奏時点を順次に特定する演奏解析手段と、速度解析手段が特定した演奏速度の時間変化に応じて調整量を設定する調整量設定手段と、対象楽曲のうち演奏解析手段が特定した演奏時点に対して調整量設定手段が設定した調整量だけ後方の時点に対応する楽曲情報を利用者による演奏に並行して利用者に提供する情報提供手段とを具備する。以上の構成では、対象楽曲のうち利用者による演奏時点に対して調整量だけ時間的に後方の時点に対応する楽曲情報が利用者に提供される。したがって、利用者による演奏時点に対応する楽曲情報を利用者に提供する構成と比較して楽曲情報の提供の遅延を低減することが可能である。また、利用者による演奏速度の時間変化に応じて調整量が可変に設定されるから、例えば演奏速度が略一定に安定的に維持されるように利用者による演奏を誘導することが可能である。
例えば、調整量が小さい場合には演奏速度が経時的に低下し、調整量が大きい場合には演奏速度が経時的に上昇する、という傾向を前提とすれば、速度解析手段が特定する演奏速度が上昇する場合に調整量が減少し、演奏速度が低下する場合に調整量が増加するように、調整量設定手段が調整量を設定する構成が好適である。以上の態様によれば、演奏速度が略一定に安定的に維持されるように利用者による演奏を誘導することが可能である。
本発明の好適な態様において、通信網を介して利用者の端末装置と通信する通信手段を具備し、速度解析手段は、利用者の端末装置から通信手段が受信する演奏情報の解析で演奏速度を順次に特定し、演奏解析手段は、通信手段が受信した演奏情報の解析で演奏時点を順次に特定し、情報提供手段は、楽曲情報を通信手段から端末装置に送信する。以上の態様では、端末装置と通信手段との間の通信に由来する遅延(通信遅延)が発生するから、楽曲情報の提供の遅延を低減できる本発明は格別に有効である。
本発明の第2態様に係る情報提供装置は、利用者による演奏の演奏速度を順次に特定する速度解析手段と、利用者による演奏の拍点を順次に特定する演奏解析手段と、速度解析手段が特定した演奏速度の時間変化に応じて調整量を設定する調整量設定手段と、演奏解析手段が特定した拍点に対して調整量設定手段が設定した調整量だけずれた時点を利用者による演奏に並行して当該利用者に提示する情報提供手段とを具備する。第2態様によれば、例えば演奏速度が略一定に安定的に維持されるように利用者による演奏を誘導することが可能である。
以上の各態様に係る情報提供装置は、専用の電子回路で実現されるほか、CPU(Central Processing Unit)等の汎用の演算処理装置とプログラムとの協働によっても実現される。本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、例えば、本発明のプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、本発明は、前述の各態様に係る情報提供装置の動作方法(情報提供方法)としても特定され得る。
本発明の第1実施形態に係る通信システムの構成図である。 端末装置の構成図である。 情報提供装置の構成図である。 演奏時点と調整量との関係の説明図である。 調整量が少ない場合の演奏速度の経時的な変化のグラフである。 調整量が多い場合の演奏速度の経時的な変化のグラフである。 調整量設定部の動作のフローチャートである。 演奏速度の変化度と調整量との関係を示すグラフである。
<第1実施形態>
図1は、第1実施形態に係る通信システム100の構成図である。第1実施形態の通信システム100は、情報提供装置10と複数の端末装置12(12A,12B)とを具備する。各端末装置12は、通信網またはインターネット等を含む通信網18を介して情報提供装置10や他の端末装置12と通信する通信端末である。例えば携帯電話機またはスマートフォン等の可搬型の情報処理装置や、パーソナルコンピュータ等の可搬型または据置型の情報処理装置が端末装置12として利用され得る。
各端末装置12には演奏装置14が接続される。演奏装置14は、端末装置12の利用者U(UA,UB)による特定の楽曲(以下「対象楽曲」という)の演奏を受付ける入力装置であり、対象楽曲の演奏音を表す演奏情報Q(QA,QB)を生成する。例えば演奏音の時間波形を表す音響信号を演奏情報Qとして生成する電子楽器や、演奏音の内容を表す時系列データを演奏情報Qとして生成する電子楽器(例えばMIDI形式のデータを時系列に出力するMIDI楽器)が演奏装置14として利用され得る。なお、端末装置12の入力装置を演奏装置14として利用することも可能である。以下の例示では、端末装置12Aの利用者UAが対象楽曲の第1パートを演奏し、端末装置12Bの利用者UBが対象楽曲の第2パートを演奏する場合を想定する。もっとも、対象楽曲における第1パートと第2パートとの内容の異同は不問である。
図2は、各端末装置12(12A,12B)の構成図である。図2に例示される通り、端末装置12は、制御装置30と通信装置32と放音装置34とを具備する。制御装置30は、端末装置12の各要素を統括的に制御する。通信装置32は、情報提供装置10または他の端末装置12との間で通信網18を介した通信を実行する。放音装置34(例えばスピーカやヘッドホン)は、制御装置30から指示された音響を放射する。
端末装置12Aの利用者UAと端末装置12Bの利用者UBとは、通信網18を介して相互に合奏(いわゆるネットセッション)することが可能である。具体的には、図1に例示される通り、端末装置12Aの利用者UAによる第1パートの演奏に応じた演奏情報QAと端末装置12Bの利用者UBによる第2パートの演奏に応じた演奏情報QBとが通信網18を介して端末装置12Aと端末装置12Bとの相互間で授受される。
他方、第1実施形態の情報提供装置10は、対象楽曲の伴奏音(第1パートおよび第2パート以外の伴奏パートの演奏音)の時間波形を表す楽曲情報Mを端末装置12Aの利用者UAによる演奏に同期して端末装置12Aおよび端末装置12Bの各々に順次に提供する。以上の動作の結果、端末装置12Aおよび端末装置12Bの各々において、演奏情報QAが表す第1パートの演奏音と演奏情報QBが表す第2パートの演奏音と楽曲情報Mが表す伴奏音との混合音が放音装置34から放射される。利用者UAおよび利用者UBの各々は、情報提供装置10から提供される伴奏音や相手の演奏音を聴取しながら演奏装置14を操作することで対象楽曲を演奏することが可能である。
図3は、情報提供装置10の構成図である。図3に例示される通り、第1実施形態の情報提供装置10は、制御装置40と記憶装置42と通信装置(通信手段)44とを具備する。記憶装置42は、制御装置40が実行するプログラムや制御装置40が実行する各種のデータを記憶する。具体的には、対象楽曲の伴奏音の時間波形を表す楽曲情報Mと、対象楽曲の楽譜(複数の音符を時系列)を表現する楽譜情報Sとが記憶装置42に格納される。通信装置44は、各端末装置12との間で通信網18を介した通信を実行する。具体的には、第1実施形態の通信装置44は、利用者UAによる演奏の演奏情報QAを端末装置12Aから受信するとともに、演奏情報QAが表す演奏に伴奏音が同期するように楽曲情報Mを端末装置12Aおよび端末装置12Bの各々に順次に送信する。
制御装置40は、記憶装置42に記憶されたプログラムを実行することで、各端末装置12に楽曲情報Mを提供するための複数の機能(解析処理部50,調整量設定部56,情報提供部58)を実現する。なお、制御装置40の各機能を複数の装置に分散した構成や、専用の電子回路が制御装置40の機能の一部を実現する構成も採用され得る。
解析処理部50は、通信装置44が端末装置12Aから受信した演奏情報QAを解析する要素であり、速度解析部52と演奏解析部54とを包含する。速度解析部52は、演奏情報QAが表す利用者UAによる対象楽曲の演奏の速度(以下「演奏速度」という)Vを特定する。演奏速度Vの特定は、利用者UAによる対象楽曲の演奏に並行して実時間的に順次に実行される。例えば単位時間毎の拍数であるテンポが演奏速度Vとして特定される。速度解析部52による演奏速度Vの特定には公知の技術が任意に採用され得る。
演奏解析部54は、対象楽曲のうち利用者UAによる演奏の時点(以下「演奏時点」という)Tを特定する。具体的には、演奏解析部54は、演奏情報QAで表現される利用者UAの演奏と記憶装置42に記憶された楽譜情報Sで指定される複数の音符の時系列とを相互に照合することで演奏時点Tを特定する。演奏時点Tの特定は、利用者UAによる対象楽曲の演奏に並行して実時間的に順次に実行される。演奏解析部54による演奏時点Tの特定には公知の技術(例えば非特許文献1や非特許文献2に開示されたスコアアライメント技術)が任意に採用され得る。なお、利用者UAと利用者UBとが対象楽曲の相異なるパートを演奏する場合、演奏解析部54は、楽譜情報Sで指定される複数のパートのうち利用者UAが演奏するパートを判別したうえで演奏時点Tを特定する。
図3の情報提供部58は、対象楽曲の伴奏音を表す楽曲情報Mを利用者UAおよび利用者UBの各々に提供する。具体的には、情報提供部58は、利用者UAによる対象楽曲の演奏に並行して実時間的に対象楽曲の楽曲情報Mを通信装置44から端末装置12Aおよび端末装置12Bの各々に順次に送信する。
利用者UAによる演奏の時点から、情報提供装置10に対する演奏情報QAの送信と情報提供装置10による解析および送信とを経て楽曲情報Mが端末装置12Aや端末装置12Bで受信および再生される時点までの間には遅延(処理遅延および通信遅延)が発生し得る。以上に例示した遅延が発生する状況でも利用者UAや利用者UBによる演奏音と楽曲情報Mの伴奏音とが時間的に整合する(すなわち対象楽曲のうち特定の部分の演奏音と伴奏音とが相互に並列に再生される)ように、第1実施形態の情報提供部58は、図4に例示される通り、対象楽曲の楽曲情報Mのうち演奏解析部54が特定した演奏時点Tに対して調整量αだけ後方(未来)の時点に対応する部分を通信装置44から端末装置12Aおよび端末装置12Bに順次に送信する。図3の調整量設定部56は、情報提供部58が楽曲情報Mの提供に適用する調整量(先読み量)αを可変に設定する。
ところで、利用者UBによる演奏の時点から、端末装置12Bによる演奏情報QBの送信と端末装置12Aによる受信とを経て当該時点の演奏音が端末装置12Aの放音装置34から再生される時点までの間には約30ms程度の遅延(処理遅延および通信遅延)が発生し得る。以上に例示した遅延が発生する状況でも利用者UAによる演奏と利用者UBによる演奏とが時間的に相互に合致するように、対象楽曲のうち利用者UBが演奏した特定の部分の演奏音が端末装置12Aの放音装置34から再生されると予測される時点からみて、利用者UAが想定する遅延量(以下「認識遅延量」という)だけ時間的に前方(手前)の時点で、利用者UAは当該部分に対応する自身のパートを演奏装置14で演奏する。すなわち、利用者UAは、端末装置12Aの放音装置34から実際に再生される利用者UBの演奏音に対して自身の認識遅延量だけ時間的に先行するように演奏装置14を演奏する。
認識遅延量は、利用者UBによる演奏音を聴取した結果として対象楽曲の演奏の過程で利用者UAが随時に推測する遅延量である。また、端末装置12Aの制御装置40は、利用者UAによる演奏から所定の遅延量(例えば実験的または統計的に推測される30msの遅延量)だけ遅延した時点で当該演奏の演奏音を放音装置34から再生する。以上の処理が端末装置12Aおよび端末装置12Bの各々において実行される結果、利用者UAによる演奏音と利用者UBによる演奏音とが実質的に合致した音響が端末装置12Aおよび端末装置12Bの各々から放射される。
調整量設定部56が設定する調整量αは、各利用者Uが知覚する認識遅延量に応じた時間長に設定されることが望ましい。しかし、認識遅延量は、各利用者Uが予測する遅延量であるから直接的に計測することができない。以上の事情を考慮して、第1実施形態の調整量設定部56は、速度解析部52が特定した演奏速度Vの時間変化に応じて調整量αを可変に設定する。
図5および図6は、所定の調整量αのもとで再生される楽曲の伴奏音を聴取しながら当該楽曲を演奏した場合の演奏速度の時間的な変化をシミュレートした結果である。図5は、演奏者が知覚する認識遅延量を下回る時間長に調整量αを設定した場合の結果であり、図6は、認識遅延量を上回る時間長に調整量αを設定した場合の結果である。調整量αが認識遅延量を下回る状況では、利用者が予測する拍点に対して遅延するように伴奏音が再生される。したがって、図5から理解される通り、調整量αが認識遅延量を下回る場合には、演奏速度が経時的に低下する(演奏が徐々に遅くなる)という傾向が観測される。他方、調整量αが認識遅延量を上回る状況では、利用者が予測する拍点に対して先行するように伴奏音が再生される。したがって、図6から理解される通り、調整量αが認識遅延量を上回る場合には、演奏速度が経時的に上昇する(演奏が徐々に速くなる)という傾向が観測される。以上の傾向を考慮すると、演奏速度の経時的な低下が観測される場合には調整量αが認識遅延量を下回り、演奏速度の経時的な上昇が観測される場合には調整量αが認識遅延量を上回ると評価することが可能である。
以上の知見を背景として、第1実施形態の調整量設定部56は、速度解析部52が特定した演奏速度Vの時間変化に応じて調整量αを可変に設定する。具体的には、調整量設定部56は、演奏速度Vが経時的に上昇する場合(すなわち調整量αが利用者UAの認識遅延量を上回ると推定される場合)には調整量αが減少し、演奏速度Vが経時的に低下する場合(すなわち調整量αが利用者UAの認識遅延量を下回ると推定される場合)には調整量αが増加するように、演奏速度Vの時間変化に応じて調整量αを設定する。したがって、演奏速度Vが経時的に上昇する状況では、利用者UAが予測する拍点の時系列に対して楽曲情報Mの伴奏音の各拍点が時間的に後方に移動することで演奏速度Vの変化が低下に転換し、演奏速度Vが経時的に低下する状況では、利用者UAが予測する拍点の時系列に対して伴奏音の各拍点が時間的に前方に移動することで演奏速度Vの変化が上昇に転換する。すなわち、利用者UAによる演奏速度Vが略一定に維持されるように調整量αが設定される。
図7は、調整量設定部56が調整量αを設定する動作のフローチャートである。調整量設定部56は、速度解析部52が特定した演奏速度Vを取得するとともに記憶装置42(バッファ)に格納する(S1)。N個の演奏速度Vが記憶装置42に蓄積されるまで演奏速度Vの取得および格納を反復すると(S2:YES)、調整量設定部56は、記憶装置42に記憶されたN個の演奏速度Vの時系列から演奏速度Vの変化度Rを算定する(S3)。変化度Rは、演奏速度Vの時間変化の度合や方向(増加/減少)の指標である。具体的には、相前後する各演奏速度Vの勾配の平均値や、線形回帰で算定される回帰直線の勾配が変化度Rとして好適である。
調整量設定部56は、演奏速度Vの変化度Rに応じて調整量αを可変に設定する(S4)。具体的には、第1実施形態の調整量設定部56は、現段階の調整量αと演奏速度Vの変化度Rとを変数とする数式(1)の演算式F(α,R)の演算で調整量αを算定する。

α=F(α,R)=αexp(cR) ……(1)

数式(1)の記号cは所定の負数である(c<0)。図8は、変化度Rと調整量αとの関係を示すグラフである。数式(1)および図8から理解される通り、変化度Rが正数の範囲(演奏速度Vが増加する場合)で増加するほど調整量αは減少し、変化度Rが負数の範囲(演奏速度Vが減少する場合)で減少するほど調整量αは増加する。変化度Rが0である場合(すなわち演奏速度Vが一定に維持される場合)、調整量αは一定に維持される。なお、調整量αの初期値は、例えば事前に選定された所定値に設定される。
以上の手順で調整量αを算定すると、調整量設定部56は、記憶装置42に記憶されたN個の演奏速度Vをクリアしたうえで処理をステップS1に移行する(S5)。以上の説明から理解される通り、速度解析部52が演奏情報QAから特定する演奏速度VのN個毎に変化度Rの算定(S3)と調整量αの更新(S4)とが反復的に実行される。
以上の説明の通り、第1実施形態では、楽曲情報Mのうち利用者UAによる演奏時点Tに対して調整量αだけ時間的に後方の時点に対応する部分の伴奏音が各端末装置12にて再生される。したがって、楽曲情報Mのうち演奏時点Tの部分を各端末装置12に提供する構成と比較して楽曲情報Mの提供の遅延を低減することが可能である。また、第1実施形態では、利用者UAによる演奏速度Vの時間変化(変化度R)に応じて調整量αが可変に設定されるから、演奏速度Vが略一定に安定的に維持されるように利用者UAによる演奏を誘導することが可能である。
また、通信網18を介して複数の端末装置12の相互間で合奏する場合、通信網18での通信遅延の変動を補償するために、演奏情報Qを各端末装置12にて所定量だけバッファリングするとともに実際の通信遅延に応じて演奏情報Qの読出し位置を可変に制御するという構成が採用され得る。第1実施形態によれば、演奏速度Vの時間変化に応じて調整量Rが可変に制御されるから、演奏情報Qのバッファリングによる遅延量が削減される(各端末装置12の相互間で授受される演奏情報Qの遅延が低減される)という利点もある。
<第2実施形態>
本発明の第2実施形態を説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
第1実施形態では、対象楽曲の全区間にわたり速度解析部52が演奏速度Vを特定する構成を例示した。第2実施形態の速度解析部52は、対象楽曲のうち特定の区間(以下「解析区間」という)について利用者UAの演奏速度Vを順次に特定する。
解析区間は、例えば演奏速度Vが略一定に維持される可能性が高い区間であり、記憶装置42に記憶された楽譜情報Sを参照することで特定される。具体的には、楽譜情報Sで指定される対象楽曲の楽譜のうち演奏速度の増減が指示された区間以外の区間(すなわち演奏速度Vの維持が指示された区間)が解析区間として特定される。調整量設定部56は、対象楽曲の解析区間毎に演奏速度Vの変化度Rを算定する。対象区間のうち解析区間以外の区間については演奏速度Vの特定は実行されないから、当該区間の演奏は変化度R(ひいては調整量α)に反映されない。
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、対象楽曲のうち解析区間内の演奏速度Vに応じて調整量αが設定されるから、利用者UAによる演奏表現としての演奏速度Vの変動の影響を除去した適切な調整量αを設定できるという利点がある。
なお、以上の説明では、対象楽曲のうち演奏速度Vが略一定に維持される可能性が高い区間を解析区間として演奏速度Vを算定したが、解析区間の選定の方法は以上の例示に限定されない。例えば、対象楽曲のうち演奏速度Vを正確に特定し易い区間を解析区間として選定することも可能である。例えば、対象楽曲のうち多数の短音が分布する区間は長音が分布する区間と比較して演奏速度Vを高精度に特定し易いという傾向がある。したがって、対象楽曲のうち多数の短音が存在する区間を解析区間として演奏速度Vを特定する構成が好適である。
<第3実施形態>
図5および図6を参照して前述した通り、調整量αが小さい場合には演奏速度が経時的に低下し、調整量αが大きい場合には演奏速度が経時的に上昇する、という傾向がある。以上の傾向を背景として、第3実施形態の情報提供装置10は、調整量αに応じた時点で利用者UAに拍点を提示することで、利用者UAによる演奏速度が略一定に維持されるように利用者UAを誘導する。
第3実施形態の演奏解析部54は、端末装置12Aから通信装置44が受信した演奏情報QAを解析することで利用者UAによる演奏の拍点(以下「演奏拍点」という)を順次に特定する。演奏解析部54による演奏拍点の特定には公知の技術が任意に採用される。他方、調整量設定部56は、第1実施形態と同様に、速度解析部52が特定した演奏速度Vの時間変化に応じて調整量αを可変に設定する。具体的には、調整量設定部56は、演奏速度Vが経時的に上昇する場合(R>0)には調整量αが減少し、演奏速度Vが経時的に低下する場合(R<0)には調整量αが増加するように、演奏速度Vの変化度Rに応じて調整量αを設定する。
第3実施形態の情報提供部58は、演奏解析部54が特定する各演奏拍点に対して調整量αだけずれた時点を利用者UAによる演奏に並行して当該利用者UAに順次に提示する。具体的には、情報提供部58は、利用者UAに拍点を知覚させるための効果音(例えばメトロノームの「カチッ」という音響)を表す音響信号を通信装置44から利用者UAの端末装置12Aに順次に送信する。具体的には、演奏速度Vが経時的に上昇する場合には、利用者UAの演奏拍点に対して先行する時点で端末装置12Aの放音装置34から効果音が放射され、演奏速度Vが経時的に低下する場合には、利用者UAの演奏拍点に対して遅延した時点で端末装置12Aの放音装置34から効果音が放射されるように、情報提供装置10から端末装置12Aに対する効果音の音響信号の送信の時期が制御される。
第3実施形態によれば、演奏解析部54が利用者UAの演奏から特定する各演奏拍点に対して調整量αだけずれた時点が利用者UAによる演奏に並行して利用者UAに提示されるから、演奏速度が略一定に維持されるように利用者UAを誘導できるという利点がある。
<変形例>
以上に例示した各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の各形態では、対象楽曲の伴奏音の時間波形を表す楽曲情報Mを各端末装置12に提供したが、楽曲情報Mの内容は以上の例示に限定されない。例えば、対象楽曲の歌唱音(例えば事前に収録された音声や音声合成で生成された音声)の時間波形を表す楽曲情報Mを情報提供装置10から各端末装置12に提供することも可能である。また、楽曲情報Mは音響の時間波形を示す情報に限定されない。例えば、照明機器等の各種の機器に対する動作指示を対象楽曲内の各時点に配列した時系列データや、対象楽曲に関連する動画像(または複数の静止画の時系列)を、楽曲情報Mとして各端末装置12に提供することも可能である。
また、端末装置12に表示された楽譜画像に演奏位置を示す指示子を配置し、対象楽曲の演奏の進行とともに指示子を移動させる構成では、指示子の位置を示す情報が楽曲情報Mとして端末装置12に提供される。なお、演奏位置を利用者に提示する方法は以上の例示(操作子の表示)に限定されない。例えば、発光機器の点滅や振動機器の振動等により、演奏位置(例えば対象楽曲の拍点)を利用者に提示することも可能である。
以上の例示から理解される通り、楽曲情報Mの典型例は、対象楽曲の演奏または再生の進行に時間的に連動すべき時系列データであり、情報提供部58は、演奏時点Tに対して調整量αだけ後方の時点に対応する楽曲情報M(例えば音響,画像,動作指示)を提供する要素として包括的に表現される。
(2)楽譜情報Sの形式や内容は任意である。例えば、タブ譜,コード譜,ドラム譜,歌詞など、対象楽曲の少なくとも一部の演奏内容を表現する任意の情報が楽譜情報Sとして利用され得る。
(3)前述の各形態では、情報提供装置10が通信網18を介して端末装置12Aと通信する構成を例示したが、端末装置12Aを情報提供装置10として機能させることも可能である。また、端末装置12Aと端末装置12Bとの間の演奏情報Qの授受を省略した構成(端末装置12Bを省略した構成)や、3個以上の端末装置12の相互間で演奏情報Qを授受する構成(3人以上の利用者Uによる合奏)も採用され得る。
端末装置12Bを省略して利用者UAのみが演奏装置14を演奏する場面では、情報提供装置10が例えば以下のように利用され得る。まず、利用者UAは、第1実施形態と同様に、楽曲情報M0(前述の第1実施形態の楽曲情報M)が表す伴奏音の再生に並行して対象楽曲の第1パートを演奏する。利用者UAによる演奏音を表す演奏情報QAは、情報提供装置10に送信されて楽曲情報M1として記憶装置42に格納される。次いで、第1実施形態と同様に、利用者UAは、楽曲情報M0が表す伴奏音や楽曲情報M1が表す第1パートの演奏音の再生に並行して対象楽曲の第2パートを演奏する。以上の処理を反復することで、対象楽曲の複数のパートの各々について、略一定の演奏速度で相互に同期する演奏音の楽曲情報Mが生成される。情報提供装置10の制御装置40は、複数の楽曲情報Mが表す演奏音を合成することで合奏音の楽曲情報Mを生成する。以上の説明から理解される通り、利用者UAによる複数のパートの演奏を多重した合奏音を収録(すなわち多重録音)することが可能である。また、利用者UAの演奏を表す複数の楽曲情報Mの各々について利用者UAが削除や編集等の処理を実行することも可能である。
(4)前述の各形態では、利用者UAの演奏に応じた演奏情報QAの解析で演奏時点Tを特定したが、利用者UAの演奏情報QAと利用者UBの演奏情報QBとの双方の解析で演奏時点Tを特定することも可能である。例えば、演奏情報QAが示す演奏音と演奏情報QBが示す演奏音との混合音を楽譜情報Sと照合することで演奏時点Tを特定する構成が採用され得る。利用者UAと利用者UBとが対象楽曲の相異なるパートを演奏する場合、演奏解析部54は、楽譜情報Sで指定される複数のパートのうち各利用者Uが担当するパートを判別したうえで利用者U毎に演奏時点Tを特定することも可能である。
(5)前述の各形態では、数式(1)の演算で算定された数値を調整値αとして採用したが、演奏速度Vの時間変化に応じた調整値αの算定の方法は以上の例示に限定されない。例えば、数式(1)の演算で算定された数値に所定の補正値を加算することで調整値αを算定することも可能である。以上の構成によれば、補正値に相当する時間長だけ各利用者Uの演奏に先行した時点の演奏情報Mが提供されるから、演奏位置を示す指示子を楽譜画像に表示する前述の構成など、演奏の時点や内容を利用者Uに順次に提示する構成(利用者Uの演奏に先行して楽曲情報Mを提示する必要がある構成)にとって格別に好適である。調整値αの算定に適用される補正値は、例えば事前に設定された固定値や利用者Uからの指示に応じた可変値に設定される。また、利用者Uに提示される楽曲情報Mの範囲は任意である。例えば、利用者Uが演奏すべき内容を楽曲情報Mとして利用者Uに順次に提供する構成では、調整量αに応じた時点から所定の単位量(例えば対象楽曲の所定の小節数の範囲)にわたる楽曲情報Mを利用者Uに提示する構成が好適である。
(6)前述の各形態では、利用者UAによる演奏装置14の演奏について演奏速度Vや演奏時点Tを解析したが、例えば利用者UAによる歌唱について演奏速度(歌唱速度)Vや演奏時点(歌唱位置)Tを特定することも可能である。以上の例示から理解される通り、本発明における「演奏」には、演奏装置14等の機器を利用した狭義の演奏に加えて、利用者による歌唱も含意される。
100……通信システム、10……情報提供装置、12(12A,12B)……端末装置、14……演奏装置、18……通信網、30,40……制御装置、32,44……通信装置、34……放音装置、42……記憶装置、50……解析処理部、52……速度解析部、54……演奏解析部、56……調整量設定部、58……情報提供部。

Claims (5)

  1. 利用者による対象楽曲の演奏の演奏速度を順次に特定する速度解析手段と、
    前記対象楽曲のうち前記利用者による演奏時点を順次に特定する演奏解析手段と、
    前記速度解析手段が特定する演奏速度が上昇する場合に調整量が減少し、前記演奏速度が低下する場合に調整量が増加するように、調整量を設定する調整量設定手段と、
    前記対象楽曲のうち前記演奏解析手段が特定した演奏時点に対して前記調整量設定手段が設定した調整量だけ後方の時点に対応する楽曲情報を前記利用者による演奏に並行して利用者に提供する情報提供手段と
    を具備する情報提供装置。
  2. 通信網を介して前記利用者の端末装置と通信する通信手段を具備し、
    前記速度解析手段は、前記利用者の端末装置から前記通信手段が受信する演奏情報の解析で前記演奏速度を順次に特定し、
    前記演奏解析手段は、前記通信手段が受信した前記演奏情報の解析で前記演奏時点を順次に特定し、
    前記情報提供手段は、前記楽曲情報を前記通信手段から前記端末装置に送信する
    請求項の情報提供装置。
  3. 利用者による演奏の演奏速度を順次に特定する速度解析手段と、
    前記利用者による演奏の拍点を順次に特定する演奏解析手段と、
    前記速度解析手段が特定する演奏速度が上昇する場合に調整量が減少し、前記演奏速度が低下する場合に調整量が増加するように、調整量を設定する調整量設定手段と、
    前記演奏解析手段が特定した拍点に対して前記調整量設定手段が設定した調整量だけずれた時点を前記利用者による演奏に並行して当該利用者に提示する情報提供手段と
    を具備する情報提供装置。
  4. 利用者による対象楽曲の演奏の演奏速度を順次に特定し、
    前記対象楽曲のうち前記利用者による演奏時点を順次に特定し、
    前記演奏速度が上昇する場合に調整量が減少し、前記演奏速度が低下する場合に調整量が増加するように、調整量を設定し、
    前記対象楽曲のうち前記演奏時点に対して前記設定した調整量だけ後方の時点に対応する楽曲情報を前記利用者による演奏に並行して利用者に提供する
    コンピュータにより実現される情報提供方法。
  5. 利用者による演奏の演奏速度を順次に特定し、
    前記利用者による演奏の拍点を順次に特定し、
    前記演奏速度が上昇する場合に調整量が減少し、前記演奏速度が低下する場合に調整量が増加するように、調整量を設定し、
    前記特定した拍点に対して前記設定した調整量だけずれた時点を前記利用者による演奏に並行して当該利用者に提示する
    コンピュータにより実現される情報提供方法。
JP2014236792A 2014-11-21 2014-11-21 情報提供装置および情報提供方法 Active JP6467887B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014236792A JP6467887B2 (ja) 2014-11-21 2014-11-21 情報提供装置および情報提供方法
CN201580073529.9A CN107210030B (zh) 2014-11-21 2015-11-19 信息提供方法和信息提供设备
EP15861046.9A EP3223274B1 (en) 2014-11-21 2015-11-19 Information providing method and information providing device
PCT/JP2015/082514 WO2016080479A1 (ja) 2014-11-21 2015-11-19 情報提供方法および情報提供装置
US15/598,351 US10366684B2 (en) 2014-11-21 2017-05-18 Information providing method and information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014236792A JP6467887B2 (ja) 2014-11-21 2014-11-21 情報提供装置および情報提供方法

Publications (2)

Publication Number Publication Date
JP2016099512A JP2016099512A (ja) 2016-05-30
JP6467887B2 true JP6467887B2 (ja) 2019-02-13

Family

ID=56014012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014236792A Active JP6467887B2 (ja) 2014-11-21 2014-11-21 情報提供装置および情報提供方法

Country Status (5)

Country Link
US (1) US10366684B2 (ja)
EP (1) EP3223274B1 (ja)
JP (1) JP6467887B2 (ja)
CN (1) CN107210030B (ja)
WO (1) WO2016080479A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6435751B2 (ja) * 2014-09-29 2018-12-12 ヤマハ株式会社 演奏記録再生装置、プログラム
JP6467887B2 (ja) * 2014-11-21 2019-02-13 ヤマハ株式会社 情報提供装置および情報提供方法
JP6801225B2 (ja) 2016-05-18 2020-12-16 ヤマハ株式会社 自動演奏システムおよび自動演奏方法
WO2018016581A1 (ja) * 2016-07-22 2018-01-25 ヤマハ株式会社 楽曲データ処理方法およびプログラム
WO2018150647A1 (ja) * 2017-02-16 2018-08-23 ヤマハ株式会社 データ出力システム及びデータ出力方法
CN109214616B (zh) * 2017-06-29 2023-04-07 上海寒武纪信息科技有限公司 一种信息处理装置、系统和方法
JP6724879B2 (ja) 2017-09-22 2020-07-15 ヤマハ株式会社 再生制御方法、再生制御装置およびプログラム
JP6737300B2 (ja) 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
EP3869495B1 (en) * 2020-02-20 2022-09-14 Antescofo Improved synchronization of a pre-recorded music accompaniment on a user's music playing
JP2022075147A (ja) 2020-11-06 2022-05-18 ヤマハ株式会社 音響処理システム、音響処理方法およびプログラム
US12046221B2 (en) 2021-03-25 2024-07-23 Yousician Oy User interface for displaying written music during performance
JP2023142748A (ja) * 2022-03-25 2023-10-05 ヤマハ株式会社 データ出力方法、プログラム、データ出力装置および電子楽器

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402244A (en) * 1980-06-11 1983-09-06 Nippon Gakki Seizo Kabushiki Kaisha Automatic performance device with tempo follow-up function
JPS57124396A (en) * 1981-01-23 1982-08-03 Nippon Musical Instruments Mfg Electronic musical instrument
JPH03253898A (ja) * 1990-03-03 1991-11-12 Kan Oteru 自動伴奏装置
JP3077269B2 (ja) * 1991-07-24 2000-08-14 ヤマハ株式会社 楽譜表示装置
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
US5693903A (en) * 1996-04-04 1997-12-02 Coda Music Technology, Inc. Apparatus and method for analyzing vocal audio data to provide accompaniment to a vocalist
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US5894100A (en) * 1997-01-10 1999-04-13 Roland Corporation Electronic musical instrument
US6166314A (en) * 1997-06-19 2000-12-26 Time Warp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US5913259A (en) * 1997-09-23 1999-06-15 Carnegie Mellon University System and method for stochastic score following
US6051769A (en) * 1998-11-25 2000-04-18 Brown, Jr.; Donival Computerized reading display
JP3887978B2 (ja) * 1998-12-25 2007-02-28 ヤマハ株式会社 演奏支援装置、演奏支援方法、および演奏支援プログラムを記録した記録媒体
US6156964A (en) * 1999-06-03 2000-12-05 Sahai; Anil Apparatus and method of displaying music
JP2001075565A (ja) * 1999-09-07 2001-03-23 Roland Corp 電子楽器
JP2001125568A (ja) * 1999-10-28 2001-05-11 Roland Corp 電子楽器
JP4389330B2 (ja) * 2000-03-22 2009-12-24 ヤマハ株式会社 演奏位置検出方法および楽譜表示装置
US7827488B2 (en) * 2000-11-27 2010-11-02 Sitrick David H Image tracking and substitution system and methodology for audio-visual presentations
US20020072982A1 (en) * 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
JP3702785B2 (ja) * 2000-12-27 2005-10-05 ヤマハ株式会社 楽音演奏装置、方法及び媒体
JP3724376B2 (ja) * 2001-02-28 2005-12-07 ヤマハ株式会社 楽譜表示制御装置及び方法並びに記憶媒体
KR100412196B1 (ko) * 2001-05-21 2003-12-24 어뮤즈텍(주) 악보 추적 방법 및 그 장치
KR100418563B1 (ko) * 2001-07-10 2004-02-14 어뮤즈텍(주) 동기정보에 의한 미디음악 재생 방법 및 장치
BR0202561A (pt) * 2002-07-04 2004-05-18 Genius Inst De Tecnologia Dispositivo e método de avaliação de desempenho de canto
US7332669B2 (en) * 2002-08-07 2008-02-19 Shadd Warren M Acoustic piano with MIDI sensor and selective muting of groups of keys
WO2005022509A1 (en) * 2003-09-03 2005-03-10 Koninklijke Philips Electronics N.V. Device for displaying sheet music
JPWO2005062289A1 (ja) * 2003-12-18 2007-07-19 誠治 柏岡 コンピュータを用いた楽譜の表示方法
US7164076B2 (en) * 2004-05-14 2007-01-16 Konami Digital Entertainment System and method for synchronizing a live musical performance with a reference performance
CA2581919A1 (en) * 2004-10-22 2006-04-27 In The Chair Pty Ltd A method and system for assessing a musical performance
KR20070095332A (ko) * 2004-12-15 2007-09-28 뮤즈아미, 인크 악보 캡처 및 동기된 표현과 함께 동기된 오디오 연주를위한 시스템 및 방법
JP4747847B2 (ja) * 2006-01-17 2011-08-17 ヤマハ株式会社 演奏情報発生装置およびプログラム
JP2007279490A (ja) * 2006-04-10 2007-10-25 Kawai Musical Instr Mfg Co Ltd 電子楽器
US7579541B2 (en) * 2006-12-28 2009-08-25 Texas Instruments Incorporated Automatic page sequencing and other feedback action based on analysis of audio performance data
US20080196575A1 (en) * 2007-02-16 2008-08-21 Recordare Llc Process for creating and viewing digital sheet music on a media device
WO2008121650A1 (en) * 2007-03-30 2008-10-09 William Henderson Audio signal processing system for live music performance
US7674970B2 (en) * 2007-05-17 2010-03-09 Brian Siu-Fung Ma Multifunctional digital music display device
JP5179905B2 (ja) * 2008-03-11 2013-04-10 ローランド株式会社 演奏装置
US7482529B1 (en) * 2008-04-09 2009-01-27 International Business Machines Corporation Self-adjusting music scrolling system
US8660678B1 (en) * 2009-02-17 2014-02-25 Tonara Ltd. Automatic score following
US8629342B2 (en) * 2009-07-02 2014-01-14 The Way Of H, Inc. Music instruction system
JP5582915B2 (ja) * 2009-08-14 2014-09-03 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法および楽譜位置推定ロボット
US8445766B2 (en) * 2010-02-25 2013-05-21 Qualcomm Incorporated Electronic display of sheet music
JP5654897B2 (ja) * 2010-03-02 2015-01-14 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム
US8338684B2 (en) * 2010-04-23 2012-12-25 Apple Inc. Musical instruction and assessment systems
KR101582436B1 (ko) * 2010-05-04 2016-01-04 샤잠 엔터테인먼트 리미티드 미디어의 동기화 방법 및 시스템
US8440898B2 (en) * 2010-05-12 2013-05-14 Knowledgerocks Limited Automatic positioning of music notation
JP2011242560A (ja) 2010-05-18 2011-12-01 Yamaha Corp セッション端末及びネットワークセッションシステム
US9626554B2 (en) 2010-08-26 2017-04-18 Blast Motion Inc. Motion capture system that combines sensors with different measurement ranges
US9247212B2 (en) 2010-08-26 2016-01-26 Blast Motion Inc. Intelligent motion capture element
CN103442898B (zh) * 2011-03-29 2016-03-16 惠普发展公司,有限责任合伙企业 喷墨介质
US8990677B2 (en) * 2011-05-06 2015-03-24 David H. Sitrick System and methodology for collaboration utilizing combined display with evolving common shared underlying image
US8847056B2 (en) * 2012-10-19 2014-09-30 Sing Trix Llc Vocal processing with accompaniment music input
JP6187132B2 (ja) 2013-10-18 2017-08-30 ヤマハ株式会社 スコアアライメント装置及びスコアアライメントプログラム
JP6197631B2 (ja) * 2013-12-19 2017-09-20 ヤマハ株式会社 楽譜解析装置および楽譜解析方法
US20150206441A1 (en) 2014-01-18 2015-07-23 Invent.ly LLC Personalized online learning management system and method
EP2919228B1 (en) * 2014-03-12 2016-10-19 NewMusicNow, S.L. Method, device and computer program for scrolling a musical score.
JP6467887B2 (ja) * 2014-11-21 2019-02-13 ヤマハ株式会社 情報提供装置および情報提供方法
WO2017180532A1 (en) 2016-04-10 2017-10-19 Renaissance Learning, Inc. Integrated student-growth platform
US9959851B1 (en) * 2016-05-05 2018-05-01 Jose Mario Fernandez Collaborative synchronized audio interface
JP6801225B2 (ja) 2016-05-18 2020-12-16 ヤマハ株式会社 自動演奏システムおよび自動演奏方法

Also Published As

Publication number Publication date
US10366684B2 (en) 2019-07-30
EP3223274A1 (en) 2017-09-27
EP3223274B1 (en) 2019-09-18
US20170256246A1 (en) 2017-09-07
EP3223274A4 (en) 2018-05-09
CN107210030A (zh) 2017-09-26
JP2016099512A (ja) 2016-05-30
WO2016080479A1 (ja) 2016-05-26
CN107210030B (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
JP6467887B2 (ja) 情報提供装置および情報提供方法
CN103959372B (zh) 用于使用呈现高速缓存针对所请求的音符提供音频的系统和方法
CN104040618B (zh) 用于制作更和谐音乐伴奏以及用于将效果链应用于乐曲的系统和方法
CN105989823B (zh) 一种自动跟拍伴奏方法及装置
JP6724879B2 (ja) 再生制御方法、再生制御装置およびプログラム
JP6201460B2 (ja) ミキシング管理装置
US20140354434A1 (en) Method and system for modifying a media according to a physical performance of a user
US11817070B2 (en) Arbitrary signal insertion method and arbitrary signal insertion system
JP6690181B2 (ja) 楽音評価装置及び評価基準生成装置
JP2018155936A (ja) 音データ編集方法
KR101221673B1 (ko) 전자기타 연습장치
JP6171393B2 (ja) 音響合成装置および音響合成方法
JP5287617B2 (ja) 音響処理装置およびプログラム
JP6838357B2 (ja) 音響解析方法および音響解析装置
Greeff The influence of perception latency on the quality of musical performance during a simulated delay scenario
JP5672960B2 (ja) 音響処理装置
JP5287616B2 (ja) 音響処理装置およびプログラム
WO2017056885A1 (ja) 楽曲処理方法および楽曲処理装置
WO2014142201A1 (ja) 分離用データ処理装置およびプログラム
JP2016156917A (ja) 歌唱評価装置およびプログラム
JP6182894B2 (ja) 音響処理装置および音響処理方法
JP6364885B2 (ja) 楽曲処理装置および楽曲処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R151 Written notification of patent or utility model registration

Ref document number: 6467887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151