JP2018063295A - 演奏制御方法および演奏制御装置 - Google Patents
演奏制御方法および演奏制御装置 Download PDFInfo
- Publication number
- JP2018063295A JP2018063295A JP2016200130A JP2016200130A JP2018063295A JP 2018063295 A JP2018063295 A JP 2018063295A JP 2016200130 A JP2016200130 A JP 2016200130A JP 2016200130 A JP2016200130 A JP 2016200130A JP 2018063295 A JP2018063295 A JP 2018063295A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- control
- data
- music
- automatic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/015—Musical staff, tablature or score displays, e.g. for score reading during a performance.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
【解決手段】コンピュータが、演奏者による楽曲の演奏を解析することにより楽曲の演奏位置を推定し、楽曲の演奏内容を指定する演奏データに応じた自動演奏を演奏位置の進行に同期するように演奏装置に実行させ、演奏データとは独立の制御データに応じて演奏位置の進行と自動演奏との関係を制御する。
【選択図】図1
Description
また、本発明の好適な態様に係る演奏制御装置は、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定する演奏解析部と、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させる演奏制御部とを具備し、前記演奏制御部は、前記演奏データとは独立の制御データに応じて前記演奏位置の進行と前記自動演奏との関係を制御する。
図1は、本発明の第1実施形態に係る自動演奏システム100の構成図である。自動演奏システム100は、複数の演奏者Pが楽器を演奏する音響ホール等の空間に設置され、複数の演奏者Pによる楽曲(以下「対象楽曲」という)の演奏に並行して対象楽曲の自動演奏を実行するコンピュータシステムである。なお、演奏者Pは、典型的には楽器の演奏者であるが、対象楽曲の歌唱者も演奏者Pであり得る。また、実際には楽器の演奏を担当しない関係者(例えば対象楽曲の演奏を主導する指揮者または音響監督)も演奏者Pに含まれ得る。図1に例示される通り、第1実施形態の自動演奏システム100は、演奏制御装置10と演奏装置12と収音装置14と表示装置16とを具備する。演奏制御装置10は、自動演奏システム100の各要素を制御するコンピュータシステムであり、例えばパーソナルコンピュータ等の情報処理装置で実現される。
本発明の第2実施形態を説明する。なお、以下に例示する各形態において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
第3実施形態の楽曲ファイルFは、演奏位置Tの進行と自動演奏との関係を制御するための制御データC3を制御データCとして包含する。制御データC3は、対象楽曲内の制御対象部分Qにおいて演奏位置Tの進行を自動演奏に反映させる度合(以下「演奏反映度」という)を指示するデータである。具体的には、制御データC3は、対象楽曲内の制御対象部分Qと、当該制御対象部分Qにおける演奏反映度の時間的な変動とを指定する。対象楽曲内の複数の制御対象部分Qの各々について演奏反映度の時間的な変動を制御データC3で指定することが可能である。第3実施形態の演奏制御部34は、対象楽曲内の制御対象部分Qにおいて、演奏装置12による自動演奏に関する演奏反映度を制御データC3に応じて制御する。すなわち、演奏反映度が制御データC3による指示に応じた数値に変動するように、演奏制御部34は、演奏位置Tの進行に応じた指示データの出力を制御する。他方、制御対象部分Q以外の区間では、演奏制御部34は、自動演奏に関する演奏反映度が所定値に保持されるように、演奏位置Tに応じて演奏装置12による自動演奏を制御する。
図7は、第4実施形態における自動演奏システム100の構成図である。第4実施形態の自動演奏システム100は、第1実施形態と同様の要素(演奏制御装置10,演奏装置12,収音装置14および表示装置16)に加えて撮像装置18を具備する。撮像装置18は、複数の演奏者Pを撮像した画像信号Vを生成する。画像信号Vは、複数の演奏者Pが演奏する様子の動画像を表す信号である。なお、複数の撮像装置18を設置することも可能である。
第5実施形態の楽曲ファイルFは、演奏解析部32による演奏位置Tの推定を制御するための制御データC5を制御データCとして包含する。制御データC5は、演奏解析部32による演奏位置Tの推定の停止を指示するデータである。具体的には、第5実施形態の演奏解析部32は、対象楽曲のうち制御データC5により指定される制御対象部分Qにおいて演奏位置Tの推定を停止する。他方、制御対象部分Q以外の区間では、演奏解析部32は、第1実施形態と同様に、複数の演奏者Pによる実演奏に並行して演奏位置Tを順次に推定する。
第6実施形態の表示制御部36は、表示装置16に表示される演奏画像Gを変化させることで、対象楽曲内の目標時点を複数の演奏者Pに報知することが可能である。具体的には、表示制御部36は、仮想演奏者Hが合図動作を実行する様子を表現した動画像を演奏画像Gとして表示装置16に表示させることで、当該合図動作から所定の合図間隔だけ経過した時点を目標時点として各演奏者Pに報知する。なお、演奏装置12の自動演奏に並行して仮想演奏者Hによる通常の演奏動作が模擬されるように表示制御部36が演奏画像Gを変化させる動作は、対象楽曲の自動演奏の実行中に継続的に実行される。すなわち、仮想演奏者Hが通常の演奏動作に並行して突発的に合図動作を実行する様子が演奏画像Gにより模擬される。
以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(A)制御データC1に応じた自動演奏のテンポの初期化(第1実施形態)、
(B)制御データC2に応じた自動演奏のテンポの保持(第2実施形態)、
(C)制御データC3に応じた演奏反映度の制御(第3実施形態)、
(D)制御データC4に応じて合図動作を自動演奏に反映させる動作(第4実施形態)、
(E)制御データC5に応じた演奏位置Tの推定の停止(第5実施形態)、および、
(F)制御データC6に応じた演奏画像Gの制御(第6実施形態)
から任意に選択された2以上の構成を併合することが可能である。なお、複数の制御データCを併用する構成では、制御対象部分Qは制御データC毎に個別に設定される。
<態様1>
本発明の好適な態様(態様1)に係る演奏制御方法は、コンピュータが、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定し、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させ、前記演奏データとは独立の制御データに応じて前記演奏位置の進行と前記自動演奏との関係を制御する。以上の態様では、演奏データとは独立の制御データに応じて演奏位置の進行と自動演奏との関係が制御されるから、演奏装置による自動演奏の制御に演奏データのみを使用する構成と比較して、自動演奏を実演奏に同期させる場合に想定される問題が低減されるように、演奏位置に応じて自動演奏を適切に制御することが可能である。
態様1の好適例(態様2)において、前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏を前記演奏位置の進行に同期させる制御を解除する。以上の態様では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏を前記演奏位置の進行に同期させる制御が解除される。したがって、楽曲のうち自動演奏を演奏位置の進行に同期させるべきでない部分について適切な自動演奏を実現することが可能である。
態様2の好適例(態様3)において、前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏のテンポを、前記演奏データで指定される所定値に初期化する。以上の態様では、楽曲のうち制御データにより指定される部分において、自動演奏のテンポが、演奏データで指定される所定値に初期化される。したがって、制御データが指定する部分について、実演奏のテンポに連動して自動演奏のテンポが不自然に変動する可能性が低減されるという利点がある。
態様2の好適例(態様4)において、前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏のテンポを、当該部分の直前における前記自動演奏のテンポに維持する。以上の態様では、楽曲のうち制御データにより指定される部分において、自動演奏のテンポが当該部分の直前でのテンポに維持される。したがって、楽曲のうち実演奏のテンポが変動しても自動演奏のテンポは保持すべき部分について適切なテンポの自動演奏を実現することが可能である。
態様1から態様4の何れかの好適例(態様5)において、前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記演奏位置の進行を前記自動演奏に反映させる度合を、前記制御データに応じて制御する。以上の態様では、楽曲のうち制御データにより指定される部分において、演奏位置の進行を自動演奏に反映させる度合が制御データに応じて制御される。したがって、自動演奏を実演奏に追従させる度合を対象楽曲内の特定の部分にて変動させた多様な自動演奏を実現することが可能である。
態様1から態様5の何れかの好適例(態様6)において、前記コンピュータが、前記楽曲の演奏者による合図動作を検出し、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏を前記合図動作に同期させる。以上の態様では、楽曲のうち制御データにより指定される部分において、前記自動演奏を合図動作に同期させる。したがって、演奏者による合図動作に同期した自動演奏が実現される。他方、自動演奏と合図動作とを同期させる制御は、楽曲のうち制御データにより指定される部分に制限される。したがって、当該部分とは無関係の箇所で合図動作が誤検出された場合でも、その合図動作が自動演奏に反映される可能性は低減される。
態様1から態様6の何れかの好適例(態様7)において、前記楽曲のうち前記制御データにより指定される部分において前記演奏位置の推定を停止する。以上の態様では、楽曲のうち制御データにより指定される部分において演奏位置の推定が停止される。したがって、例えば演奏位置の誤推定が発生し易い部分を制御データにより指定することで、演奏位置の誤推定の可能性を低減することが可能である。
態様1から態様7の何れかの好適例(態様8)において、前記コンピュータが、前記自動演奏の進行を表す演奏画像を表示装置に表示させ、前記楽曲のうち前記制御データにより指定される部分において、前記演奏画像を変化させることで、前記楽曲の特定の地点を演奏者に報知する。以上の態様では、楽曲のうち制御データにより指定される部分において、演奏画像を変化させることで楽曲の特定の地点が演奏者に報知される。したがって、例えば楽曲の演奏が開始される時点や長時間にわたる休符から演奏が再開される時点を、演奏者に対して視覚的に報知することが可能である。
態様1から態様8の何れかの好適例において、前記演奏データと前記制御データとは1個の楽曲ファイルに含まれる。以上の態様では、演奏データと制御データとが1個の楽曲ファイルに含まれるから、演奏データと制御データとが別個のファイルを構成する場合と比較して演奏データおよび制御データの取扱いが容易であるという利点がある。
本発明の好適な態様(態様10)に係る演奏制御方法は、コンピュータが、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定し、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させ、前記楽曲のうち前記演奏データとは独立の制御データにより指定される部分において、前記演奏位置の推定を停止する。以上の態様では、楽曲のうち制御データにより指定される部分において演奏位置の推定が停止される。したがって、例えば演奏位置の誤推定が発生し易い部分を制御データにより指定することで、演奏位置の誤推定の可能性を低減することが可能である。
本発明の好適な態様(態様11)に係る演奏制御方法は、コンピュータが、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定し、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させ、前記自動演奏の進行を表す演奏画像を表示装置に表示させ、前記楽曲のうち前記制御データにより指定される部分において、前記演奏画像を変化させることで、前記楽曲の特定の地点を演奏者に報知する。以上の態様では、楽曲のうち制御データにより指定される部分において、演奏画像を変化させることで楽曲の特定の地点が演奏者に報知される。したがって、例えば楽曲の演奏が開始される時点や長時間にわたる休符から演奏が再開される時点を、演奏者に対して視覚的に報知することが可能である。
本発明の好適な態様(態様12)に係る演奏制御装置は、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定する演奏解析部と、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させる演奏制御部とを具備し、前記演奏制御部は、前記演奏データとは独立の制御データに応じて前記演奏位置の進行と前記自動演奏との関係を制御する。以上の態様では、演奏データとは独立の制御データに応じて演奏位置の進行と自動演奏との関係が制御されるから、演奏装置による自動演奏の制御に演奏データのみを使用する構成と比較して、自動演奏を実演奏に同期させる場合に想定される問題が低減されるように、演奏位置に応じて自動演奏を適切に制御することが可能である。
本発明の好適な態様(態様13)に係る演奏制御装置は、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定する演奏解析部と、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させる演奏制御部とを具備し、前記演奏解析部は、記楽曲のうち前記演奏データとは独立の制御データにより指定される部分において、前記演奏位置の推定を停止する。以上の態様では、楽曲のうち制御データにより指定される部分において演奏位置の推定が停止される。したがって、例えば演奏位置の誤推定が発生し易い部分を制御データにより指定することで、演奏位置の誤推定の可能性を低減することが可能である。
本発明の好適な態様(態様14)に係る演奏制御装置は、演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定する演奏解析部と、前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させる演奏制御部と、前記自動演奏の進行を表す演奏画像を表示装置に表示させる表示制御部とを具備し、前記表示制御部は、前記楽曲のうち前記制御データにより指定される部分において、前記演奏画像を変化させることで、前記楽曲の特定の地点を演奏者に報知する。以上の態様では、楽曲のうち制御データにより指定される部分において、演奏画像を変化させることで楽曲の特定の地点が演奏者に報知される。したがって、例えば楽曲の演奏が開始される時点や長時間にわたる休符から演奏が再開される時点を、演奏者に対して視覚的に報知することが可能である。
Claims (8)
- コンピュータが、
演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定し、
前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させ、
前記演奏データとは独立の制御データに応じて前記演奏位置の進行と前記自動演奏との関係を制御する
演奏制御方法。 - 前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏を前記演奏位置の進行に同期させる制御を解除する
請求項1の演奏制御方法。 - 前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏のテンポを、前記演奏データで指定される所定値に初期化する
請求項2の演奏制御方法。 - 前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記自動演奏のテンポを、当該部分の直前における前記自動演奏のテンポに維持する
請求項2の演奏制御方法。 - 前記演奏位置の進行と前記自動演奏との関係の制御では、前記楽曲のうち前記制御データにより指定される部分において、前記演奏位置の進行を前記自動演奏に反映させる度合を、前記制御データに応じて制御する
請求項1から請求項4の何れかの演奏制御方法。 - 前記楽曲のうち前記制御データにより指定される部分において前記演奏位置の推定を停止する
請求項1から請求項5の何れかの演奏制御方法。 - 前記演奏データと前記制御データとは1個の楽曲ファイルに含まれる
請求項1から請求項6の何れかの演奏制御方法。 - 演奏者による楽曲の演奏を解析することにより前記楽曲の演奏位置を推定する演奏解析部と、
前記楽曲の演奏内容を指定する演奏データに応じた自動演奏を前記演奏位置の進行に同期するように演奏装置に実行させる演奏制御部とを具備し、
前記演奏制御部は、前記演奏データとは独立の制御データに応じて前記演奏位置の進行と前記自動演奏との関係を制御する
演奏制御装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016200130A JP6776788B2 (ja) | 2016-10-11 | 2016-10-11 | 演奏制御方法、演奏制御装置およびプログラム |
CN201780062383.7A CN109804427B (zh) | 2016-10-11 | 2017-10-02 | 演奏控制方法以及演奏控制装置 |
PCT/JP2017/035824 WO2018070286A1 (ja) | 2016-10-11 | 2017-10-02 | 演奏制御方法および演奏制御装置 |
US16/376,714 US10720132B2 (en) | 2016-10-11 | 2019-04-05 | Performance control method and performance control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016200130A JP6776788B2 (ja) | 2016-10-11 | 2016-10-11 | 演奏制御方法、演奏制御装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018063295A true JP2018063295A (ja) | 2018-04-19 |
JP6776788B2 JP6776788B2 (ja) | 2020-10-28 |
Family
ID=61905569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016200130A Active JP6776788B2 (ja) | 2016-10-11 | 2016-10-11 | 演奏制御方法、演奏制御装置およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10720132B2 (ja) |
JP (1) | JP6776788B2 (ja) |
CN (1) | CN109804427B (ja) |
WO (1) | WO2018070286A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059465A1 (ja) * | 2018-09-19 | 2020-03-26 | ヤマハ株式会社 | 演奏データの情報処理装置 |
WO2023170757A1 (ja) * | 2022-03-07 | 2023-09-14 | ヤマハ株式会社 | 再生制御方法、情報処理方法、再生制御システムおよびプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018016581A1 (ja) * | 2016-07-22 | 2018-01-25 | ヤマハ株式会社 | 楽曲データ処理方法およびプログラム |
JP6699677B2 (ja) * | 2018-02-06 | 2020-05-27 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP6737300B2 (ja) * | 2018-03-20 | 2020-08-05 | ヤマハ株式会社 | 演奏解析方法、演奏解析装置およびプログラム |
JP7343268B2 (ja) * | 2018-04-24 | 2023-09-12 | 培雄 唐沢 | 任意信号挿入方法及び任意信号挿入システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10254448A (ja) * | 1997-01-09 | 1998-09-25 | Yamaha Corp | 自動伴奏装置及び自動伴奏制御プログラムを記録した媒体 |
JP2001195063A (ja) * | 2000-01-12 | 2001-07-19 | Yamaha Corp | 演奏支援装置 |
JP2006065253A (ja) * | 2004-08-30 | 2006-03-09 | Yamaha Corp | 自動伴奏装置及びプログラム |
JP2007241181A (ja) * | 2006-03-13 | 2007-09-20 | Univ Of Tokyo | 自動伴奏システム及び楽譜追跡システム |
JP2007249033A (ja) * | 2006-03-17 | 2007-09-27 | Yamaha Corp | 電子楽器およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07122793B2 (ja) * | 1989-07-03 | 1995-12-25 | カシオ計算機株式会社 | 自動演奏装置 |
US5521323A (en) * | 1993-05-21 | 1996-05-28 | Coda Music Technologies, Inc. | Real-time performance score matching |
US5952597A (en) * | 1996-10-25 | 1999-09-14 | Timewarp Technologies, Ltd. | Method and apparatus for real-time correlation of a performance to a musical score |
US5942710A (en) | 1997-01-09 | 1999-08-24 | Yamaha Corporation | Automatic accompaniment apparatus and method with chord variety progression patterns, and machine readable medium containing program therefore |
US6166314A (en) * | 1997-06-19 | 2000-12-26 | Time Warp Technologies, Ltd. | Method and apparatus for real-time correlation of a performance to a musical score |
US5913259A (en) * | 1997-09-23 | 1999-06-15 | Carnegie Mellon University | System and method for stochastic score following |
KR100412196B1 (ko) * | 2001-05-21 | 2003-12-24 | 어뮤즈텍(주) | 악보 추적 방법 및 그 장치 |
JP3933583B2 (ja) * | 2003-01-10 | 2007-06-20 | ローランド株式会社 | 電子楽器 |
JP4650182B2 (ja) * | 2005-09-26 | 2011-03-16 | ヤマハ株式会社 | 自動伴奏装置及びプログラム |
CN201294089Y (zh) * | 2008-11-17 | 2009-08-19 | 音乐传奇有限公司 | 互动音乐演奏设备 |
US8660678B1 (en) * | 2009-02-17 | 2014-02-25 | Tonara Ltd. | Automatic score following |
JP5654897B2 (ja) * | 2010-03-02 | 2015-01-14 | 本田技研工業株式会社 | 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム |
JP5958041B2 (ja) * | 2012-04-18 | 2016-07-27 | ヤマハ株式会社 | 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置 |
JP6187132B2 (ja) | 2013-10-18 | 2017-08-30 | ヤマハ株式会社 | スコアアライメント装置及びスコアアライメントプログラム |
JP6809112B2 (ja) * | 2016-10-12 | 2021-01-06 | ヤマハ株式会社 | 演奏システム、自動演奏方法およびプログラム |
-
2016
- 2016-10-11 JP JP2016200130A patent/JP6776788B2/ja active Active
-
2017
- 2017-10-02 WO PCT/JP2017/035824 patent/WO2018070286A1/ja active Application Filing
- 2017-10-02 CN CN201780062383.7A patent/CN109804427B/zh active Active
-
2019
- 2019-04-05 US US16/376,714 patent/US10720132B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10254448A (ja) * | 1997-01-09 | 1998-09-25 | Yamaha Corp | 自動伴奏装置及び自動伴奏制御プログラムを記録した媒体 |
JP2001195063A (ja) * | 2000-01-12 | 2001-07-19 | Yamaha Corp | 演奏支援装置 |
JP2006065253A (ja) * | 2004-08-30 | 2006-03-09 | Yamaha Corp | 自動伴奏装置及びプログラム |
JP2007241181A (ja) * | 2006-03-13 | 2007-09-20 | Univ Of Tokyo | 自動伴奏システム及び楽譜追跡システム |
JP2007249033A (ja) * | 2006-03-17 | 2007-09-27 | Yamaha Corp | 電子楽器およびプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059465A1 (ja) * | 2018-09-19 | 2020-03-26 | ヤマハ株式会社 | 演奏データの情報処理装置 |
JP2020046533A (ja) * | 2018-09-19 | 2020-03-26 | ヤマハ株式会社 | 情報処理方法および情報処理装置 |
CN112753067A (zh) * | 2018-09-19 | 2021-05-04 | 雅马哈株式会社 | 演奏数据的信息处理装置 |
JP7103106B2 (ja) | 2018-09-19 | 2022-07-20 | ヤマハ株式会社 | 情報処理方法および情報処理装置 |
JP2022123072A (ja) * | 2018-09-19 | 2022-08-23 | ヤマハ株式会社 | 情報処理方法 |
JP7343012B2 (ja) | 2018-09-19 | 2023-09-12 | ヤマハ株式会社 | 情報処理装置および情報処理方法 |
WO2023170757A1 (ja) * | 2022-03-07 | 2023-09-14 | ヤマハ株式会社 | 再生制御方法、情報処理方法、再生制御システムおよびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018070286A1 (ja) | 2018-04-19 |
US10720132B2 (en) | 2020-07-21 |
CN109804427A (zh) | 2019-05-24 |
CN109804427B (zh) | 2023-06-23 |
US20190237055A1 (en) | 2019-08-01 |
JP6776788B2 (ja) | 2020-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10482856B2 (en) | Automatic performance system, automatic performance method, and sign action learning method | |
JP6776788B2 (ja) | 演奏制御方法、演奏制御装置およびプログラム | |
CN111052223B (zh) | 播放控制方法、播放控制装置及记录介质 | |
JP6699677B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
JP7432124B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
JP2019168599A (ja) | 演奏解析方法および演奏解析装置 | |
CN114446266A (zh) | 音响处理系统、音响处理方法及程序 | |
JP2007256412A (ja) | 楽音制御装置 | |
US10140965B2 (en) | Automated musical performance system and method | |
JP6070652B2 (ja) | リファレンス表示装置およびプログラム | |
JP5387642B2 (ja) | 歌詞テロップ表示装置及びプログラム | |
WO2019092791A1 (ja) | データ生成装置およびプログラム | |
JP6838357B2 (ja) | 音響解析方法および音響解析装置 | |
JP6977813B2 (ja) | 自動演奏システムおよび自動演奏方法 | |
JP2008008946A (ja) | 楽音制御装置およびプログラム | |
JP5888295B2 (ja) | 演奏情報表示装置、プログラム | |
WO2019092793A1 (ja) | データ生成装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200921 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6776788 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |