JP6809112B2 - 演奏システム、自動演奏方法およびプログラム - Google Patents

演奏システム、自動演奏方法およびプログラム Download PDF

Info

Publication number
JP6809112B2
JP6809112B2 JP2016200584A JP2016200584A JP6809112B2 JP 6809112 B2 JP6809112 B2 JP 6809112B2 JP 2016200584 A JP2016200584 A JP 2016200584A JP 2016200584 A JP2016200584 A JP 2016200584A JP 6809112 B2 JP6809112 B2 JP 6809112B2
Authority
JP
Japan
Prior art keywords
performance
music
notification
automatic performance
automatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016200584A
Other languages
English (en)
Other versions
JP2018063315A (ja
Inventor
山本 和彦
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016200584A priority Critical patent/JP6809112B2/ja
Priority to US15/728,803 priority patent/US10140965B2/en
Publication of JP2018063315A publication Critical patent/JP2018063315A/ja
Application granted granted Critical
Publication of JP6809112B2 publication Critical patent/JP6809112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/011Hybrid piano, e.g. combined acoustic and electronic piano with complete hammer mechanism as well as key-action sensors coupled to an electronic sound generator

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、自動演奏の技術に関する。
楽曲の演奏内容を表わす楽曲データを利用して鍵盤楽器等の楽器を発音させる各種の自動演奏技術が従来から提案されている。例えば特許文献1には、オーディオデータ再生装置によるオーディオデータの再生に同期して、楽曲データを利用した自動演奏をする構成が開示されている。
特開2003−271138号公報
ここで、自動演奏に並行して実際の演奏者が楽器を演奏(以下「実演奏」という)する場合、実演奏の演奏者は、自動演奏に同期するように実演奏をする必要がある。しかし、実演奏の演奏者は、自動演奏の演奏音を聴くことで自動演奏の進行を把握しなければならず、自動演奏の進行を適切に把握できないという問題がある。以上の事情を考慮して、本発明は、演奏装置による自動演奏の進行を実演奏の演奏者がより適切に把握することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る演奏システムは、楽曲の自動演奏を演奏装置に実行させる演奏制御部と、前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる報知制御部とを具備する。本発明の好適な態様に係る自動演奏方法は、コンピュータが、楽曲の自動演奏を演奏装置に実行させ、前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる。
本発明の実施形態に係る演奏システムの構成図である。 演奏データおよび動作データの説明図である。 報知画像の説明図である。 制御装置の動作のフローチャートである。
図1は、本発明の好適な形態に係る演奏システム100の構成図である。演奏システム100は、複数の演奏者Pが楽器を演奏する音響ホール等の空間に設置される。具体的には、演奏システム100は、複数の演奏者Pによる楽曲(以下「対象楽曲」という)の演奏に並行して対象楽曲の自動演奏を実行するとともに、自動演奏の進行を演奏者Pに視覚的に報知するコンピュータシステムである。
本実施形態における演奏システム100は、自動演奏の進行を視覚的に表現した画像(以下「報知画像」という)Gを、演奏者Pから見える場所(例えば演奏者Pがいるステージ上の床)に表示することで、自動演奏の進行を演奏者Pに報知する。なお、演奏者Pは、典型的には楽器の演奏者Pであるが、対象楽曲の歌唱者も演奏者Pであり得る。すなわち、本出願における「演奏」には、楽器の演奏だけでなく歌唱も包含される。また、実際には楽器の演奏を担当しない者(例えば、コンサート時の指揮者やレコーディング時の音響監督など)も、演奏者Pに含まれ得る。
図1に例示される通り、演奏システム100は、記憶装置22と演奏装置24と収音装置26と制御装置28と報知装置29とを具備する。記憶装置22と制御装置28とは、例えばパーソナルコンピュータ等の情報処理装置で実現される。
記憶装置22は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体、あるいは複数種の記録媒体の組合せで構成され、制御装置28が実行するプログラムと制御装置28が使用する各種のデータとを記憶する。なお、演奏システム100とは別体の記憶装置22(例えばクラウドストレージ)を用意し、移動体通信網またはインターネット等の通信網を介して制御装置28が記憶装置22に対する書込および読出を実行することも可能である。すなわち、記憶装置22は演奏システム100から省略され得る。
本実施形態の記憶装置22は、楽曲ファイルMを記憶する。楽曲ファイルMは、図1に例示される通り、演奏データと動作データとを含む。例えばMIDI(Musical Instrument Digital Interface)規格に準拠した形式のファイル(SMF:Standard MIDI File)が楽曲ファイルMとして好適である。演奏データと動作データとは、同一の楽曲ファイルM内の相異なるチャンネルのデータである。
図2は、演奏データおよび動作データの説明図である。演奏データは、演奏装置24による対象楽曲の演奏内容を指定する。具体的には、演奏データは、図2に例示される通り、演奏内容を示すイベントデータE1と、当該イベントデータE1の発生時点を示す時間データT1とが配列された時系列データである。演奏データは、音高(ノートナンバ)と強度(ベロシティ)とを指定して発音および消音等の各種のイベントを指示する。時間データT1は、例えば相前後するイベントデータE1の間隔Δt(デルタタイム)を指定する。動作データの内容および使用については後述する。上述した通り、演奏データと動作データとが相異なるチャンネルとして1個の楽曲ファイルMに含まれるので、演奏データと動作データとの各々が別個の楽曲ファイルに含まれる構成と比較して、演奏データと動作データとの取り扱いが容易になる。具体的には、演奏データと動作データとを共通のフォーマットで作成できるという利点がある。
図1の演奏装置24は、制御装置28による制御のもとで対象楽曲の自動演奏を実行する。具体的には、対象楽曲を構成する複数の演奏パートのうち、複数の演奏者Pの演奏パート(例えば弦楽器)とは別個の演奏パートが、演奏装置24により演奏される。本実施形態の演奏装置24は、対象楽曲の自動演奏が可能な電子楽器であり、発音機構42と駆動機構44とを具備する鍵盤楽器(すなわち自動演奏ピアノ)である。発音機構42は、自然楽器のピアノと同様に、鍵盤の各鍵の変位に連動して弦(すなわち発音体)を発音させる打弦機構である。具体的には、発音機構42は、弦を打撃可能なハンマと、鍵の変位をハンマに伝達する複数の伝達部材(例えばウィペン,ジャック,レペティションレバー)とで構成されるアクション機構を鍵毎に具備する。駆動機構44は、発音機構42を駆動することで対象楽曲の演奏(つまり自動演奏)を実行する。具体的には、駆動機構44は、各鍵を変位させる複数の駆動体(例えばソレノイド等のアクチュエータ)と、各駆動体を駆動する駆動回路とを含んで構成される。制御装置28からの指示に応じて駆動機構44が発音機構42を駆動することで、対象楽曲の自動演奏が実現される。なお、演奏装置24に制御装置28または記憶装置22を搭載することも可能である。
収音装置26は、複数の演奏者Pによる楽器の演奏で発音された音(例えば楽音または歌唱音)を収音して音響信号Sを生成する。音響信号Sは、音の波形を表す信号である。なお、電気弦楽器等の電気楽器から出力される音響信号Sを利用することも可能である。したがって、収音装置26は省略され得る。報知装置29は、制御装置28(報知制御部65)による制御のもとで各種の画像を表示する。例えばプロジェクタが報知装置29の好適例である。
制御装置28は、例えばCPU(Central Processing Unit)等の処理回路であり、演奏システム100の各要素を統括的に制御する。制御装置28は、記憶装置22に記憶されたプログラムを実行することで、演奏装置24に自動演奏させるための複数の機能(演奏解析部61,演奏制御部63)と自動演奏の進行を報知するための機能(報知制御部65)とを実現する。なお、制御装置28の機能を複数の装置の集合(すなわちシステム)で実現した構成、または、制御装置28の機能の一部または全部を専用の電子回路が実現した構成も採用され得る。また、演奏装置24と収音装置26と報知装置29とが設置された音響ホール等の空間から離間した位置にあるサーバ装置が、制御装置28の一部または全部の機能を実現することも可能である。
図1の演奏解析部61は、対象楽曲のうち複数の演奏者Pが現に演奏している時点(以下「演奏位置」という)Tを各演奏者Pによる演奏に並行して順次に推定する。具体的には、演奏解析部61は、収音装置26が生成した音響信号Sを解析することで演奏位置Tを推定する。演奏位置Tの推定は所定の周期で反復される。演奏位置Tの推定には、公知の音響解析技術(スコアアライメント)が任意に採用され得る。
演奏制御部63は、対象楽曲の自動演奏を演奏装置24に実行させる。本実施形態の演奏制御部63は、対象楽曲の実演奏の進行に同期するように実演奏に並行して演奏装置24に自動演奏を実行させる。自動演奏の実行には、楽曲ファイルMの演奏データが利用される。具体的には、演奏制御部63は、自動演奏の開始を演奏装置24に対して指示するとともに、演奏解析部61が推定した演奏位置Tに対応する時点について演奏データが指定する演奏内容を演奏装置24に指示する。すなわち、演奏制御部63は、対象楽曲の演奏データに含まれる各イベントデータE1を演奏装置24に対して順次に供給するシーケンサである。演奏装置24は、演奏制御部63からの指示に応じて対象楽曲の自動演奏を実行する。複数の演奏者Pによる演奏の進行とともに演奏位置Tは対象楽曲内の後方に移動するから、演奏装置24による対象楽曲の自動演奏も演奏位置Tの移動とともに進行する。以上の説明から理解される通り、対象楽曲の各音の強度またはフレーズ表現等の音楽表現を演奏データで指定された内容に維持したまま、演奏のテンポと各音のタイミングとは複数の演奏者Pによる演奏に同期する(すなわち演奏データで指定された内容から変化する)ように、演奏制御部63は演奏装置24に自動演奏を指示する。
報知制御部65は、自動演奏の進行を演奏者Pに視覚的に報知する動作を報知装置29に実行させる。本実施形態の報知制御部65は、報知画像Gを報知装置29に表示させ、自動演奏の進行とともに報知画像Gが変化するように報知装置29を制御する。具体的には、報知制御部65は、自動演奏の進行とともに変化する報知画像Gを表わす画像データを、演奏制御部63による演奏装置24の制御(あるいは演奏解析部61が推定した演奏位置T)に応じて報知装置29に出力する。報知装置29は、報知制御部65が出力した画像データが表わす報知画像Gを表示することで、自動演奏の進行を演奏者Pに報知する。
図3は、報知画像Gの表示例である。報知画像Gは、図3に例示される通り、例えば仮想空間内において仮想的な演奏者(以下「仮想演奏者」という)Vが楽器を演奏している姿を模擬した画像である。本実施形態の報知画像Gは、動的に変化する動画像であり、複数の関節部Aと、各関節部Aにより連結された複数の要素(以下「可動要素」という)Cとを含む画像である。各可動要素Cは、例えば、仮想演奏者Vの身体の各部位(例えば頭C1、胴体C2、上腕C3、前腕C4、または手C5等)であり、関節部Aは、仮想演奏者Vの身体の部位と部位とを連結する関節(例えば首関節A1、肩関節A2、肘関節A3、または手根関節A4等)である。関節部Aが駆動されると、当該関節部A自体が移動するとともに、関節部Aにより連結された各可動要素Cが動く。例えば、肘関節A3が駆動された場合、肘関節A3自体が移動するとともに、肘関節A3により連結された上腕C3および前腕C4が動く。複数の演奏者Pは、報知装置29が表示する報知画像Gを、対象楽曲の演奏に並行して随時に視認することが可能である。なお、仮想演奏者Vが演奏している楽器の種類は、演奏装置24の演奏音が表わす楽器と同じ種類が好適に採用され得る。
本実施形態の報知制御部65は、通常動作および指示動作を報知装置29に実行させる。通常動作とは、対象楽曲の演奏中に継続する動作である。具体的には、通常動作は、楽器を演奏する通常の身体の動きを仮想演奏者Vが継続する様子が模擬されるように報知画像Gを変化させる動作である。例えば、報知画像Gが模擬する仮想演奏者Vが演奏している楽器がピアノの場合、通常動作は、仮想演奏者Vが自動演奏の演奏内容に応じてピアノの鍵盤を押鍵および離鍵するように報知画像Gを変化させる動作である。
指示動作は、対象楽曲内の特定の区間内で発生する動作である。具体的には、指示動作は、対象楽曲の特定の区間における特殊な身体の動きを仮想演奏者Vが実行する様子が模擬されるように報知画像Gを変化させる動作であり、例えば、対象楽曲の開始点および長い休符からの再開点等の特定の区間における演奏タイミングを報知する。例えば、報知画像Gが模擬する仮想演奏者Vが演奏している楽器がピアノの場合、指示動作は、通常動作との差異を演奏者Pが視覚的に把握可能な動作であり、例えば上肢(上腕C3、前腕C4、および手C5)を高く上げるように報知画像Gを変化させる動作、または、上肢を高い位置から下げるように報知画像Gを変化させる動作である。なお、報知制御部65は、通常動作および指示動作の双方において複数の可動要素Cの各々を動かすことで、体全体を使い、より自然にピアノを演奏している仮想演奏者Vを模擬する。以上の説明から理解される通り、報知装置29が表示する報知画像Gを視認することで、各演奏者Pは、実際には存在しない演奏者による演奏の様子を恰も確認しているかのような感覚で自身の楽器を演奏することが可能である。
報知制御部65は、楽曲ファイルM内の演奏データに応じて通常動作を制御する。具体的には、報知制御部65は、演奏装置24による自動演奏の開始とともに通常動作を開始するとともに、自動演奏の継続中は演奏データに応じて関節部Aを駆動することで報知装置29に通常動作を実行させる。本実施形態の報知制御部65は、図2の演奏データのイベントデータE1に応じて各関節部Aを駆動することで各関節および各可動要素Cが動く報知画像Gを報知装置29に表示させる。例えば、報知制御部65は、イベントデータE1で指定される強度(ベロシティ)が高い場合、各関節部Aに対して強い力を作用させることで、鍵盤を力強く押鍵および離鍵するように仮想演奏者Vが動く報知画像Gを報知装置29に表示させる。他方、イベントデータE1で指定される強度が低い場合、各関節部Aに対して弱い力を作用させることで、鍵盤を弱い力で押鍵および離鍵するように仮想演奏者Vが動く報知画像Gを報知装置29に表示させる。一方で、報知制御部65は、演奏装置24による発音が停止している場合(つまりイベントデータE1で強度が指定されていない場合)は、仮想演奏者Vが演奏を停止した報知画像Gを報知装置29に表示させる。以上の説明から理解される通り、報知制御部65は、通常動作の制御において、演奏データのベロシティで指定される強度を、当該各関節部Aに付与される力の大きさとして流用する。
また、報知制御部65は、楽曲ファイルMに演奏データとともに含まれる動作データに応じて指示動作を制御する。ここで、動作データは、演奏データとは独立のデータであり、指示動作を指定する。指示動作は、演奏データとは別個の動作データにより指定されるから、通常動作とは独立に指示動作を指定できるという利点がある。
具体的には、動作データは、図2に示す通り、指示内容を示すイベントデータE2と、当該イベントデータE2の発生時点を示す時間データT2とが配列された時系列データである。動作データは、仮想演奏者Vの特殊な動きの内容(以下「動作内容」という)とその動きの時間長とを指定する。例えば、動作内容はMIDIのノートナンバとして指定され、時間長はMIDIのベロシティとして指定される。時間データT2は、例えば相前後するイベントデータE2の間隔Δt(デルタタイム)を指定する。
具体的には、報知制御部65は、動作データに応じて関節部Aを駆動することで報知装置29に指示動作を実行させる。報知制御部65は、図2の動作データで指定される動作内容と時間長とに応じて各関節部Aを駆動することで、各関節部Aおよび各可動要素Cが動く報知画像Gを報知装置29に表示させる。報知制御部65は、例えば、動作データにおいて、動作内容として「上げる」が指定され、時間長として「1秒間」が指定されている場合、「上げる」の動作内容について事前に設定された力を各関節部Aに付与し、各関節部Aを「1秒間」にわたり駆動することで、1秒間かけて上肢を高い位置に上げる報知画像Gを報知装置29に表示させる。例えば対象楽曲の開始点および長い休符からの再開点において指示動作が完了するように、動作データの時間長は指定される。以上の説明から理解される通り、報知装置29と報知制御部65は、自動演奏の進行を演奏者Pに視覚的に報知する報知部70として機能する。
なお、指示動作は通常動作に並行して実行され得る。すなわち、演奏データに応じて各関節部Aに付与される力に、動作データで指定される動作内容に対応した力が加算される。ここで、指示動作および通常動作を実現する構成としては、例えば指示動作による各関節部Aの位置と通常動作による各関節部Aの位置とを指定するデータを利用する構成(以下「対比例」という)も想定される。しかし、対比例では、通常動作の継続中に指示動作が開始した時点および指示動作が終了する時点で各関節部Aの位置が不連続に移動する可能性がある。実施形態では、演奏データや動作データに応じた力が各関節部Aに作用する様子が模擬されるから、通常動作の継続中に指示動作が発生した場合でも各関節部Aおよび各可動要素Cの位置が連続的に変化する。したがって、仮想演奏者Vがより自然に動く報知画像Gが表示される。ただし、対比例の構成も本発明の範囲には包含され得る。
図4は、制御装置28の動作のフローチャートである。例えば、演奏装置24に対して利用者から起動の指示が付与されたことを契機として、図4の処理が開始される。図4の処理を開始すると、報知制御部65は、ピアノの演奏を開始する直前(例えば鍵盤に手を置いて静止している状態)の仮想演奏者Vを模擬した報知画像Gを報知装置29に表示させる(S1)。報知制御部65は、対象楽曲の開始を報知するための指示動作を報知装置29に実行させる(S2)。複数の演奏者Pは、報知装置29が実行する指示動作により変化する(仮想演奏者Vが上肢を高く上げる動きをする)報知画像Gを視認することで対象楽曲の演奏開始のタイミングを把握して、実演奏を開始する。
演奏解析部61は、収音装置26から供給される音響信号Sの解析により演奏位置Tを推定する(S3)。演奏制御部63は、演奏解析部61が推定した演奏位置Tに応じた演奏内容を演奏装置24に対して指示する(S4)。報知制御部65は、通常動作および指示動作を報知装置29に実行させる(S5)。具体的には、報知制御部65は、仮想演奏者Vの複数の関節部Aの各々を演奏データまたは動作データに応じて駆動することで報知画像Gが変化するように報知装置29を制御する。自動演奏が終了しない場合(S6;NO)、つまり対象楽曲の演奏が継続している場合、ステップS3からステップS5までの処理が繰り返される。自動演奏が終了する場合(S6;YES)、例えば対象楽曲の全部の演奏が終了した場合、または、利用者が自動演奏の終了を指示した場合、図4の処理を終了する。
以上に例示した実施形態では、演奏装置24の自動演奏の進行が実演奏の演奏者Pに視覚的に報知される。したがって、演奏装置24の自動演奏の進行が視覚的に報知されない構成、例えば演奏装置24の演奏音を聴くことで演奏装置24の自動演奏の進行を実演奏の演奏者が把握する構成と比較して、実演奏の演奏者Pは、演奏装置24の自動演奏の進行を聴覚的にだけでなく視覚的にも確認することができる。ひいては、演奏装置24による自動演奏の進行を実演奏の演奏者Pがより適切に把握することが可能である。
また、本実施形態では、実演奏の進行に同期するように実演奏に並行して自動演奏がされる一方、報知画像Gが報知装置29に表示されるので、実演奏の進行に同期する自動演奏の進行を演奏者Pが視覚的に確認して自身の演奏に反映させることが可能である。したがって、複数の演奏者Pによる演奏と演奏装置24による自動演奏とが相互に作用し合う自然な合奏が実現される。
<変形例>
以上に例示した態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の実施形態では、自然楽器と同様の発音機構42を駆動機構44により機械的に作動させることで対象楽曲を演奏する自動演奏を例示したが、指示された音を表す音響信号Sを生成する音源装置を電気的に駆動することで対象楽曲を演奏(例えばカラオケ演奏)する自動演奏にも本発明を適用することが可能である。
(2)前述の実施形態では、報知制御部65は、自動演奏の進行とともに変化する報知画像Gを報知装置29に表示させることで、自動演奏の進行を報知する動作を実行させたが、報知装置29に自動演奏の進行を報知する動作を実行させる方法は以上の例示に限定されない。例えば、複数の関節部と複数の可動要素とで構成されて人間の容姿および動作を模擬できるロボットを報知装置29とし、報知制御部65は、自動演奏の進行とともに報知装置29の各関節部Aを機械的に作動させることで、自動演奏の進行を報知する動作を実行させることも可能である。以上の説明から理解される通り、報知制御部65は、自動演奏の進行を演奏者Pに視覚的に報知する動作を報知装置29に実行させる要素として包括的に表現される。ただし、自動演奏の進行とともに変化する報知画像Gを報知装置29に表示させる前述の形態によれば、演奏者Pは報知画像Gにより自動演奏の進行を把握することができる。
(3)前述の実施形態では、報知制御部65は、通常動作と指示動作とを報知装置29に実行させたが、自動演奏の進行を演奏者Pに視覚的に報知する動作であれば動作内容は任意である。例えば、通常動作のみを演奏装置24に実行させることも可能である。だたし、通常動作と指示動作とを報知装置29に実行させる前述の形態によれば、通常動作のみを演奏装置24に実行させる構成と比較して、楽曲の開始点および長い休符からの再開点等の特定の区間における演奏タイミングを指示動作により実演奏の演奏者Pに報知することが可能である。
(4)前述の実施形態では、報知画像Gは、関節部Aにより連結された複数の要素を含む画像であったが、報知画像Gの態様は任意である。例えば円または四角形等の抽象的な図形またはその組合せを報知画像Gとすることも可能である。ただし、関節部Aにより連結された複数の要素を含む画像を報知画像Gとする前述の形態では、関節部Aを介して各要素が運動する報知画像G(例えば人間等の生物を模擬した画像)により自動演奏の進行を直観的または視覚的に把握することができる。
(5)前述の実施形態では、報知制御部65は、演奏データに応じて通常動作を制御したが、演奏データとは別個のデータに応じて通常動作を制御することも可能である。だたし、演奏データに応じて通常動作を制御する前述の実施形態によれば、自動演奏を指示する演奏データが通常動作の制御に流用されるから、演奏データとは別個のデータで通常動作を制御する構成と比較して、演奏システム100で使用されるデータが簡素化されるという利点がある。
(6)前述の実施形態では、演奏制御部63は、演奏位置Tに対応する時点について演奏データが指定する演奏内容を演奏装置24に指示することで、実演奏の進行に同期するように実演奏に並行して対象楽曲の自動演奏を演奏装置24に実行させたが、実演奏の進行に自動演奏を同期させる方法は以上の例示に限定されない。ここで、演奏制御部63が演奏データの出力により演奏装置24に自動演奏を指示してから演奏装置24が実際に発音する(例えば発音機構42のハンマが打弦する)までには数百ミリ秒程度の時間が必要である。すなわち、演奏制御部63からの指示に対して演奏装置24による実際の発音は不可避的に遅延する。そこで、演奏制御部63が、対象楽曲のうち演奏解析部61が推定した演奏位置Tに対して後方(未来)の時点の演奏を演奏装置24に指示することも可能である。
(7)前述の実施形態では、演奏制御部63は、対象楽曲の実演奏の進行に同期するように当該実演奏に並行して対象楽曲の自動演奏を演奏装置24に実行させたが、実演奏の進行に同期するように自動演奏を実行させる処理は必須ではない。
(8)前述の実施形態で例示した通り、演奏システム100は、制御装置28とプログラムとの協働で実現される。本発明の好適な態様に係るプログラムは、対象楽曲の実演奏の進行に同期するように当該実演奏に並行して対象楽曲の自動演奏を演奏装置24に実行させる演奏制御部63、および、自動演奏の進行を実演奏の演奏者Pに視覚的に報知する動作を報知装置29に実行させる報知制御部65としてコンピュータを機能させる。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、通信網を介した配信の形態でプログラムをコンピュータに配信することも可能である。
(9)本発明の好適な態様は、前述の実施形態に係る演奏システム100の動作方法(自動演奏方法)としても特定される。例えば、本発明の好適な態様に係る自動演奏方法は、コンピュータ(単体のコンピュータ、または複数のコンピュータで構成されるシステム)が、対象楽曲の実演奏の進行に同期するように当該実演奏に並行して対象楽曲の自動演奏を演奏装置24に実行させ、自動演奏の進行を実演奏の演奏者Pに視覚的に報知する動作を報知装置29に実行させる。
(10)前述の各形態に例示した構成は、以下のように表現され得る。
[態様1]
本発明の好適な態様(態様1)に係る演奏システム100は、楽曲の自動演奏を演奏装置24に実行させる演奏制御部63と、自動演奏の進行を楽曲の実演奏の演奏者Pに視覚的に報知する動作を報知装置29に実行させる報知制御部65とを具備する。態様1では、演奏装置24の自動演奏の進行が実演奏の演奏者Pに視覚的に報知される。したがって、演奏装置24の自動演奏の進行が視覚的に報知されない構成、例えば演奏装置24の演奏音を聴くことで演奏装置24の自動演奏の進行を実演奏の演奏者Pが把握する構成と比較して、実演奏の演奏者Pは、演奏装置24の自動演奏の進行を聴覚的にだけでなく視覚的にも確認することができる。ひいては、演奏装置24による自動演奏の進行を実演奏の演奏者Pがより適切に把握することが可能である。
[態様2]
態様1の好適例(態様2)において、演奏制御部63は、実演奏の進行に同期するように当該実演奏に並行して自動演奏を演奏装置24に実行させる。態様2では、楽曲の実演奏に同期した演奏装置24の自動演奏の進行が実演奏の演奏者Pに視覚的に報知される。したがって、実演奏の演奏者Pは、実演奏の進行に同期した自動演奏の進行を視覚的に把握することができる。ひいては、実演奏と自動演奏とが相互に作用し合う自然な合奏が実現される。
[態様3]
態様1または態様2の好適例(態様3)において、報知制御部65は、楽曲の演奏中に継続する動作である通常動作と、楽曲内の特定の区間内で発生する動作である指示動作とを報知装置29に実行させる。態様3では、楽曲の演奏中に継続する動作である通常動作と、楽曲内の特定の区間内で発生する動作である指示動作とにより自動演奏の進行が報知される。したがって、例えば楽曲の演奏中に継続する動作である通常動作のみで演奏装置24の自動演奏の進行を報知する構成と比較して、楽曲の開始点および長い休符からの再開点等の特定の区間における演奏タイミングを指示動作により実演奏の演奏者Pに報知することか可能である。
[態様4]
態様3の好適例(態様4)において、演奏制御部63は、楽曲の演奏内容を指定する演奏データを利用して当該楽曲の自動演奏を演奏装置24に実行させ、報知制御部65は、演奏データに応じて通常動作を制御し、演奏データとは独立の動作データに応じて指示動作を制御する。態様4では、自動演奏を指示する演奏データが通常動作の制御に流用されるから、演奏データとは別個のデータで通常動作を制御する構成と比較して、演奏システム100で使用されるデータが簡素化されるという利点がある。また、指示動作については、演奏データとは別個の動作データにより指定されるから、通常動作とは独立に指示動作を指定できる。
[態様5]
態様4の好適例(態様5)において、演奏データと動作データは相異なるチャンネルとして1個の楽曲ファイルMに含まれる。態様5では、演奏データと動作データとが相異なるチャンネルとして1個の楽曲ファイルMに含まれる。したがって、演奏データと動作データとの各々が別個の楽曲ファイルMに含まれる構成と比較して、演奏データと動作データとの取り扱いが容易になる。
[態様6]
態様1から態様5の何れかの好適例(態様6)において、報知装置29は、報知画像Gを表示し、報知制御部65は、報知画像Gが自動演奏の進行とともに変化するように報知装置29を制御する。態様6では、自動演奏の進行とともに変化する報知画像Gが表示される。したがって、実演奏の演奏者Pは報知画像Gにより自動演奏の進行を把握することができる。
[態様7]
態様6の好適例(態様7)において、報知画像Gは、関節部Aにより連結された複数の要素Cを含む画像であり、報知制御部65は、自動演奏の進行とともに関節部Aを駆動することにより報知画像Gが変化するように報知装置29を制御する。態様7では、関節部Aにより連結された複数の要素Cを含む報知画像Gが表示され、自動演奏とともに各関節部Aを駆動することにより報知画像Gを変化させることで自動演奏の進行を報知する。したがって、実演奏の演奏者Pは、関節部Aを介して各要素Cが運動する報知画像G(例えば人間等の生物を模擬した画像)により自動演奏の進行を直観的または視覚的に把握することができる。
[態様8]
本発明の好適な態様(態様8)に係る自動演奏方法は、コンピュータが、楽曲の自動演奏を演奏装置24に実行させ、自動演奏の進行を楽曲の実演奏の演奏者Pに視覚的に報知する動作を報知装置29に実行させる。態様8によれば、態様1の演奏システム100と同様の効果が実現される。
100…演奏システム、22…記憶装置、24…演奏装置、26…収音装置、28…制御装置、29…報知装置、42…発音機構、44…駆動機構、61…演奏解析部、63…演奏制御部、65…報知制御部、70…報知部。

Claims (8)

  1. 楽曲の自動演奏を演奏装置に実行させる演奏制御部と、
    前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる報知制御部とを具備し、
    前記動作は、前記楽曲の自動演奏の開始前から開始されて当該楽曲の開始点を報知する指示動作を含む
    演奏システム。
  2. 楽曲の自動演奏を演奏装置に実行させる演奏制御部と、
    前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる報知制御部とを具備し、
    前記動作は、前記楽曲の自動演奏における休符後の再開前から開始されて当該楽曲の再開点を報知する指示動作を含む
    演奏システム。
  3. 前記報知装置は、複数の関節部と複数の可動要素とで構成されたロボットであり、
    前記報知制御部は、前記自動演奏に並行して前記複数の関節部の各々を作動させる
    請求項1または請求項2の演奏システム。
  4. コンピュータが、
    楽曲の自動演奏を演奏装置に実行させ、
    前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる自動演奏方法であって、
    前記動作は、前記楽曲の自動演奏の開始前から開始されて当該楽曲の開始点を報知する指示動作を含む
    自動演奏方法。
  5. コンピュータが、
    楽曲の自動演奏を演奏装置に実行させ、
    前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる自動演奏方法であって、
    前記動作は、前記楽曲の自動演奏における休符後の再開前から開始されて当該楽曲の再開点を報知する指示動作を含む
    自動演奏方法。
  6. 前記報知装置は、複数の関節部と複数の可動要素とで構成されたロボットであり、
    前記報知装置に前記動作を実行させる処理においては、前記自動演奏に並行して前記複数の関節部の各々を作動させる
    請求項4または請求項5の自動演奏方法。
  7. 楽曲の自動演奏を演奏装置に実行させる演奏制御部、および、
    前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる報知制御部、としてコンピュータを機能させるプログラムであって、
    前記動作は、前記楽曲の自動演奏の開始前から開始されて当該楽曲の開始点を報知する指示動作を含む
    プログラム。
  8. 楽曲の自動演奏を演奏装置に実行させる演奏制御部、および、
    前記自動演奏の進行を前記楽曲の実演奏の演奏者に視覚的に報知する動作を報知装置に実行させる報知制御部、としてコンピュータを機能させるプログラムであって、
    前記動作は、前記楽曲の自動演奏における休符後の再開前から開始されて当該楽曲の再開点を報知する指示動作を含む
    プログラム。

JP2016200584A 2016-10-12 2016-10-12 演奏システム、自動演奏方法およびプログラム Active JP6809112B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016200584A JP6809112B2 (ja) 2016-10-12 2016-10-12 演奏システム、自動演奏方法およびプログラム
US15/728,803 US10140965B2 (en) 2016-10-12 2017-10-10 Automated musical performance system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016200584A JP6809112B2 (ja) 2016-10-12 2016-10-12 演奏システム、自動演奏方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018063315A JP2018063315A (ja) 2018-04-19
JP6809112B2 true JP6809112B2 (ja) 2021-01-06

Family

ID=61829105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016200584A Active JP6809112B2 (ja) 2016-10-12 2016-10-12 演奏システム、自動演奏方法およびプログラム

Country Status (2)

Country Link
US (1) US10140965B2 (ja)
JP (1) JP6809112B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6776788B2 (ja) * 2016-10-11 2020-10-28 ヤマハ株式会社 演奏制御方法、演奏制御装置およびプログラム
JP6699677B2 (ja) * 2018-02-06 2020-05-27 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5005459A (en) * 1987-08-14 1991-04-09 Yamaha Corporation Musical tone visualizing apparatus which displays an image of an animated object in accordance with a musical performance
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US5890116A (en) * 1996-09-13 1999-03-30 Pfu Limited Conduct-along system
US6166314A (en) * 1997-06-19 2000-12-26 Time Warp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US6087577A (en) * 1997-07-01 2000-07-11 Casio Computer Co., Ltd. Music navigator with visual image presentation of fingering motion
JP3728942B2 (ja) * 1998-03-24 2005-12-21 ヤマハ株式会社 楽音および画像生成装置
JP3601350B2 (ja) * 1998-09-29 2004-12-15 ヤマハ株式会社 演奏画像情報作成装置および再生装置
US6448483B1 (en) * 2001-02-28 2002-09-10 Wildtangent, Inc. Dance visualization of music
JP3823855B2 (ja) 2002-03-18 2006-09-20 ヤマハ株式会社 記録装置、再生装置、記録方法、再生方法及び同期再生システム
US8170239B2 (en) * 2007-02-14 2012-05-01 Ubiquity Holdings Inc. Virtual recording studio
US8088985B1 (en) * 2009-04-16 2012-01-03 Retinal 3-D, L.L.C. Visual presentation system and related methods
WO2012051605A2 (en) * 2010-10-15 2012-04-19 Jammit Inc. Dynamic point referencing of an audiovisual performance for an accurate and precise selection and controlled cycling of portions of the performance
US8912419B2 (en) * 2012-05-21 2014-12-16 Peter Sui Lun Fong Synchronized multiple device audio playback and interaction
WO2014137311A1 (en) * 2013-03-04 2014-09-12 Empire Technology Development Llc Virtual instrument playing scheme
US9275617B2 (en) * 2014-04-03 2016-03-01 Patrice Mary Regnier Systems and methods for choreographing movement using location indicators
US9711118B2 (en) * 2016-06-16 2017-07-18 Tonatiuh Adrian Gimate-Welsh Music dissection and puzzle

Also Published As

Publication number Publication date
US20180102119A1 (en) 2018-04-12
US10140965B2 (en) 2018-11-27
JP2018063315A (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
EP0744068B1 (en) Music instrument which generates a rhythm visualization
US5491297A (en) Music instrument which generates a rhythm EKG
JP6776788B2 (ja) 演奏制御方法、演奏制御装置およびプログラム
JP6801225B2 (ja) 自動演奏システムおよび自動演奏方法
JP4457983B2 (ja) 演奏操作援助装置及びプログラム
US11557269B2 (en) Information processing method
JP7432124B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6809112B2 (ja) 演奏システム、自動演奏方法およびプログラム
JP4650182B2 (ja) 自動伴奏装置及びプログラム
CN114446266A (zh) 音响处理系统、音响处理方法及程序
JP2007264026A (ja) 演奏装置
JP6492629B2 (ja) 歌唱生成装置、電子楽器、方法、およびプログラム
JP6838357B2 (ja) 音響解析方法および音響解析装置
JP6977813B2 (ja) 自動演奏システムおよび自動演奏方法
Hödl et al. Exploring the design space of hand-controlled guitar effects for live music
JP2007264025A (ja) 演奏装置
WO2022101968A1 (ja) 信号処理装置、信号処理システム、及び信号処理方法
JP2002366148A (ja) 演奏データ編集装置及び方法並びにプログラム
Martin Percussion and computer in live performance
JP2022010066A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023154288A (ja) 制御装置
JP3876896B2 (ja) 波形生成方法及び装置
Deliverable Models and Algorithms for Control of Sounding Objects
JP2002091430A (ja) 演奏動作表示装置、及び記録媒体
JP2002099275A (ja) 演奏動作表示装置、及び記録媒体

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20161109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201123

R151 Written notification of patent or utility model registration

Ref document number: 6809112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151