JP2017207615A - 自動演奏システムおよび自動演奏方法 - Google Patents

自動演奏システムおよび自動演奏方法 Download PDF

Info

Publication number
JP2017207615A
JP2017207615A JP2016099642A JP2016099642A JP2017207615A JP 2017207615 A JP2017207615 A JP 2017207615A JP 2016099642 A JP2016099642 A JP 2016099642A JP 2016099642 A JP2016099642 A JP 2016099642A JP 2017207615 A JP2017207615 A JP 2017207615A
Authority
JP
Japan
Prior art keywords
performance
automatic
automatic performance
music
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016099642A
Other languages
English (en)
Other versions
JP6801225B2 (ja
Inventor
陽 前澤
Akira Maezawa
陽 前澤
山本 和彦
Kazuhiko Yamamoto
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016099642A priority Critical patent/JP6801225B2/ja
Priority to US15/597,675 priority patent/US10235980B2/en
Publication of JP2017207615A publication Critical patent/JP2017207615A/ja
Priority to US16/256,103 priority patent/US10482856B2/en
Priority to JP2020084042A priority patent/JP6977813B2/ja
Application granted granted Critical
Publication of JP6801225B2 publication Critical patent/JP6801225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/121Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of a musical score, staff or tablature
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/131Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for abstract geometric visualisation of music, e.g. for interactive editing of musical parameters linked to abstract geometric figures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】演奏者による演奏と自動演奏装置による自動演奏とを含む合奏の自然性を改善する。
【解決手段】自動演奏システム100は、楽曲を演奏する演奏者Pの合図動作を検出する合図検出部52と、演奏された音を表す音響信号Aを当該演奏に並行して解析することで楽曲内の演奏位置Tを順次に推定する演奏解析部54と、合図検出部52が検出する合図動作と演奏解析部54が推定する演奏位置Tの進行とに同期するように楽曲の自動演奏を自動演奏装置24に実行させる演奏制御部56と、自動演奏の進行を表す画像を表示装置26に表示させる表示制御部58とを具備する。
【選択図】図1

Description

本発明は、自動演奏に関する。
楽曲を演奏した音の解析により、楽曲内で現に演奏されている位置(以下「演奏位置」という)を推定するスコアアライメント技術が従来から提案されている(例えば特許文献1)。
特開2015−79183号公報
他方、楽曲の演奏内容を表す楽曲データを利用して鍵盤楽器等の楽器を発音させる自動演奏技術が普及している。演奏位置の解析結果を自動演奏に適用すれば、演奏者による楽器の演奏に同期した自動演奏が実現され得る。しかし、自動演奏を楽器の演奏に単に追従させるだけでは、複数の演奏者が相互に挙動を確認しながら楽曲を演奏するという現実の合奏の傾向を再現することは困難である。以上の事情を考慮して、本発明は、演奏者による演奏と自動演奏装置による自動演奏とを含む合奏の自然性を改善することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る自動演奏システムは、楽曲を演奏する演奏者の合図動作を検出する合図検出部と、演奏された音を表す音響信号を当該演奏に並行して解析することで楽曲内の演奏位置を順次に推定する演奏解析部と、合図検出部が検出する合図動作と演奏解析部が推定する演奏位置の進行とに同期するように楽曲の自動演奏を自動演奏装置に実行させる演奏制御部と、自動演奏の進行を表す画像を表示装置に表示させる表示制御部とを具備する。以上の構成では、演奏者による合図動作と演奏位置の進行とに同期するように自動演奏装置による自動演奏が実行される一方、自動演奏装置による自動演奏の進行を表す画像が表示装置に表示される。したがって、自動演奏装置による自動演奏の進行を演奏者が視覚的に確認して自身の演奏に反映させることが可能である。すなわち、演奏者による演奏と自動演奏装置による自動演奏とが相互に作用し合う自然な演奏が実現される。
本発明の好適な態様において、演奏制御部は、楽曲のうち演奏解析部が推定した演奏位置に対して後方の時点の演奏を自動演奏装置に指示する。以上の態様では、演奏解析部が推定した演奏位置に対して時間的に後方の時点の演奏内容が自動演奏装置に指示される。したがって、演奏制御部による演奏の指示に対して自動演奏装置による実際の発音が遅延する場合でも、演奏者による演奏と自動演奏とを高精度に同期させることが可能である。
本発明の好適な態様において、演奏解析部は、音響信号の解析により演奏速度を推定し、演奏制御部は、楽曲のうち、演奏解析部が推定した演奏位置に対して演奏速度に応じた調整量だけ後方の時点の演奏を、自動演奏装置に指示する。以上の態様では、演奏解析部が推定した演奏速度に応じた可変の調整量だけ演奏位置に対して後方の時点の演奏が自動演奏装置に指示される。したがって、例えば演奏速度が変動する場合でも、演奏者による演奏と自動演奏とを高精度に同期させることが可能である。
合図検出部は、撮像装置が演奏者を撮像した画像の解析により合図動作を検出する。以上の態様では、撮像装置が撮像した画像の解析により演奏者の合図動作が検出されるから、例えば演奏者の身体に装着した検出器により合図動作を検出する場合と比較して、演奏者による演奏に対する影響を低減しながら合図動作を検出できるという利点がある。
表示制御部は、自動演奏による演奏内容に応じて動的に変化する画像を表示装置に表示させる。以上の態様では、自動演奏による演奏内容に応じて動的に変化する画像が表示装置に表示されるから、演奏者が自動演奏の進行を視覚的および直観的に把握できるという利点がある。
本発明の好適な態様に係る自動演奏方法は、コンピュータシステムが、楽曲を演奏する演奏者の合図動作を検出し、演奏された音を表す音響信号を当該演奏に並行して解析することで楽曲内の演奏位置を順次に推定し、合図動作と演奏位置の進行とに同期するように楽曲の自動演奏を自動演奏装置に実行させ、自動演奏の進行を表す画像を表示装置に表示させる。
本発明の実施形態に係る自動演奏システムの構成図である。 合図動作および演奏位置の説明図である。 画像合成部による画像合成の説明図である。 対象楽曲の演奏位置と自動演奏の指示位置との関係の説明図である。 合図動作の位置と対象楽曲の演奏の始点との関係の説明図である。 演奏画像の説明図である。 演奏画像の説明図である。 制御装置の動作のフローチャートである。
図1は、本発明の好適な形態に係る自動演奏システム100の構成図である。自動演奏システム100は、複数の演奏者Pが楽器を演奏する音響ホール等の空間に設置され、複数の演奏者Pによる楽曲(以下「対象楽曲」という)の演奏に並行して対象楽曲の自動演奏を実行するコンピュータシステムである。なお、演奏者Pは、典型的には楽器の演奏者であるが、対象楽曲の歌唱者も演奏者Pであり得る。すなわち、本出願における「演奏」には、楽器の演奏だけでなく歌唱も包含される。また、実際には楽器の演奏を担当しない者(例えば、コンサート時の指揮者やレコーディング時の音響監督など)も、演奏者Pに含まれ得る。
図1に例示される通り、本実施形態の自動演奏システム100は、制御装置12と記憶装置14と収録装置22と自動演奏装置24と表示装置26とを具備する。制御装置12と記憶装置14とは、例えばパーソナルコンピュータ等の情報処理装置で実現される。
制御装置12は、例えばCPU(Central Processing Unit)等の処理回路であり、自動演奏システム100の各要素を統括的に制御する。記憶装置14は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体、あるいは複数種の記録媒体の組合せで構成され、制御装置12が実行するプログラムと制御装置12が使用する各種のデータとを記憶する。なお、自動演奏システム100とは別体の記憶装置14(例えばクラウドストレージ)を用意し、移動体通信網またはインターネット等の通信網を介して制御装置12が記憶装置14に対する書込および読出を実行することも可能である。すなわち、記憶装置14は自動演奏システム100から省略され得る。
本実施形態の記憶装置14は、楽曲データMを記憶する。楽曲データMは、自動演奏による対象楽曲の演奏内容を指定する。例えばMIDI(Musical Instrument Digital Interface)規格に準拠した形式のファイル(SMF:Standard MIDI File)が楽曲データMとして好適である。具体的には、楽曲データMは、演奏内容を示す指示データと、当該指示データの発生時点を示す時間データとが配列された時系列データである。指示データは、音高(ノートナンバ)と強度(ベロシティ)とを指定して発音および消音等の各種のイベントを指示する。時間データは、例えば相前後する指示データの間隔(デルタタイム)を指定する。
図1の自動演奏装置24は、制御装置12による制御のもとで対象楽曲の自動演奏を実行する。具体的には、対象楽曲を構成する複数の演奏パートのうち、複数の演奏者Pの演奏パート(例えば弦楽器)とは別個の演奏パートが、自動演奏装置24により自動演奏される。本実施形態の自動演奏装置24は、駆動機構242と発音機構244とを具備する鍵盤楽器(すなわち自動演奏ピアノ)である。発音機構244は、自然楽器のピアノと同様に、鍵盤の各鍵の変位に連動して弦(すなわち発音体)を発音させる打弦機構である。具体的には、発音機構244は、弦を打撃可能なハンマと、鍵の変位をハンマに伝達する複数の伝達部材(例えばウィペン,ジャック,レペティションレバー)とで構成されるアクション機構を鍵毎に具備する。駆動機構242は、発音機構244を駆動することで対象楽曲の自動演奏を実行する。具体的には、駆動機構242は、各鍵を変位させる複数の駆動体(例えばソレノイド等のアクチュエータ)と、各駆動体を駆動する駆動回路とを含んで構成される。制御装置12からの指示に応じて駆動機構242が発音機構244を駆動することで、対象楽曲の自動演奏が実現される。なお、自動演奏装置24に制御装置12または記憶装置14を搭載することも可能である。
収録装置22は、複数の演奏者Pが対象楽曲を演奏する様子を収録する。図1に例示される通り、本実施形態の収録装置22は、複数の撮像装置222と複数の収音装置224とを具備する。撮像装置222は、演奏者P毎に設置され、演奏者Pの撮像により画像信号V0を生成する。画像信号V0は、演奏者Pの動画像を表す信号である。収音装置224は、演奏者P毎に設置され、演奏者Pによる楽器の演奏で発音された音(例えば楽音または歌唱音)を収音して音響信号A0を生成する。音響信号A0は、音の波形を表す信号である。以上の説明から理解される通り、相異なる演奏者Pを撮像した複数の画像信号V0と、相異なる演奏者Pが演奏した音を収音した複数の音響信号A0とが収録される。なお、電気弦楽器等の電気楽器から出力される音響信号A0を利用することも可能である。したがって、収音装置224は省略され得る。
制御装置12は、記憶装置14に記憶されたプログラムを実行することで、対象楽曲の自動演奏を実現するための複数の機能(合図検出部52,演奏解析部54,演奏制御部56,表示制御部58)を実現する。なお、制御装置12の機能を複数の装置の集合(すなわちシステム)で実現した構成、または、制御装置12の機能の一部または全部を専用の電子回路が実現した構成も採用され得る。また、収録装置22と自動演奏装置24と表示装置26とが設置された音響ホール等の空間から離間した位置にあるサーバ装置が、制御装置12の一部または全部の機能を実現することも可能である。
各演奏者Pは、対象楽曲の演奏の合図となる動作(以下「合図動作」という)を実行する。合図動作は、時間軸上の1個の時点を指示する動作(ジェスチャー)である。例えば、演奏者Pが自身の楽器を持上げる動作、または演奏者Pが自身の身体を動かす動作が、合図動作の好適例である。例えば対象楽曲の演奏を主導する特定の演奏者Pは、図2に例示される通り、対象楽曲の演奏を開始すべき始点に対して所定の期間(以下「準備期間」という)Bだけ手前の時点Qで合図動作を実行する。準備期間Bは、例えば対象楽曲の1拍分の時間長の期間である。したがって、準備期間Bの時間長は対象楽曲の演奏速度(テンポ)に応じて変動する。例えば演奏速度が速いほど準備期間Bは短い時間となる。演奏者Pは、対象楽曲に想定される演奏速度のもとで1拍分に相当する準備期間Bだけ対象楽曲の始点から手前の時点で合図動作を実行したうえで、当該始点の到来により対象楽曲の演奏を開始する。合図動作は、他の演奏者Pによる演奏の契機となるほか、自動演奏装置24による自動演奏の契機として利用される。なお、準備期間Bの時間長は任意であり、例えば複数拍分の時間長とすることも可能である。
図1の合図検出部52は、演奏者Pによる合図動作を検出する。具体的には、合図検出部52は、各撮像装置222が演奏者Pを撮像した画像を解析することで合図動作を検出する。図1に例示される通り、本実施形態の合図検出部52は、画像合成部522と検出処理部524とを具備する。画像合成部522は、複数の撮像装置222が生成した複数の画像信号V0を合成することで画像信号Vを生成する。画像信号Vは、図3に例示される通り、各画像信号V0が表す複数の動画像(#1,#2,#3,……)を配列した画像を表す信号である。すなわち、複数の演奏者Pの動画像を表す画像信号Vが画像合成部522から検出処理部524に供給される。
検出処理部524は、画像合成部522が生成した画像信号Vを解析することで複数の演奏者Pの何れかによる合図動作を検出する。検出処理部524による合図動作の検出には、演奏者Pが合図動作の実行時に移動させる要素(例えば身体や楽器)を画像から抽出する画像認識処理と、当該要素の移動を検出する動体検出処理とを含む公知の画像解析技術が使用され得る。また、ニューラルネットワークまたは多分木等の識別モデルを合図動作の検出に利用することも可能である。例えば、複数の演奏者Pによる演奏を撮像した画像信号から抽出された特徴量を所与の学習データとして利用して、識別モデルの機械学習(例えばディープラーニング)が事前に実行される。検出処理部524は、実際に自動演奏が実行される場面で画像信号Vから抽出した特徴量を機械学習後の識別モデルに適用することで合図動作を検出する。
図1の演奏解析部54は、対象楽曲のうち複数の演奏者Pが現に演奏している位置(以下「演奏位置」という)Tを各演奏者Pによる演奏に並行して順次に推定する。具体的には、演奏解析部54は、複数の収音装置224の各々が収音した音を解析することで演奏位置Tを推定する。図1に例示される通り、本実施形態の演奏解析部54は、音響混合部542と解析処理部544とを具備する。音響混合部542は、複数の収音装置224が生成した複数の音響信号A0を混合することで音響信号Aを生成する。すなわち、音響信号Aは、相異なる音響信号A0が表す複数種の音の混合音を表す信号である。
解析処理部544は、音響混合部542が生成した音響信号Aの解析により演奏位置Tを推定する。例えば、解析処理部544は、音響信号Aが表す音と楽曲データMが示す対象楽曲の演奏内容とを相互に照合することで演奏位置Tを特定する。また、本実施形態の解析処理部544は、対象楽曲の演奏速度(テンポ)Rを音響信号Aの解析により推定する。例えば、解析処理部544は、演奏位置Tの時間変化から演奏速度Rを特定する。なお、解析処理部544による演奏位置Tおよび演奏速度Rの推定には、公知の音響解析技術(スコアアライメント)が任意に採用され得る。例えば、特許文献1に開示された解析技術を演奏位置Tおよび演奏速度Rの推定に利用することが可能である。また、ニューラルネットワークまたは多分木等の識別モデルを演奏位置Tおよび演奏速度Rの推定に利用することも可能である。例えば、複数の演奏者Pによる演奏を収音した音響信号Aから抽出された特徴量を所与の学習データとして利用して、識別モデルの機械学習(例えばディープラーニング)が事前に実行される。解析処理部544は、実際に自動演奏が実行される場面で音響信号Aから抽出した特徴量を機械学習後の識別モデルに適用することで演奏位置Tおよび演奏速度Rを推定する。
合図検出部52による合図動作の検出と演奏解析部54による演奏位置Tおよび演奏速度Rの推定とは、複数の演奏者Pによる対象楽曲の演奏に並行して実時間的に実行される。例えば、合図動作の検出と演奏位置Tおよび演奏速度Rの推定とが所定の周期で反復される。ただし、合図動作の検出の周期と演奏位置Tおよび演奏速度Rの推定の周期との異同は不問である。
図1の演奏制御部56は、合図検出部52が検出する合図動作と演奏解析部54が推定する演奏位置Tの進行とに同期するように自動演奏装置24に対象楽曲の自動演奏を実行させる。具体的には、演奏制御部56は、合図検出部52による合図動作の検出を契機として自動演奏の開始を自動演奏装置24に対して指示するとともに、対象楽曲のうち演奏位置Tに対応する時点について楽曲データMが指定する演奏内容を自動演奏装置24に指示する。すなわち、演奏制御部56は、対象楽曲の楽曲データMに含まれる各指示データを自動演奏装置24に対して順次に供給するシーケンサである。自動演奏装置24は、演奏制御部56からの指示に応じて対象楽曲の自動演奏を実行する。複数の演奏者Pによる演奏の進行とともに演奏位置Tは対象楽曲内の後方に移動するから、自動演奏装置24による対象楽曲の自動演奏も演奏位置Tの移動とともに進行する。以上の説明から理解される通り、対象楽曲の各音の強度またはフレーズ表現等の音楽表現を楽曲データMで指定された内容に維持したまま、演奏のテンポと各音のタイミングとは複数の演奏者Pによる演奏に同期する(すなわち楽曲データMで指定された内容から変化する)ように、演奏制御部56は自動演奏装置24に自動演奏を指示する。したがって、例えば特定の演奏者(例えば現在では生存していない過去の演奏者)の演奏を表す楽曲データMを使用すれば、当該演奏者に特有の音楽表現を自動演奏で忠実に再現しながら、当該演奏者と実在の複数の演奏者Pとが恰も相互に呼吸を合わせて協調的に合奏しているかのような雰囲気を醸成することが可能である。
ところで、演奏制御部56が指示データの出力により自動演奏装置24に自動演奏を指示してから自動演奏装置24が実際に発音する(例えば発音機構244のハンマが打弦する)までには数百ミリ秒程度の時間が必要である。すなわち、演奏制御部56からの指示に対して自動演奏装置24による実際の発音は不可避的に遅延する。したがって、対象楽曲のうち演奏解析部54が推定した演奏位置T自体の演奏を演奏制御部56が自動演奏装置24に指示する構成では、複数の演奏者Pによる演奏に対して自動演奏装置24による発音が遅延する結果となる。
そこで、本実施形態の演奏制御部56は、図2に例示される通り、対象楽曲のうち演奏解析部54が推定した演奏位置Tに対して後方(未来)の時点TAの演奏を自動演奏装置24に指示する。すなわち、遅延後の発音が複数の演奏者Pによる演奏に同期する(例えば対象楽曲の特定の音符が自動演奏装置24と各演奏者Pとで略同時に演奏される)ように、演奏制御部56は対象楽曲の楽曲データM内の指示データを先読みする。
図4は、演奏位置Tの時間的な変化の説明図である。単位時間内の演奏位置Tの変動量(図4の直線の勾配)が演奏速度Rに相当する。図4では、演奏速度Rが一定に維持された場合が便宜的に例示されている。
図4に例示される通り、演奏制御部56は、対象楽曲のうち演奏位置Tに対して調整量αだけ後方の時点TAの演奏を自動演奏装置24に指示する。調整量αは、演奏制御部56による自動演奏の指示から自動演奏装置24が実際に発音するまでの遅延量Dと、演奏解析部54が推定した演奏速度Rとに応じて可変に設定される。具体的には、演奏速度Rのもとで遅延量Dの時間内に対象楽曲の演奏が進行する区間長を、演奏制御部56は調整量αとして設定する。したがって、演奏速度Rが速い(図4の直線の勾配が急峻である)ほど調整量αは大きい数値となる。なお、図4では対象楽曲の全区間にわたり演奏速度Rが一定に維持された場合を想定したが、実際には演奏速度Rは変動し得る。したがって、調整量αは、演奏速度Rに連動して経時的に変動する。
遅延量Dは、自動演奏装置24の測定結果に応じた所定値(例えば数十から数百ミリ秒程度)に事前に設定される。なお、実際の自動演奏装置24では、演奏される音高または強度に応じて遅延量Dが相違し得る。そこで、自動演奏の対象となる音符の音高または強度に応じて遅延量D(さらには遅延量Dに依存する調整量α)を可変に設定することも可能である。
また、演奏制御部56は、合図検出部52が検出する合図動作を契機として対象楽曲の自動演奏の開始を自動演奏装置24に指示する。図5は、合図動作と自動演奏との関係の説明図である。図5に例示される通り、演奏制御部56は、合図動作が検出された時点Qから時間長δが経過した時点QAで自動演奏装置24に対する自動演奏の指示を開始する。時間長δは、準備期間Bに相当する時間長τから自動演奏の遅延量Dを減算した時間長である。準備期間Bの時間長τは対象楽曲の演奏速度Rに応じて変動する。具体的には、演奏速度Rが速い(図5の直線の勾配が急峻である)ほど準備期間Bの時間長τは短くなる。ただし、合図動作の時点QAでは対象楽曲の演奏は開始されていないから、演奏速度Rは推定されていない。そこで、演奏制御部56は、対象楽曲に想定される標準的な演奏速度(標準テンポ)R0に応じて準備期間Bの時間長τを算定する。演奏速度R0は、例えば楽曲データMにて指定される。ただし、複数の演奏者Pが対象楽曲について共通に認識している速度(例えば演奏練習時に想定した速度)を演奏速度R0として設定することも可能である。
以上に説明した通り、演奏制御部56は、合図動作の時点QAから時間長δ(δ=τ−D)が経過した時点QAで自動演奏の指示を開始する。したがって、合図動作の時点Qから準備期間Bが経過した時点QB(すなわち、複数の演奏者Pが演奏を開始する時点)において、自動演奏装置24による発音が開始される。すなわち、複数の演奏者Pによる対象楽曲の演奏の開始と略同時に自動演奏装置24による自動演奏が開始される。本実施形態の演奏制御部56による自動演奏の制御は以上の例示の通りである。
図1の表示制御部58は、自動演奏装置24による自動演奏の進行を視覚的に表現した画像(以下「演奏画像」という)Gを表示装置26に表示させる。具体的には、表示制御部58は、演奏画像Gを表す画像データを生成して表示装置26に出力することで演奏画像Gを表示装置26に表示させる。表示装置26は、表示制御部58から指示された演奏画像Gを表示する。例えば液晶表示パネルまたはプロジェクタが表示装置26の好適例である。複数の演奏者Pは、表示装置26が表示する演奏画像Gを、対象楽曲の演奏に並行して随時に視認することが可能である。
本実施形態の表示制御部58は、自動演奏装置24による自動演奏に連動して動的に変化する動画像を演奏画像Gとして表示装置26に表示させる。図6および図7は、演奏画像Gの表示例である。図6および図7に例示される通り、演奏画像Gは、底面72が存在する仮想空間70に表示体(オブジェクト)74を配置した立体的な画像である。図6に例示される通り、表示体74は、仮想空間70内に浮遊するとともに所定の速度で降下する略球状の立体である。仮想空間70の底面72には表示体74の影75が表示され、表示体74の降下とともに底面72に沿って表示体74に接近する。図7に例示される通り、自動演奏装置24による発音が開始される時点で表示体74は仮想空間70内の所定の高度まで上昇するとともに、当該発音の継続中に表示体74の形状が不規則に変形する。そして、自動演奏による発音が停止(消音)すると、表示体74の不規則な変形が停止して図6の初期的な形状(球状)に復帰し、表示体74が所定の速度で降下する状態に遷移する。自動演奏による発音毎に表示体74の以上の動作(上昇および変形)が反復される。例えば、対象楽曲の演奏の開始前に表示体74は降下し、対象楽曲の始点の音符が自動演奏により発音される時点で表示体74の移動の方向が降下から上昇に転換する。したがって、表示装置26に表示された演奏画像Gを視認する演奏者Pは、表示体74の降下から上昇への転換により自動演奏装置24による発音のタイミングを把握することが可能である。
本実施形態の表示制御部58は、以上に例示した演奏画像Gが表示されるように表示装置26を制御する。なお、表示制御部58が表示装置26に画像の表示や変更を指示してから、表示装置26による表示画像に当該指示が反映されるまでの遅延は、自動演奏装置24による自動演奏の遅延量Dと比較して充分に小さい。そこで、表示制御部58は、対象楽曲のうち演奏解析部54が推定した演奏位置T自体の演奏内容に応じた演奏画像Gを表示装置26に表示させる。したがって、前述の通り、自動演奏装置24による実際の発音(演奏制御部56による指示から遅延量Dだけ遅延した時点)に同期して演奏画像Gが動的に変化する。すなわち、対象楽曲の各音符の発音を自動演奏装置24が実際に開始する時点で演奏画像Gの表示体74の移動は降下から上昇に転換する。したがって、各演奏者Pは、自動演奏装置24が対象楽曲の各音符を発音する時点を視覚的に確認することが可能である。
図8は、自動演奏システム100の制御装置12の動作を例示するフローチャートである。例えば、所定の周期で発生する割込信号を契機として、複数の演奏者Pによる対象楽曲の演奏に並行して図8の処理が開始される。図8の処理を開始すると、制御装置12(合図検出部52)は、複数の撮像装置222から供給される複数の画像信号V0を解析することで、任意の演奏者Pによる合図動作の有無を判定する(SA1)。また、制御装置12(演奏解析部54)は、複数の収音装置224から供給される複数の音響信号A0の解析により演奏位置Tと演奏速度Rとを推定する(SA2)。なお、合図動作の検出(SA1)と演奏位置Tおよび演奏速度Rの推定(SA2)との順序は逆転され得る。
制御装置12(演奏制御部56)は、演奏位置Tおよび演奏速度Rに応じた自動演奏を自動演奏装置24に対して指示する(SA3)。具体的には、合図検出部52が検出する合図動作と演奏解析部54が推定する演奏位置Tの進行とに同期するように自動演奏装置24に対象楽曲の自動演奏を実行させる。また、制御装置12(表示制御部58)は、自動演奏の進行を表現する演奏画像Gを表示装置26に表示させる(SA4)。
以上に例示した実施形態では、演奏者Pによる合図動作と演奏位置Tの進行とに同期するように自動演奏装置24による自動演奏が実行される一方、自動演奏装置24による自動演奏の進行を表す演奏画像Gが表示装置26に表示される。したがって、自動演奏装置24による自動演奏の進行を演奏者Pが視覚的に確認して自身の演奏に反映させることが可能である。すなわち、複数の演奏者Pによる演奏と自動演奏装置24による自動演奏とが相互に作用し合う自然な合奏が実現される。本実施形態では特に、自動演奏による演奏内容に応じて動的に変化する演奏画像Gが表示装置26に表示されるから、演奏者Pが自動演奏の進行を視覚的および直観的に把握できるという利点がある。
また、本実施形態では、演奏解析部54が推定した演奏位置Tに対して時間的に後方の時点TAの演奏内容が自動演奏装置24に指示される。したがって、演奏制御部56による演奏の指示に対して自動演奏装置24による実際の発音が遅延する場合でも、演奏者Pによる演奏と自動演奏とを高精度に同期させることが可能である。また、演奏解析部54が推定した演奏速度Rに応じた可変の調整量αだけ演奏位置Tに対して後方の時点TAの演奏が自動演奏装置24に指示される。したがって、例えば演奏速度Rが変動する場合でも、演奏者による演奏と自動演奏とを高精度に同期させることが可能である。
<変形例>
以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の実施形態では、合図検出部52が検出した合図動作を契機として対象楽曲の自動演奏を開始したが、対象楽曲の途中の時点における自動演奏の制御に合図動作を使用することも可能である。例えば、対象楽曲内で長時間にわたる休符が終了して演奏が再開される時点で、前述の各形態と同様に、合図動作を契機として対象楽曲の自動演奏が再開される。例えば、図5を参照して説明した動作と同様に、対象楽曲内で休符後に演奏が再開される時点に対して準備期間Bだけ手前の時点Qで特定の演奏者Pが合図動作を実行する。そして、遅延量Dと演奏速度Rとに応じた時間長δが当該時点Qから経過した時点で、演奏制御部56は、自動演奏装置24に対する自動演奏の指示を再開する。なお、対象楽曲の途中の時点では既に演奏速度Rが推定されているから、時間長δの設定には、演奏解析部54が推定した演奏速度Rが適用される。
ところで、対象楽曲のうち合図動作が実行され得る期間は、対象楽曲の演奏内容から事前に把握され得る。そこで、対象楽曲のうち合図動作が実行される可能性がある特定の期間(以下「監視期間」という)を対象として合図検出部52が合図動作の有無を監視することも可能である。例えば、対象楽曲に想定される複数の監視期間の各々について始点と終点とを指定する区間指定データが記憶装置14に格納される。区間指定データを楽曲データMに内包させることも可能である。合図検出部52は、対象楽曲のうち区間指定データで指定される各監視期間内に演奏位置Tが存在する場合に合図動作の監視を実行し、演奏位置Tが監視期間の外側にある場合には合図動作の監視を停止する。以上の構成によれば、対象楽曲のうち監視期間に限定して合図動作が検出されるから、対象楽曲の全区間にわたり合図動作の有無を監視する構成と比較して合図検出部52の処理負荷が軽減されるという利点がある。また、対象楽曲のうち実際には合図動作が実行され得ない期間について合図動作が誤検出される可能性を低減することも可能である。
(2)前述の実施形態では、画像信号Vが表す画像の全体(図3)を解析することで合図動作を検出したが、画像信号Vが表す画像のうち特定の領域(以下「監視領域」という)を対象として、合図検出部52が合図動作の有無を監視することも可能である。例えば、合図検出部52は、画像信号Vが示す画像のうち合図動作が予定されている特定の演奏者Pを含む範囲を監視領域として選択し、当該監視領域を対象として合図動作を検出する。監視領域以外の範囲については合図検出部52による監視対象から除外される。以上の構成によれば、監視領域に限定して合図動作が検出されるから、画像信号Vが示す画像の全体にわたり合図動作の有無を監視する構成と比較して合図検出部52の処理負荷が軽減されるという利点がある。また、実際には合図動作を実行しない演奏者Pの動作が合図動作と誤判定される可能性を低減することも可能である。
なお、前述の変形例(1)で例示した通り、対象楽曲の演奏中に複数回にわたり合図動作が実行される場合を想定すると、合図動作を実行する演奏者Pが合図動作毎に変更される可能性もある。例えば、対象楽曲の開始前の合図動作は演奏者P1が実行する一方、対象楽曲の途中の合図動作は演奏者P2が実行する。したがって、画像信号Vが表す画像内で監視領域の位置(またはサイズ)を経時的に変更する構成も好適である。合図動作を実行する演奏者Pは事前に把握できるから、例えば監視領域の位置を時系列に指定する領域指定データを記憶装置14に事前に格納することが可能である。合図検出部52は、画像信号Vが表す画像のうち領域指定データで指定される各監視領域について合図動作を監視し、監視領域以外の領域については合図動作の監視対象から除外する。以上の構成によれば、合図動作を実行する演奏者Pが楽曲の進行とともに変更される場合でも、合図動作を適切に検出することが可能である。
(3)前述の実施形態では、複数の撮像装置222を利用して複数の演奏者Pを撮像したが、1個の撮像装置222により複数の演奏者P(例えば複数の演奏者Pが所在する舞台の全体)を撮像することも可能である。同様に、複数の演奏者Pが演奏した音を1個の収音装置224により収音することも可能である。また、複数の画像信号V0の各々について合図検出部52が合図動作の有無を監視する構成(したがって、画像合成部522は省略され得る)も採用され得る。
(4)前述の実施形態では、撮像装置222が撮像した画像信号Vの解析で合図動作を検出したが、合図検出部52が合図動作を検出する方法は以上の例示に限定されない。例えば、演奏者Pの身体に装着された検出器(例えば加速度センサ等の各種のセンサ)の検出信号を解析することで合図検出部52が演奏者Pの合図動作を検出することも可能である。ただし、撮像装置222が撮像した画像の解析により合図動作を検出する前述の実施形態の構成によれば、演奏者Pの身体に検出器を装着する場合と比較して、演奏者Pの演奏動作に対する影響を低減しながら合図動作を検出できるという利点がある。
(5)前述の実施形態では、相異なる楽器の音を表す複数の音響信号A0を混合した音響信号Aの解析により演奏位置Tおよび演奏速度Rを推定したが、各音響信号A0の解析により演奏位置Tおよび演奏速度Rを推定することも可能である。例えば、演奏解析部54は、複数の音響信号A0の各々について前述の実施形態と同様の方法で暫定的な演奏位置Tおよび演奏速度Rを推定し、各音響信号A0に関する推定結果から確定的な演奏位置Tおよび演奏速度Rを決定する。例えば各音響信号A0から推定された演奏位置Tおよび演奏速度Rの代表値(例えば平均値)が確定的な演奏位置Tおよび演奏速度Rとして算定される。以上の説明から理解される通り、演奏解析部54の音響混合部542は省略され得る。
(6)前述の実施形態で例示した通り、自動演奏システム100は、制御装置12とプログラムとの協働で実現される。本発明の好適な態様に係るプログラムは、対象楽曲を演奏する演奏者Pの合図動作を検出する合図検出部52、演奏された音を表す音響信号Aを当該演奏に並行して解析することで対象楽曲内の演奏位置Tを順次に推定する演奏解析部54、合図検出部52が検出する合図動作と演奏解析部54が推定する演奏位置Tの進行とに同期するように対象楽曲の自動演奏を自動演奏装置24に実行させる演奏制御部56、および、自動演奏の進行を表す演奏画像Gを表示装置26に表示させる表示制御部58、としてコンピュータを機能させる。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、通信網を介した配信の形態でプログラムをコンピュータに配信することも可能である。
(7)本発明の好適な態様は、前述の実施形態に係る自動演奏システム100の動作方法(自動演奏方法)としても特定される。例えば、本発明の好適な態様に係る自動演奏方法は、コンピュータシステム(単体のコンピュータ、または複数のコンピュータで構成されるシステム)が、対象楽曲を演奏する演奏者Pの合図動作を検出し(SA1)、演奏された音を表す音響信号Aを当該演奏に並行して解析することで対象楽曲内の演奏位置Tを順次に推定し(SA2)、合図動作と演奏位置Tの進行とに同期するように対象楽曲の自動演奏を自動演奏装置24に実行させ(SA3)、自動演奏の進行を表す演奏画像Gを表示装置26に表示させる(SA4)。
100…自動演奏システム、12…制御装置、14…記憶装置、22…収録装置、222…撮像装置、224…収音装置、24…自動演奏装置、242…駆動機構、244…発音機構、26…表示装置、52…合図検出部、522…画像合成部、524…検出処理部、54…演奏解析部、542…音響混合部、544…解析処理部、56…演奏制御部、58…表示制御部、G…演奏画像、70…仮想空間、74…表示体。

Claims (6)

  1. 楽曲を演奏する演奏者の合図動作を検出する合図検出部と、
    演奏された音を表す音響信号を当該演奏に並行して解析することで前記楽曲内の演奏位置を順次に推定する演奏解析部と、
    前記合図検出部が検出する合図動作と前記演奏解析部が推定する演奏位置の進行とに同期するように前記楽曲の自動演奏を自動演奏装置に実行させる演奏制御部と、
    前記自動演奏の進行を表す画像を表示装置に表示させる表示制御部と
    を具備する自動演奏システム。
  2. 前記演奏制御部は、前記楽曲のうち前記演奏解析部が推定した演奏位置に対して後方の時点の演奏を前記自動演奏装置に指示する
    請求項1の自動演奏システム。
  3. 前記演奏解析部は、前記音響信号の解析により演奏速度を推定し、
    前記演奏制御部は、前記楽曲のうち、前記演奏解析部が推定した演奏位置に対して前記演奏速度に応じた調整量だけ後方の時点の演奏を、前記自動演奏装置に指示する
    請求項2の自動演奏システム。
  4. 前記合図検出部は、撮像装置が前記演奏者を撮像した画像の解析により前記合図動作を検出する
    請求項1から請求項3の何れかの自動演奏システム。
  5. 前記表示制御部は、前記自動演奏による演奏内容に応じて動的に変化する画像を前記表示装置に表示させる
    請求項1から請求項4の何れかの自動演奏システム。
  6. コンピュータシステムが、
    楽曲を演奏する演奏者の合図動作を検出し、
    演奏された音を表す音響信号を当該演奏に並行して解析することで前記楽曲内の演奏位置を順次に推定し、
    前記合図動作と前記演奏位置の進行とに同期するように前記楽曲の自動演奏を自動演奏装置に実行させ、
    前記自動演奏の進行を表す画像を表示装置に表示させる
    自動演奏方法。
JP2016099642A 2016-05-18 2016-05-18 自動演奏システムおよび自動演奏方法 Active JP6801225B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016099642A JP6801225B2 (ja) 2016-05-18 2016-05-18 自動演奏システムおよび自動演奏方法
US15/597,675 US10235980B2 (en) 2016-05-18 2017-05-17 Automatic performance system, automatic performance method, and sign action learning method
US16/256,103 US10482856B2 (en) 2016-05-18 2019-01-24 Automatic performance system, automatic performance method, and sign action learning method
JP2020084042A JP6977813B2 (ja) 2016-05-18 2020-05-12 自動演奏システムおよび自動演奏方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016099642A JP6801225B2 (ja) 2016-05-18 2016-05-18 自動演奏システムおよび自動演奏方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020084042A Division JP6977813B2 (ja) 2016-05-18 2020-05-12 自動演奏システムおよび自動演奏方法

Publications (2)

Publication Number Publication Date
JP2017207615A true JP2017207615A (ja) 2017-11-24
JP6801225B2 JP6801225B2 (ja) 2020-12-16

Family

ID=60329670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016099642A Active JP6801225B2 (ja) 2016-05-18 2016-05-18 自動演奏システムおよび自動演奏方法

Country Status (2)

Country Link
US (2) US10235980B2 (ja)
JP (1) JP6801225B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181735A1 (ja) * 2018-03-23 2019-09-26 ヤマハ株式会社 演奏解析方法および演奏解析装置
JP2019168515A (ja) * 2018-03-22 2019-10-03 カシオ計算機株式会社 電子楽器、方法及びプログラム
JP2021043258A (ja) * 2019-09-06 2021-03-18 ヤマハ株式会社 制御システム、及び制御方法
US11609736B2 (en) 2020-11-06 2023-03-21 Yamaha Corporation Audio processing system, audio processing method and recording medium
WO2023182005A1 (ja) * 2022-03-25 2023-09-28 ヤマハ株式会社 データ出力方法、プログラム、データ出力装置および電子楽器
JP7577964B2 (ja) 2020-07-31 2024-11-06 ヤマハ株式会社 再生制御方法および再生制御システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467887B2 (ja) 2014-11-21 2019-02-13 ヤマハ株式会社 情報提供装置および情報提供方法
JP6737300B2 (ja) * 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP7147384B2 (ja) * 2018-09-03 2022-10-05 ヤマハ株式会社 情報処理方法および情報処理装置
CN109147741A (zh) * 2018-10-31 2019-01-04 北京戴乐科技有限公司 一种音乐演奏方法和装置
JP7226709B2 (ja) * 2019-01-07 2023-02-21 ヤマハ株式会社 映像制御システム、及び映像制御方法
US10885891B2 (en) * 2020-01-23 2021-01-05 Pallavi Ekaa Desai System, method and apparatus for directing a presentation of a musical score via artificial intelligence

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695661A (ja) * 1992-09-11 1994-04-08 Kawai Musical Instr Mfg Co Ltd アンサンブル演奏システム
JP2004037575A (ja) * 2002-06-28 2004-02-05 Yamaha Corp 演奏処理装置、演奏処理プログラムおよびファイル生成装置
JP2007241181A (ja) * 2006-03-13 2007-09-20 Univ Of Tokyo 自動伴奏システム及び楽譜追跡システム
JP2010008893A (ja) * 2008-06-30 2010-01-14 Yamaha Corp 電子音楽装置
JP2012093632A (ja) * 2010-10-28 2012-05-17 Yamaha Corp 音響処理装置
JP2012532340A (ja) * 2009-07-02 2012-12-13 ザ ウェイ オブ エイチ, インコーポレイテッド 音楽教育システム

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402244A (en) 1980-06-11 1983-09-06 Nippon Gakki Seizo Kabushiki Kaisha Automatic performance device with tempo follow-up function
JPS57124396A (en) 1981-01-23 1982-08-03 Nippon Musical Instruments Mfg Electronic musical instrument
JPH03253898A (ja) 1990-03-03 1991-11-12 Kan Oteru 自動伴奏装置
JP3077269B2 (ja) 1991-07-24 2000-08-14 ヤマハ株式会社 楽譜表示装置
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
US5693903A (en) 1996-04-04 1997-12-02 Coda Music Technology, Inc. Apparatus and method for analyzing vocal audio data to provide accompaniment to a vocalist
US7989689B2 (en) 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7297856B2 (en) 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US5952597A (en) 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US5894100A (en) 1997-01-10 1999-04-13 Roland Corporation Electronic musical instrument
US6166314A (en) 1997-06-19 2000-12-26 Time Warp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US5913259A (en) 1997-09-23 1999-06-15 Carnegie Mellon University System and method for stochastic score following
US6051769A (en) 1998-11-25 2000-04-18 Brown, Jr.; Donival Computerized reading display
JP3887978B2 (ja) 1998-12-25 2007-02-28 ヤマハ株式会社 演奏支援装置、演奏支援方法、および演奏支援プログラムを記録した記録媒体
US6156964A (en) 1999-06-03 2000-12-05 Sahai; Anil Apparatus and method of displaying music
JP2001075565A (ja) 1999-09-07 2001-03-23 Roland Corp 電子楽器
JP2001125568A (ja) 1999-10-28 2001-05-11 Roland Corp 電子楽器
JP4389330B2 (ja) 2000-03-22 2009-12-24 ヤマハ株式会社 演奏位置検出方法および楽譜表示装置
US7827488B2 (en) 2000-11-27 2010-11-02 Sitrick David H Image tracking and substitution system and methodology for audio-visual presentations
US20020072982A1 (en) 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
JP3702785B2 (ja) 2000-12-27 2005-10-05 ヤマハ株式会社 楽音演奏装置、方法及び媒体
JP3724376B2 (ja) 2001-02-28 2005-12-07 ヤマハ株式会社 楽譜表示制御装置及び方法並びに記憶媒体
KR100412196B1 (ko) 2001-05-21 2003-12-24 어뮤즈텍(주) 악보 추적 방법 및 그 장치
US6768046B2 (en) * 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
BR0202561A (pt) 2002-07-04 2004-05-18 Genius Inst De Tecnologia Dispositivo e método de avaliação de desempenho de canto
US7332669B2 (en) 2002-08-07 2008-02-19 Shadd Warren M Acoustic piano with MIDI sensor and selective muting of groups of keys
WO2005022509A1 (en) 2003-09-03 2005-03-10 Koninklijke Philips Electronics N.V. Device for displaying sheet music
US7649134B2 (en) 2003-12-18 2010-01-19 Seiji Kashioka Method for displaying music score by using computer
US7164076B2 (en) 2004-05-14 2007-01-16 Konami Digital Entertainment System and method for synchronizing a live musical performance with a reference performance
US8367921B2 (en) 2004-10-22 2013-02-05 Starplayit Pty Ltd Method and system for assessing a musical performance
JP2007279490A (ja) 2006-04-10 2007-10-25 Kawai Musical Instr Mfg Co Ltd 電子楽器
US7642444B2 (en) * 2006-11-17 2010-01-05 Yamaha Corporation Music-piece processing apparatus and method
US7579541B2 (en) 2006-12-28 2009-08-25 Texas Instruments Incorporated Automatic page sequencing and other feedback action based on analysis of audio performance data
US20080196575A1 (en) 2007-02-16 2008-08-21 Recordare Llc Process for creating and viewing digital sheet music on a media device
US8180063B2 (en) 2007-03-30 2012-05-15 Audiofile Engineering Llc Audio signal processing system for live music performance
US7674970B2 (en) 2007-05-17 2010-03-09 Brian Siu-Fung Ma Multifunctional digital music display device
JP5179905B2 (ja) 2008-03-11 2013-04-10 ローランド株式会社 演奏装置
US7482529B1 (en) 2008-04-09 2009-01-27 International Business Machines Corporation Self-adjusting music scrolling system
US8660678B1 (en) 2009-02-17 2014-02-25 Tonara Ltd. Automatic score following
US8889976B2 (en) 2009-08-14 2014-11-18 Honda Motor Co., Ltd. Musical score position estimating device, musical score position estimating method, and musical score position estimating robot
US8445766B2 (en) 2010-02-25 2013-05-21 Qualcomm Incorporated Electronic display of sheet music
JP5654897B2 (ja) 2010-03-02 2015-01-14 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム
US8338684B2 (en) 2010-04-23 2012-12-25 Apple Inc. Musical instruction and assessment systems
CN102959544B (zh) 2010-05-04 2016-06-08 沙扎姆娱乐有限公司 用于同步媒体的方法和系统
US8440898B2 (en) 2010-05-12 2013-05-14 Knowledgerocks Limited Automatic positioning of music notation
JP2011242560A (ja) 2010-05-18 2011-12-01 Yamaha Corp セッション端末及びネットワークセッションシステム
US9626554B2 (en) * 2010-08-26 2017-04-18 Blast Motion Inc. Motion capture system that combines sensors with different measurement ranges
US9247212B2 (en) * 2010-08-26 2016-01-26 Blast Motion Inc. Intelligent motion capture element
US8990677B2 (en) 2011-05-06 2015-03-24 David H. Sitrick System and methodology for collaboration utilizing combined display with evolving common shared underlying image
JP5799977B2 (ja) * 2012-07-18 2015-10-28 ヤマハ株式会社 音符列解析装置
CN103258529B (zh) * 2013-04-16 2015-09-16 初绍军 一种电子乐器、音乐演奏方法
JPWO2014203870A1 (ja) * 2013-06-17 2017-02-23 ヤマハ株式会社 演奏システム、演奏方法及び演奏プログラム
JP6187132B2 (ja) 2013-10-18 2017-08-30 ヤマハ株式会社 スコアアライメント装置及びスコアアライメントプログラム
JP6197631B2 (ja) 2013-12-19 2017-09-20 ヤマハ株式会社 楽譜解析装置および楽譜解析方法
US20150206441A1 (en) * 2014-01-18 2015-07-23 Invent.ly LLC Personalized online learning management system and method
EP2919228B1 (en) 2014-03-12 2016-10-19 NewMusicNow, S.L. Method, device and computer program for scrolling a musical score.
JP6467887B2 (ja) 2014-11-21 2019-02-13 ヤマハ株式会社 情報提供装置および情報提供方法
US10825348B2 (en) * 2016-04-10 2020-11-03 Renaissance Learning, Inc. Integrated student-growth platform
US9959851B1 (en) 2016-05-05 2018-05-01 Jose Mario Fernandez Collaborative synchronized audio interface

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695661A (ja) * 1992-09-11 1994-04-08 Kawai Musical Instr Mfg Co Ltd アンサンブル演奏システム
JP2004037575A (ja) * 2002-06-28 2004-02-05 Yamaha Corp 演奏処理装置、演奏処理プログラムおよびファイル生成装置
JP2007241181A (ja) * 2006-03-13 2007-09-20 Univ Of Tokyo 自動伴奏システム及び楽譜追跡システム
JP2010008893A (ja) * 2008-06-30 2010-01-14 Yamaha Corp 電子音楽装置
JP2012532340A (ja) * 2009-07-02 2012-12-13 ザ ウェイ オブ エイチ, インコーポレイテッド 音楽教育システム
JP2012093632A (ja) * 2010-10-28 2012-05-17 Yamaha Corp 音響処理装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168515A (ja) * 2018-03-22 2019-10-03 カシオ計算機株式会社 電子楽器、方法及びプログラム
JP7124370B2 (ja) 2018-03-22 2022-08-24 カシオ計算機株式会社 電子楽器、方法及びプログラム
WO2019181735A1 (ja) * 2018-03-23 2019-09-26 ヤマハ株式会社 演奏解析方法および演奏解析装置
JP2019168599A (ja) * 2018-03-23 2019-10-03 ヤマハ株式会社 演奏解析方法および演奏解析装置
US20210005173A1 (en) * 2018-03-23 2021-01-07 Yamaha Corporation Musical performance analysis method and musical performance analysis apparatus
JP7243026B2 (ja) 2018-03-23 2023-03-22 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
US11869465B2 (en) * 2018-03-23 2024-01-09 Yamaha Corporation Musical performance analysis method and musical performance analysis apparatus
JP2021043258A (ja) * 2019-09-06 2021-03-18 ヤマハ株式会社 制御システム、及び制御方法
JP7383943B2 (ja) 2019-09-06 2023-11-21 ヤマハ株式会社 制御システム、制御方法、及びプログラム
JP7577964B2 (ja) 2020-07-31 2024-11-06 ヤマハ株式会社 再生制御方法および再生制御システム
US11609736B2 (en) 2020-11-06 2023-03-21 Yamaha Corporation Audio processing system, audio processing method and recording medium
WO2023182005A1 (ja) * 2022-03-25 2023-09-28 ヤマハ株式会社 データ出力方法、プログラム、データ出力装置および電子楽器

Also Published As

Publication number Publication date
US20170337910A1 (en) 2017-11-23
US20190156800A1 (en) 2019-05-23
US10235980B2 (en) 2019-03-19
US10482856B2 (en) 2019-11-19
JP6801225B2 (ja) 2020-12-16

Similar Documents

Publication Publication Date Title
US10482856B2 (en) Automatic performance system, automatic performance method, and sign action learning method
US10586520B2 (en) Music data processing method and program
US10580393B2 (en) Apparatus for analyzing musical performance, performance analysis method, automatic playback method, and automatic player system
JP6776788B2 (ja) 演奏制御方法、演奏制御装置およびプログラム
CN111052223B (zh) 播放控制方法、播放控制装置及记录介质
US11557269B2 (en) Information processing method
JP7383943B2 (ja) 制御システム、制御方法、及びプログラム
JP2019168599A (ja) 演奏解析方法および演奏解析装置
JP2019139294A (ja) 情報処理方法および情報処理装置
JP6977813B2 (ja) 自動演奏システムおよび自動演奏方法
US10140965B2 (en) Automated musical performance system and method
JP6838357B2 (ja) 音響解析方法および音響解析装置
Dolhansky et al. Designing an expressive virtual percussion instrument
JP4159961B2 (ja) カラオケ装置
WO2019092793A1 (ja) データ生成装置およびプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R151 Written notification of patent or utility model registration

Ref document number: 6801225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532