JP7243026B2 - 演奏解析方法、演奏解析装置およびプログラム - Google Patents

演奏解析方法、演奏解析装置およびプログラム Download PDF

Info

Publication number
JP7243026B2
JP7243026B2 JP2018056601A JP2018056601A JP7243026B2 JP 7243026 B2 JP7243026 B2 JP 7243026B2 JP 2018056601 A JP2018056601 A JP 2018056601A JP 2018056601 A JP2018056601 A JP 2018056601A JP 7243026 B2 JP7243026 B2 JP 7243026B2
Authority
JP
Japan
Prior art keywords
performance
point
time
analysis
performer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018056601A
Other languages
English (en)
Other versions
JP2019168599A (ja
Inventor
陽 前澤
ボチェン リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2018056601A priority Critical patent/JP7243026B2/ja
Priority to PCT/JP2019/010595 priority patent/WO2019181735A1/ja
Publication of JP2019168599A publication Critical patent/JP2019168599A/ja
Priority to US17/028,386 priority patent/US11869465B2/en
Application granted granted Critical
Publication of JP7243026B2 publication Critical patent/JP7243026B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computational Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Image Analysis (AREA)

Description

本発明は、演奏者による演奏を解析するための技術に関する。
演奏者の動作を解析する技術が従来から提案されている。例えば特許文献1には、演奏者が実行する特定の合図動作を検出し、当該合図動作に同期するように楽曲の自動演奏を制御する技術が開示されている。
特開平11-175061号公報
特許文献1の技術では、演奏者による合図動作の検出から所定の時間が経過した時点が、当該演奏者による演奏が開始される時点として特定される。しかし、演奏者による演奏が開始される時点を高精度に推定するという観点から改善の余地がある。
以上の課題を解決するために、本発明の好適な態様に係る情報処理方法は、演奏者による演奏の動作を表す動作データを学習済モデルに入力することで、当該演奏による発音時点を推定する。また、本発明の他の態様に係る演奏解析装置は、演奏者による演奏の動作を表す動作データを学習済モデルに入力することで、当該演奏による発音時点を推定する演奏解析部を具備する。
本発明の実施形態に係る演奏システムの構成を例示するブロック図である。 演奏解析装置の機能的な構成を例示するブロック図である。 特徴点データの説明図である。 演奏解析処理の説明図である。 確率分布と発音時点との関係の説明図である。 演奏解析処理の具体的な手順を例示するフローチャートである。
図1は、本発明の好適な形態に係る演奏システム100の構成を例示するブロック図である。演奏システム100は、演奏者Uが所在する音響ホール等の空間に設置されたシステムである。演奏者Uは、鍵盤楽器等の楽器200を利用して楽曲を演奏する。演奏システム100は、演奏者Uによる楽曲の演奏に並行して当該楽曲の自動演奏を実行する。具体的には、演奏システム100は、演奏者Uによる演奏を解析し、解析結果に応じて当該楽曲の自動演奏を実行する。
図1に例示される通り、演奏システム100は、演奏解析装置11と演奏装置12と撮像装置13とを具備する。演奏解析装置11は、演奏システム100の各要素を制御するコンピュータシステムである。例えば携帯電話機、スマートフォンまたはパーソナルコンピュータ等の各種の情報端末が、演奏解析装置11として好適に利用される。
撮像装置13は、演奏者Uを撮像することで画像データVを生成する。画像データVは、演奏者Uの画像の時系列(すなわち動画像)を表すデータである。画像データVの形式は任意である。撮像装置13が生成した画像データVは、有線または無線により演奏解析装置11に供給される。なお、演奏解析装置11に撮像装置13を搭載してもよい。また、例えば演奏者Uの身体の各部位までの距離を示す深度情報を生成可能な深度カメラまたはステレオカメラを、撮像装置13として利用してもよい。すなわち、撮像装置13は、演奏者Uの画像と深度情報とを表す画像データVを生成する。
演奏装置12は、演奏解析装置11による制御のもとで楽曲の自動演奏を実行する。具体的には、演奏装置12は、駆動機構121と発音機構122とを具備する自動演奏楽器(例えば自動演奏ピアノ)である。発音機構122は、自然楽器の鍵盤楽器と同様に、鍵盤の各鍵の変位に連動して弦(発音体)を発音させる打弦機構を鍵毎に具備する。駆動機構121は、発音機構122を駆動することで対象楽曲の自動演奏を実行する。演奏解析装置11からの指示に応じて駆動機構121が発音機構122を駆動することで自動演奏が実現される。なお、演奏解析装置11を演奏装置12に搭載してもよい。
図1に例示される通り、演奏解析装置11は、制御装置111と記憶装置112とを具備するコンピュータシステムで実現される。制御装置111は、例えばCPU(Central Processing Unit)等の処理回路であり、演奏システム100を構成する各要素(演奏装置12および撮像装置13)を統括的に制御する。制御装置111は、1個以上の処理回路を含んで構成される。
記憶装置112は、制御装置111が実行するプログラムと制御装置111が使用する各種のデータとを記憶するメモリである。例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置112として好適である。本実施形態の記憶装置112は、楽曲を表す楽曲データZを記憶する。具体的には、楽曲データZは、楽曲を構成する音符の時系列を指定する。例えば、MIDI(Musical Instrument Digital Interface)規格に準拠した形式のファイル(SMF:Standard MIDI File)が楽曲データZとして好適である。なお、演奏システム100とは別体の記憶装置112(例えばクラウドストレージ)を用意し、制御装置111が通信網を介して記憶装置112に対する書込および読出を実行してもよい。すなわち、記憶装置112を演奏解析装置11から省略してもよい。
図2は、演奏解析装置11の機能的な構成を例示するブロック図である。制御装置111は、記憶装置112に記憶されたプログラムを実行することで複数の機能(画像解析部31、演奏解析部32および演奏制御部33)を実現する。なお、相互に別体で構成された複数の装置の集合(すなわちシステム)で制御装置111の機能を実現してもよいし、制御装置111の機能の一部または全部を専用の電子回路で実現してもよい。また、演奏装置12と撮像装置13とが設置された音響ホール等の空間から離間した位置にあるサーバ装置が、制御装置111の一部または全部の機能を実現してもよい。
画像解析部31は、演奏者Uの撮像により撮像装置13が生成した画像データVから特徴点データFの時系列を生成する。特徴点データFは所定の間隔で順次に生成される。図3は、特徴点データFの説明図である。各特徴点データFは、演奏者Uの身体における特徴点Bの位置を表すデータである。各特徴点Bは、演奏者Uの身体の特定の部位を代表する仮想的な地点である。例えば演奏者Uの関節または頭部等の各部位について特徴点Bが設定される。各特徴点Bは、相互に直交するX軸とY軸を含む座標平面内に設定される。特徴点データFは、複数の特徴点Bの各々についてX座標とY座標とを指定する。以上の説明から理解される通り、任意の1個の特徴点データFは、演奏者Uの姿勢または骨格を表すデータである。特徴点データFの時系列は、演奏者Uの一連の動作(すなわち各特徴点Bの経時的な移動)を表現する。なお、3次元空間内における各特徴点Bの座標を表す特徴点データFを画像解析部31が生成してもよい。
図2の演奏解析部32は、演奏者Uが楽曲を演奏する動作(以下「演奏動作」という)を解析する。具体的には、演奏解析部32は、演奏者Uの演奏動作を表す特徴点データFの時系列から、当該演奏により楽音が発音される時点(以下「発音時点」という)を推定する。すなわち、実際に楽音が発音される直前における演奏者Uの演奏動作から発音時点が予測される。例えば、演奏者Uが腕を鍵盤に対して上昇させる動作、または演奏者Uが頭部や上半身を上昇させる動作等、楽器200を実際に操作する直前の準備的な動作(以下「準備動作」という)に応じて、発音時点が予測される。
図4および図5は、演奏解析部32が演奏者Uの演奏動作を解析する処理(以下「演奏解析処理」という)の説明図である。図4に例示される通り、演奏解析部32は、時間軸上の相異なる複数の時点(以下「解析時点」という)Qaの各々について確率Pを算定する。任意の1個の解析時点Qaについて算定される確率Pは、当該解析時点Qaの後方の時点(以下「推定時点」という)Qbが発音時点に該当する確度の指標(0≦P≦1)である。推定時点Qbは、解析時点Qaから所定の時間τ(例えば100ミリ秒)だけ後方の時点である。
時間軸上の解析時点Qa毎に確率Pが算定されるから、図5に例示される通り、時間軸上における確率Pの分布(以下「確率分布」という)Dが特定される。演奏解析部32は、確率分布Dから発音時点Oを推定する。具体的には、演奏解析部32は、確率分布Dのうち確率Pが所定の閾値P0を上回る範囲内で確率Pが極大値となる時点を発音時点Oとして特定する。
図4に例示される通り、演奏解析部32は、各解析時点Qaに対応する動作データMから推定時点Qbの確率Pを算定する。時間軸上の任意の1個の解析時点Qaに対応する動作データMは、当該解析時点Qaを含む期間(以下「参照期間」という)R内における複数の特徴点データFの時系列で構成される。参照期間Rは、例えば解析時点Qaを終点とする所定長(例えば1秒)の期間である。以上の説明から理解される通り、動作データMは、参照期間R内における演奏者Uの一連の演奏動作を表す時系列データである。相前後する解析時点Qaの間隔は参照期間Rの時間長を下回る。したがって、相前後する参照期間Rは時間軸上で相互に重複する。以上に説明した通り、本実施形態では、参照期間R内における特徴点データFの時系列で構成される動作データMが発音時点Oの推定に利用されるから、参照期間R内における演奏者Uの一連の演奏動作を考慮して発音時点Oを高精度に推定できる。
図2および図4に例示される通り、演奏解析部32による演奏動作の解析には学習済モデルLが利用される。具体的には、演奏解析部32は、学習済モデルLに動作データMを入力することで確率Pを特定する。学習済モデルLは、機械学習により生成された統計的推定モデルである。例えばニューラルネットワーク等の各種の数学モデルが学習済モデルLとして任意に採用される。例えば畳込みニューラルネットワーク(CNN:Convolutional Neural Network)が学習済モデルLとして好適である。
学習済モデルLは、動作データMから確率Pを出力する演算を制御装置111に実行させるプログラム(例えば人工知能ソフトウェアを構成するプログラムモジュール)と、当該演算に適用される複数の係数との組合せで実現される。複数の係数は、多数の教師データを利用した機械学習(特に深層学習)により設定されて記憶装置112に保持される。
具体的には、学習済モデルLを規定する複数の係数は、動作データMと確率Pとを対応させた複数の教師データを利用した機械学習により設定される。具体的には、教師データに含まれる動作データMを暫定的なモデルに入力したときに出力される確率Pと、当該教師データが指定する確率Pとの差異(すなわち損失関数)が、複数の教師データについて低減(理想的には最小化)されるように、学習済モデルLの複数の係数が設定される。損失関数としては、例えば相互エントロピー(cross-entropy)が好適である。以上の説明から理解される通り、学習済モデルLは、複数の教師データにおける動作データMと確率Pとの間に潜在する関係のもとで、未知の動作データMに対して統計的に妥当な確率Pを出力する。
なお、教師データに含められる動作データMとしては、楽曲のうち発音の直前の準備動作が顕著となり易い期間(以下「準備期間」という)内の動作データMが好適である。準備期間としては、例えば、楽曲の演奏が開始される時点の直前の期間、または、楽曲内で長時間にわたる休止から演奏が再開される時点の直前の期間が例示される。楽曲の一連の演奏動作から生成された複数の動作データMのうち、教師データの作成者が手動で指定した準備期間内の動作データMが教師データとして利用される。
以上に説明した教師データを利用して生成される学習済モデルLは、演奏者Uによる準備動作が顕著となる参照期間Rについて算定される確率Pが特に大きい数値となる傾向がある。すなわち、演奏者Uによる顕著な準備動作の直後に楽音が発音される時点が発音時点として推定され易い。他方、楽曲内の一連の演奏動作の途中において個々の楽音(顕著な準備動作を伴わずに発音される楽音)が発音される時点は、発音時点として推定されない可能性が高い。
図2の演奏制御部33は、楽曲データZが時系列に指定する音符の演奏を演奏装置12に対して順次に指示するシーケンサである。具体的には、演奏制御部33は、演奏解析部32が特定した発音時点Oにおいて演奏装置12が楽曲内の特定の音符を演奏するように演奏装置12を制御する。例えば、楽曲演奏の開始の直後においては、楽曲の最初の音符が発音時点Oにおいて演奏されるように演奏装置12が制御される。また、楽曲のうち長時間にわたる休止の直後においては、楽曲のうち当該休止後の最初の音符が発音時点Oにおいて演奏されるように演奏装置12が制御される。以上の説明から理解される通り、演奏者Uによる演奏の開始と同時に演奏装置12による自動演奏が開始される。
図6は、演奏解析処理の具体的な手順を例示するフローチャートである。例えば所定の間隔で図6の演奏解析処理が反復される。演奏解析処理を開始すると、画像解析部31は、撮像装置13が生成した画像データVから特徴点データFを生成する(S1)。特徴点データFは演奏解析処理毎に記憶装置112に記憶される。すなわち、特徴点データFの時系列が記憶装置112に記憶される。
演奏解析部32は、現時点を解析時点Qaとして、解析時点Qaを含む参照期間R内の特徴点データFの時系列を動作データMとして生成する(S2)。すなわち、直近に生成した特徴点データFを基点として前方の所定個にわたる特徴点データFの集合が動作データMとして選択される。
演奏解析部32は、動作データMを学習済モデルLに入力することで、解析時点Qa(現時点)の後方に位置する推定時点Qbが発音時点Oに該当する確率Pを算定する(S3)。そして、演奏解析部32は、現時点までの確率Pの確率分布Dについて、確率Pが閾値P0を上回る範囲内の極大点が観測された場合には、当該極大点を発音時点Oとして特定する(S4)。確率Pが閾値P0を下回る場合、または確率Pの極大点が観測されない場合には、発音時点Oを特定することなく演奏解析処理を終了する。
以上の説明から理解される通り、本実施形態によれば、演奏者Uの演奏の動作を表す動作データMを学習済モデルLに入力することで発音時点Oが推定される。したがって、演奏者Uによる特定の動作が検出されてから所定の時間が経過した時点を発音時点Oとして特定する構成と比較して、演奏者Uの未知の演奏動作による発音時点Oを高精度に推定することが可能である。本実施形態では特に、参照期間R内における演奏動作を表す動作データMを学習済モデルLに入力することで、当該参照期間Rの後方に位置する推定時点Qbが発音時点Oである確率Pが算定される。したがって、演奏による実際の発音前に発音時点Oを予測できる。また、各推定時点Qbが発音時点Oである確率Pの時系列が算定されるから、発音時点Oを高精度に推定できるという前述の効果は格別に顕著である。
<変形例>
以上に例示した態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の形態では、演奏解析部32が推定した発音時点Oにおいて自動演奏を開始したが、演奏解析部32による推定結果の用途は以上の例示に限定されない。例えば、楽曲内で演奏者Uが現に演奏している位置(以下「演奏位置」という)を推定する処理に、演奏解析部32による推定結果を利用してもよい。例えば、演奏解析部32は、演奏者Uによる楽器200の演奏音を表す音響信号を解析することで演奏位置を推定する。演奏位置の推定には、例えば特開2015-79183号公報等に開示された公知の解析技術(スコアアライメント)が採用される。演奏解析部32が推定した発音時点Oが楽曲内の特定の音符の始点である確率が高いという条件を加味することで、演奏者Uによる演奏位置を高精度に推定することが可能である。以上の方法により推定された演奏位置の進行に追従するように、演奏制御部33が演奏装置12による自動演奏を制御してもよい。
(2)前述の形態では、演奏者Uが演奏する楽器200として鍵盤楽器を例示したが、楽器200の種類は以上の例示に限定されない。例えば、演奏者Uが管楽器または弦楽器等の楽器200を演奏する動作を解析することで発音時点Oを推定することも可能である。
(3)学習済モデルLが算定した確率Pから発音時点Oを特定する方法は、前述の形態の例示に限定されない。例えば、確率分布Dのうち確率Pが閾値P0を上回る時間的な範囲の始点、または、確率Pの増加率が所定値を上回る時点を、発音時点Oとして特定してもよい。
(4)前述の形態では、自動演奏ピアノ等の自動演奏楽器を演奏装置12として例示したが、演奏装置12は、自然楽器と同様の機構(駆動機構121および発音機構122)を具備する装置に限定されない。例えば、演奏制御部33から指示された音響を放音する電子楽器を演奏装置12として利用してもよい。電子楽器は、例えば、演奏制御部33からの指示に応じた音響信号を生成する音源回路(例えばMIDI音源)と、音源回路が生成した音響信号に応じた音響を放音する放音装置(例えばスピーカまたはヘッドホン)とを具備する。
(5)前述の形態では、MIDI規格に準拠した形式の楽曲データZを例示したが、楽曲データZの形式は以上の例示に限定されない。例えば、楽曲の演奏音を表す音響信号(すなわち、音響の波形を表すサンプル系列)を楽曲データZとして利用してもよい。例えば、演奏者Uによる楽器200の演奏音を表す音響信号を解析することで演奏位置を推定し、楽曲データZ(音響信号)のうち当該演奏位置に対応するサンプルの時系列を放音装置に供給することで、楽曲データZが表す音響を放音してもよい。なお、音響信号同士の時間的な対応の解析には、例えば特開2015-45731号公報に開示された技術が好適に利用される。
(6)携帯電話機またはスマートフォン等の端末装置との間で通信するサーバ装置により演奏解析装置11の機能を実現してもよい。演奏解析装置11は、端末装置から受信した画像データVに応じて発音時点Oを推定し、推定結果に応じた自動演奏の指示を端末装置に送信する。なお、端末装置から特徴点データFが送信される構成では、演奏解析装置11から画像解析部31が省略され、端末装置が演奏制御部33を具備する構成では、演奏解析装置11から演奏制御部33が省略される。
(7)前述の形態に係る演奏解析装置11の機能は、コンピュータ(例えば制御装置111)とプログラムとの協働により実現される。前述の形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされる。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を含む。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。
(8)学習済モデルLを実現するための人工知能ソフトウェアの実行主体はCPUに限定されない。例えば、Tensor Processing UnitおよびNeural Engine等のニューラルネットワーク用の処理回路、または、人工知能に専用されるDSP(Digital Signal Processor)が、人工知能ソフトウェアを実行してもよい。また、以上の例示から選択された複数種の処理回路が協働して人工知能ソフトウェアを実行してもよい。
100…演奏システム、11…演奏解析装置、111…制御装置、112…記憶装置、12…演奏装置、121…駆動機構、122…発音機構、13…撮像装置、31…画像解析部、32…演奏解析部、33…演奏制御部、200…楽器。

Claims (7)

  1. 時間軸上の複数の解析時点の各々について、当該解析時点を含む参照期間内における演奏者による演奏の動作を表す動作データを学習済モデルに入力することで、前記参照期間の後方に位置する推定時点が当該参照期間内の動作に続く演奏による発音の発音時点に該当する確率を、当該学習済モデルから出力する
    コンピュータにより実現される演奏解析方法。
  2. 演奏者を撮像した画像データから、当該演奏者の身体における特定の部位を代表する特徴点により当該演奏者の姿勢または骨格を表す特徴点データを順次に生成し、
    時間軸上の複数の解析時点の各々について、当該解析時点を含む参照期間内における前記特徴点データの時系列を前記演奏者による演奏の動作を表す動作データとして学習済モデルに入力することで、前記参照期間の後方に位置する推定時点が当該動作に続く演奏による発音の発音時点に該当する確率を、当該学習済モデルから出力する
    コンピュータにより実現される演奏解析方法。
  3. さらに、前記学習済モデルから出力された確率の時系列から、当該演奏による発音時点を推定する
    請求項1または請求項2の演奏解析方法。
  4. 時間軸上の複数の解析時点の各々について、当該参照期間内における演奏者による演奏の動作を表す動作データを学習済モデルに入力することで、前記参照期間の後方に位置する推定時点が当該参照期間内の動作に続く演奏による発音の発音時点に該当する確率を、当該学習済モデルから出力する演奏解析部
    を具備する演奏解析装置。
  5. 演奏者を撮像した画像データから、当該演奏者の身体における特定の部位を代表する特徴点により当該演奏者の姿勢または骨格を表す特徴点データを順次に生成する画像解析部と、
    時間軸上の複数の解析時点の各々について、当該解析時点を含む参照期間内における前記特徴点データの時系列を前記演奏者による演奏の動作を表す動作データとして学習済モデルに入力することで、前記参照期間の後方に位置する推定時点が当該動作に続く演奏による発音の発音時点に該当する確率を、当該学習済モデルから出力する演奏解析部と
    を具備する演奏解析装置。
  6. 前記演奏解析部は、前記学習済モデルから出力された確率の時系列から、当該演奏による発音時点を推定する
    請求項4または請求項5の演奏解析装置。
  7. 時間軸上の複数の解析時点の各々について、当該参照期間内における演奏者による演奏の動作を表す動作データを学習済モデルに入力することで、前記参照期間の後方に位置する推定時点が当該参照期間内の動作に続く演奏による発音の発音時点に該当する確率を、当該学習済モデルから出力する演奏解析部
    としてコンピュータシステムを機能させるプログラム。
JP2018056601A 2018-03-23 2018-03-23 演奏解析方法、演奏解析装置およびプログラム Active JP7243026B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018056601A JP7243026B2 (ja) 2018-03-23 2018-03-23 演奏解析方法、演奏解析装置およびプログラム
PCT/JP2019/010595 WO2019181735A1 (ja) 2018-03-23 2019-03-14 演奏解析方法および演奏解析装置
US17/028,386 US11869465B2 (en) 2018-03-23 2020-09-22 Musical performance analysis method and musical performance analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018056601A JP7243026B2 (ja) 2018-03-23 2018-03-23 演奏解析方法、演奏解析装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2019168599A JP2019168599A (ja) 2019-10-03
JP7243026B2 true JP7243026B2 (ja) 2023-03-22

Family

ID=67987293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018056601A Active JP7243026B2 (ja) 2018-03-23 2018-03-23 演奏解析方法、演奏解析装置およびプログラム

Country Status (3)

Country Link
US (1) US11869465B2 (ja)
JP (1) JP7243026B2 (ja)
WO (1) WO2019181735A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6737300B2 (ja) * 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP7243026B2 (ja) * 2018-03-23 2023-03-22 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
JP7147384B2 (ja) * 2018-09-03 2022-10-05 ヤマハ株式会社 情報処理方法および情報処理装置
US11341945B2 (en) * 2019-08-15 2022-05-24 Samsung Electronics Co., Ltd. Techniques for learning effective musical features for generative and retrieval-based applications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241181A (ja) 2006-03-13 2007-09-20 Univ Of Tokyo 自動伴奏システム及び楽譜追跡システム
JP2017207615A (ja) 2016-05-18 2017-11-24 ヤマハ株式会社 自動演奏システムおよび自動演奏方法
WO2018016582A1 (ja) 2016-07-22 2018-01-25 ヤマハ株式会社 演奏解析方法、自動演奏方法および自動演奏システム
WO2018016637A1 (ja) 2016-07-22 2018-01-25 ヤマハ株式会社 制御方法、及び、制御装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3817878B2 (ja) 1997-12-09 2006-09-06 ヤマハ株式会社 制御装置およびカラオケ装置
US7956900B2 (en) * 2005-06-01 2011-06-07 Pioneer Corporation Video delivery device, video delivery method, video delivery program and recording medium
JP5654897B2 (ja) * 2010-03-02 2015-01-14 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム
KR101582436B1 (ko) * 2010-05-04 2016-01-04 샤잠 엔터테인먼트 리미티드 미디어의 동기화 방법 및 시스템
AU2011318246A1 (en) * 2010-10-22 2013-05-09 Joshua Michael Young Methods devices and systems for creating control signals
JP5598490B2 (ja) * 2012-03-19 2014-10-01 カシオ計算機株式会社 演奏装置、方法及びプログラム
JP6281211B2 (ja) 2013-08-28 2018-02-21 ヤマハ株式会社 音響信号のアライメント装置、アライメント方法及びコンピュータプログラム
JP6187132B2 (ja) 2013-10-18 2017-08-30 ヤマハ株式会社 スコアアライメント装置及びスコアアライメントプログラム
US10846519B2 (en) * 2016-07-22 2020-11-24 Yamaha Corporation Control system and control method
JP6699677B2 (ja) * 2018-02-06 2020-05-27 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP7243026B2 (ja) * 2018-03-23 2023-03-22 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
US20220399000A1 (en) * 2019-07-05 2022-12-15 Ntt Docomo, Inc. System of generating model for estimation, and estimation system
JP7419726B2 (ja) * 2019-09-27 2024-01-23 ヤマハ株式会社 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム
US20230054973A1 (en) * 2020-02-06 2023-02-23 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
JP2021128297A (ja) * 2020-02-17 2021-09-02 ヤマハ株式会社 推定モデル構築方法、演奏解析方法、推定モデル構築装置、演奏解析装置、およびプログラム
CN115298733A (zh) * 2020-03-24 2022-11-04 雅马哈株式会社 训练好的模型的建立方法、推定方法、演奏代理的推荐方法、演奏代理的调整方法、训练好的模型的建立系统、推定系统、训练好的模型的建立程序及推定程序
US12046221B2 (en) * 2021-03-25 2024-07-23 Yousician Oy User interface for displaying written music during performance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241181A (ja) 2006-03-13 2007-09-20 Univ Of Tokyo 自動伴奏システム及び楽譜追跡システム
JP2017207615A (ja) 2016-05-18 2017-11-24 ヤマハ株式会社 自動演奏システムおよび自動演奏方法
WO2018016582A1 (ja) 2016-07-22 2018-01-25 ヤマハ株式会社 演奏解析方法、自動演奏方法および自動演奏システム
WO2018016637A1 (ja) 2016-07-22 2018-01-25 ヤマハ株式会社 制御方法、及び、制御装置

Also Published As

Publication number Publication date
US20210005173A1 (en) 2021-01-07
JP2019168599A (ja) 2019-10-03
US11869465B2 (en) 2024-01-09
WO2019181735A1 (ja) 2019-09-26

Similar Documents

Publication Publication Date Title
JP7243026B2 (ja) 演奏解析方法、演奏解析装置およびプログラム
CN111052223B (zh) 播放控制方法、播放控制装置及记录介质
JP6699677B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6801225B2 (ja) 自動演奏システムおよび自動演奏方法
JP7432124B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6776788B2 (ja) 演奏制御方法、演奏制御装置およびプログラム
CN111602193B (zh) 用于处理乐曲的演奏的信息处理方法和装置
US20220036866A1 (en) Reproduction control method, reproduction control system, and reproduction control apparatus
US10140965B2 (en) Automated musical performance system and method
JP2022123072A (ja) 情報処理方法
JP6733487B2 (ja) 音響解析方法および音響解析装置
JP6838357B2 (ja) 音響解析方法および音響解析装置
JP2016183989A (ja) 情報処理装置及びプログラム
CN112912951A (zh) 表示动作的数据的信息处理装置
JP6977813B2 (ja) 自動演奏システムおよび自動演奏方法
WO2023181571A1 (ja) データ出力方法、プログラム、データ出力装置および電子楽器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151