JP6729517B2 - 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット - Google Patents

学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット Download PDF

Info

Publication number
JP6729517B2
JP6729517B2 JP2017150225A JP2017150225A JP6729517B2 JP 6729517 B2 JP6729517 B2 JP 6729517B2 JP 2017150225 A JP2017150225 A JP 2017150225A JP 2017150225 A JP2017150225 A JP 2017150225A JP 6729517 B2 JP6729517 B2 JP 6729517B2
Authority
JP
Japan
Prior art keywords
performance
learning model
striking
learning
time point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017150225A
Other languages
English (en)
Other versions
JP2019028374A (ja
JP2019028374A5 (ja
Inventor
山本 和彦
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017150225A priority Critical patent/JP6729517B2/ja
Priority to PCT/JP2018/028014 priority patent/WO2019026742A1/ja
Publication of JP2019028374A publication Critical patent/JP2019028374A/ja
Priority to US16/778,399 priority patent/US11514876B2/en
Publication of JP2019028374A5 publication Critical patent/JP2019028374A5/ja
Application granted granted Critical
Publication of JP6729517B2 publication Critical patent/JP6729517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/146Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a membrane, e.g. a drum; Pick-up means for vibrating surfaces, e.g. housing of an instrument
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10FAUTOMATIC MUSICAL INSTRUMENTS
    • G10F1/00Automatic musical instruments
    • G10F1/08Percussion musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/435Gensound percussion, i.e. generating or synthesising the sound of a percussion instrument; Control of specific aspects of percussion sounds, e.g. harmonics, under the influence of hitting force, hitting position, settings or striking instruments such as mallet, drumstick, brush or hand

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、打楽器の自動演奏に関する。
演奏ロボットにより打楽器等の各種の楽器を自動演奏させる演奏制御技術が従来から提案されている。例えば特許文献1には、楽曲の内容を表す楽曲データに応じて複数のアクチュエータによりスティックを移動させることで打楽器を打撃するドラム演奏装置が開示されている。
特開2008−026724号公報
しかし、特許文献1のように楽曲データに応じてスティックを移動させるだけでは、聴感的に自然な自動演奏を実現することは実際には困難である。以上の事情を考慮して、本発明の好適な態様は、打楽器の自然な自動演奏を実現することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る学習モデル生成方法は、コンピュータが、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する。
本発明の好適な態様に係るプログラムは、コンピュータを、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習処理部として機能させる。
本発明の第1実施形態に係る自動演奏システムの構成を示すブロック図である。 演奏装置(自動演奏ロボット)の構成を示す模式図である。 打撃部材が打楽器を打撃する動作の説明図である。 演奏制御部の動作の説明図である。 制御装置が実行する動作のフローチャートである。 第2実施形態に係る自動演奏システムの構成を示すブロック図である。 第2実施形態における機械学習の説明図である。
<第1実施形態>
図1は、本発明の第1実施形態に係る自動演奏システム100の構成図である。自動演奏システム100は、打楽器21の自動演奏を実行するコンピュータシステムであり、演奏制御装置10と演奏装置20と検出装置30とを具備する。なお、自動演奏システム100の任意の2以上の要素を一体に構成してもよい。例えば、演奏装置20と検出装置30とは一体に構成される。
演奏装置20は、演奏制御装置10による制御のもとで楽曲の自動演奏を実行する。図1に例示される通り、第1実施形態の演奏装置20は、打楽器21と打撃部材22と駆動機構23とを具備する。図2は、演奏装置20の具体的な構成を示す模式図である。図2に例示される通り、打楽器21は、打撃により発音する楽器(例えば膜鳴楽器または体鳴楽器)であり、典型的にはドラム等の膜鳴楽器である。打撃部材22は、打楽器21の打撃に利用される部材であり、典型的には、ドラムを打撃するスティックである。
駆動機構23は、打撃部材22を移動または回転させて打楽器21を打撃することで打楽器21の自動演奏を実行する。駆動機構23は、例えばモータまたはソレノイド等の各種のアクチュエータを含んで構成される。図2に例示される通り、第1実施形態の駆動機構23は、往復運動するピストン機構231と、ピストン機構231の運動を打撃部材22に伝達するリンク機構(複数のアームと各アームを連結する関節)232とで構成される。打撃部材22の基端部と駆動機構23のリンク機構232とが連結することで、ピストン機構231の運動が打撃部材22に伝達する。なお、駆動機構23の具体的な構成は図2の例示に限定されない。打撃部材22および駆動機構23は、打楽器21を自動演奏する自動演奏ロボット200として機能する。
図3は、駆動機構23の動作の説明図である。具体的には、打撃部材22のうち打楽器21に衝突する先端部の位置の時間変化が図3には図示されている。図3の縦軸は、打楽器21のうち打撃部材22による打撃面(例えば振動膜の表面)に対する打撃部材22の先端部の高さである。図3に例示される通り、打撃部材22による打楽器21の打撃(ストローク)毎に先端部の位置は変動する。
駆動機構23は、打撃部材22の先端部を、基準位置Gから開始位置Pまで移動させる。基準位置Gは、打楽器21における打撃面の位置であり、開始位置Pは打撃面から離間した位置である。駆動機構23は、先端部が開始位置Pに到達した時点から待機時間Pが経過した時点を始点として駆動時間Pにわたり打撃部材22を駆動することで先端部を降下させる。すなわち、駆動時間Pは、駆動機構23からの駆動力が打撃部材22に作用する時間である。駆動時間Pが経過すると駆動機構23からの駆動力は解除されるが、打撃部材22は慣性力および自重により基準位置Gまで降下し、打楽器21の打撃面に衝突してから反発する。図3の開放時間Pは、駆動機構23からの駆動力が打撃部材22に作用しない時間である。開放時間Pが経過すると、駆動機構23は、打撃部材22の先端部を所定の速度で開始位置Pまで移動させる。以上に説明した動作が打撃毎に反復される。
打撃部材22による打撃の時点および強度は、以上に説明した複数の演奏パラメータP(開始位置P,待機時間P,駆動時間Pおよび開放時間P)の数値により規定される。例えば、開始位置Pおよび駆動時間Pに応じて打撃の強度が規定され、待機時間Pおよび開放時間Pにより打撃の時点が規定される。図1の演奏制御装置10は、複数の演奏パラメータPを指示する制御信号Cを供給することで、演奏装置20に自動演奏を実行させる。
図1の検出装置30は、打撃部材22による打撃で打楽器21が発音する演奏音を検出する。打楽器21の演奏音を表す観測信号Qが検出装置30から出力される。第1実施形態の検出装置30は、打撃部材22による打撃で打楽器21の打撃面に発生する振動(すなわち演奏音)を検出する振動検出機器である。例えば打楽器21における打撃面に設置された圧電素子が検出装置30として好適に利用される。なお、打楽器21から空間に放射された演奏音を収音する収音機器を検出装置30として利用してもよい。なお、観測信号Qをアナログからデジタルに変換するA/D変換器の図示は省略されている。
図1に例示される通り、演奏制御装置10は、制御装置11と記憶装置12とを具備するコンピュータシステムで実現される。例えばパーソナルコンピュータ等の各種の情報端末が演奏制御装置10として利用される。制御装置11は、例えばCPU(Central Processing Unit)等の処理回路を含んで構成される。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置12として任意に採用される。なお、相互に別体で構成された複数の装置により演奏制御装置10を実現してもよい。
第1実施形態の記憶装置12は、楽曲の内容を表す楽曲データDを記憶する。第1実施形態の楽曲データDは、楽曲の打楽器パートを構成する複数の音符の各々について打撃の時点(タイミング)と強度とを指定する。強度を指定して発音を指示する指示データと、各指示データが指示する発音の時点を指定する時間データとが時系列に配列されたMIDI(Musical Instrument Digital Interface)形式のファイル(SMF:Standard MIDI File)が楽曲データDの好適例である。
また、第1実施形態の記憶装置12は、楽曲の打楽器パートにおける複数(N個)の音符の各々について基礎データB(n=1〜N)を記憶する。任意の1個の基礎データBは、打楽器パートの第n番目の音符について打撃の強度および時点を規定する。具体的には、基礎データBは、複数の演奏パラメータPの各々について基礎値X (X ,X ,X ,X )を指定する(k=1〜4)。すなわち、基礎データBは、打楽器パートの第n番目の音符について、開始位置Pの基礎値X と待機時間Pの基礎値X と駆動時間Pの基礎値X と開放時間Pの基礎値X とを含む。各基礎値X は、打楽器パートの第n番目の音符を発音するための打撃を規定する各演奏パラメータPの初期値であり、例えば自動演奏システム100の利用者が指定した数値に設定される。
図1に例示される通り、第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、演奏装置20を制御するための複数の要素(演奏制御部51aおよび学習処理部52a)として機能する。なお、制御装置11の一部の機能を専用の電子回路により実現してもよい。
演奏制御部51aは、演奏装置20による自動演奏を制御する。具体的には、演奏制御部51aは、制御信号Cの供給により駆動機構23を制御して打撃部材22を駆動することで、演奏装置20に楽曲の自動演奏を実行させる。
図4は、演奏制御部51aの動作の説明図である。図4に例示される通り、演奏制御部51aは、打楽器パートのN個の音符の各々について、各演奏パラメータPの指示値Z (Z ,Z ,Z ,Z )により規定される打撃を演奏装置20の駆動機構23に指示する(Sa1)。指示値Z は開始位置Pの数値であり、指示値Z は待機時間Pの数値であり、指示値Z は駆動時間Pの数値であり、指示値Z は開放時間Pの数値である。すなわち、楽曲内の第n番目の音符を発音するための打撃について、開始位置Pが指示値Z となり、待機時間Pが指示値Z となり、駆動時間Pが指示値Z となり、開放時間Pが指示値Z となるように、演奏制御部51aは駆動機構23を制御する。
楽曲内の第n番目の音符に対応する指示値Z は、基礎値X と調整値Y とに応じた数値に設定される。具体的には、指示値Z は、基礎値X と調整値Y との加算値である(Z =X +Y )。基礎値X は、前述の通り、記憶装置12に事前に記憶された基礎データBに含まれる数値である。他方、第n番目の音符の調整値Y は、基礎値X を調整するための数値であり、直前に位置する第(N−1)番目の音符を指示値Zn−1 〜Zn−1 に応じて実際に発音させたときの演奏音に応じて設定される。
図4に例示される通り、例えば、演奏制御部51aが、指示値Zn−1 〜Zn−1 に応じて駆動機構23を制御することで(Sa1)、楽曲内の第(N−1)番目の音符の演奏音が発音された場合を想定する。演奏制御部51aは、打楽器21の演奏音に応じた観測信号Qを検出装置30から取得する(Sa2)。演奏制御部51aは、観測信号Qから特定される演奏音の時点および強度と、楽曲データDが第(N−1)番目の音符について指定する時点および強度とを比較し、両者間の相違を示す誤差En−1を生成する(Sa3)。なお、観測信号Qが表す演奏音の周波数スペクトルと楽曲データDが指定する演奏音の周波数スペクトルとの相違を誤差En−1として生成してもよい。
演奏制御部51aは、誤差En−1を学習モデルMn−1に付与することで、第n番目の音符に関する調整値Y (Y 〜Y )を生成する(Sa4)。すなわち、学習モデルMn−1は、第(N−1)番目の音符に対応する演奏音の誤差En−1に対して、第n番目の音符に対応する演奏パラメータPの各基礎値X を調整するための調整値Y (Y 〜Y )を出力する数理モデルである。学習モデルMn−1は、人工知能ソフトウェアの一部であるプログラムとして実現され、所定の構成のニューラルネットワークと、機械学習(具体的には深層学習)により設定された係数群ωとの組合せで規定される。係数群ωは、ニューラルネットワークに適用される複数の重み付け係数の集合である。図1に例示される通り、記憶装置12には、楽曲内の相異なる音符に対応する(N−1)個の学習モデルM〜MN−1が保持される。以上に説明した通り、第2番目から第N番目までの(N−1)個の音符の各々について、直前(第(n−1)番目)の音符の演奏音に関する誤差En−1を学習モデルMn−1に適用することで調整値Y (Z ,Z ,Z ,Z )が設定される。図4から理解される通り、調整値Y の設定は、楽曲内の複数の音符の順番で逐次的に実行される。指示値Zn−1 〜Zn−1 に応じた駆動機構23の制御により打楽器21を発音させ、打楽器21の演奏音に関する誤差En−1を学習モデルMn−1に付与することで調整値Y 〜Y を設定する処理(Sa1〜Sa4)を、以下では「演奏制御処理Sa」と表記する。以上の説明から理解される通り、第1実施形態の自動演奏ロボット200は、各学習モデルMが出力する演奏パラメータP(調整値Y 〜Y )を利用して打楽器21を自動演奏するロボットである。
図1の学習処理部52aは、打楽器パートの相異なる音符に対応する(N−1)個の学習モデルM〜MN−1を機械学習により生成する。具体的には、学習処理部52aは、各学習モデルMの係数群ωを設定する。具体的には、学習処理部52aは、演奏制御部51aが演奏制御処理Saのなかで生成する誤差Eが低減される(理想的には最小化される)ように、各学習モデルMの係数群ωを複数回にわたり反復的に更新する。
演奏制御装置10の動作は、準備段階と実演段階とに区分される。実演段階は、例えば自動演奏システム100を利用した楽曲の自動演奏を実際に観客に聴取させる段階(すなわち本番)である。他方、準備段階は、実演段階に先立ち、機械学習により(N−1)個の学習モデルM〜MN−1を生成する段階(いわばリハーサル)である。自動演奏システム100が設置される環境は、準備段階と実演段階とで共通する。
図5は、準備段階において制御装置11が実行する処理のフローチャートである。例えば利用者からの指示を契機として図5の処理が開始される。処理を開始すると、演奏制御部51aは、楽曲の打楽器パートにおける複数の音符について前述の演奏制御処理Saを反復する。第(n−1)番目の1個の音符に関する演奏制御処理Saでは、演奏制御部51aは、指示値Zn−1 〜Zn−1 に応じた駆動機構23の制御により打楽器21を発音させ、打楽器21の演奏音に関する誤差En−1を学習モデルMn−1に付与することで調整値Y 〜Y を設定する。すなわち、楽曲の打楽器パートの自動演奏に並行して、演奏音の誤差E〜EN−1が生成される。
学習処理部52aは、演奏制御処理Saで生成された誤差E〜EN−1が低減されるように(N−1)個の学習モデルM〜MN−1の各々の係数群ωを更新する(Sb)。すなわち、打楽器21が実際に発音する演奏音を利用した機械学習により各学習モデルMの係数群ωが更新される。
各学習モデルMの係数群ωを更新すると、学習処理部52aは、演奏制御処理Saおよび機械学習Sbを所定の回数にわたり反復したか否かを判定する(Sc)。反復回数が所定値を下回る場合(Sc:NO)、直近の更新後の各学習モデルMを利用した演奏制御処理Saと、当該演奏制御処理Saによる演奏音を入力とした機械学習Sbとが反復される。機械学習Sbの反復により各学習モデルMの係数群ωが更新される結果、演奏音の誤差E〜EN−1が徐々に低減され、演奏制御処理Saによる演奏装置20の自動演奏が聴感的に自然な演奏に近付く。すなわち、自動演奏が経時的に上達していく。演奏制御処理Saおよび機械学習Sbの反復回数が所定値に到達すると(Sc:YES)、図5の処理が完了する。以上に説明した更新後の各学習モデルMが、確定版の学習済モデルとして記憶装置12に保持される。なお、機械学習Sbを終了するための条件は以上の例示(機械学習Sbの反復回数が所定値に到達すること)に限定されない。
準備段階後の実演段階では、準備段階で生成された各学習モデルMを利用した演奏制御処理Saにより楽曲の打楽器パートが自動演奏される。実演段階では、学習処理部52aによる機械学習Sb(係数群ωの更新)は実行されない。
なお、自動演奏システム100が設置される環境に応じた雑音(例えば空調設備の動作音等の環境音)が観測信号Qに重畳される可能性がある。観測信号Qの雑音は演奏音の誤差Eに反映される。第1実施形態では、誤差Eが低減されるように学習モデルMが生成されるから、自動演奏システム100が設置される環境のもとで演奏音に重畳される雑音の影響を低減した適切な調整値Y 〜Y を設定できる。以上に説明した通り、第1実施形態によれば、自動演奏システム100が設置される環境が変化しても、聴感的に自然な自動演奏を実現できるという利点がある。
以上に説明した通り、第1実施形態では、打撃部材22による打撃で打楽器21が発音する演奏音を入力とした機械学習により学習モデルMが生成される。学習モデルMを利用することで、打撃部材22を楽曲データDに応じて移動させるだけの構成と比較して打楽器21の自然な自動演奏を実現することが可能である。
<第2実施形態>
本発明の第2実施形態について説明する。なお、以下に例示する各形態において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図6は、第2実施形態における自動演奏システム100の構成図である。図6に例示される通り、第2実施形態の自動演奏システム100は、演奏制御装置10と演奏装置20と検出装置30とを具備する。演奏装置20および検出装置30の構成は第1実施形態と同様である。演奏制御装置10は、第1実施形態と同様に制御装置11と記憶装置12とを具備する。制御装置11は、記憶装置12に記憶されたプログラムを実行することで、演奏装置20を制御するための複数の要素(演奏制御部51bおよび学習処理部52b)として機能する。
第2実施形態の学習処理部52bは、打楽器21が発音する演奏音を入力とした機械学習(具体的には強化学習)により学習モデルMを生成する。学習モデルMは、複数の演奏パラメータP(開始位置P,待機時間P,駆動時間Pおよび開放時間P)の各々について指示値の時系列を生成する数理モデルである。第1実施形態の学習モデルMと同様に、第2実施形態の学習モデルMは、所定の構成のニューラルネットワークと係数群ωとの組合せで規定される。演奏制御部51bは、学習処理部52bが生成した各演奏パラメータPの指示値の時系列から制御信号Cを生成し、当該制御信号Cを駆動機構23に供給することで演奏装置20に楽曲の自動演奏を実行させる。以上の説明から理解される通り、第2実施形態の自動演奏ロボット200も第1実施形態と同様に、学習モデルMが出力する演奏パラメータPを利用して打楽器21を自動演奏するロボットである。
図7は、学習処理部52bの動作の説明図である。第2実施形態の学習処理部52bによる機械学習は、制御信号Cに応じた打撃部材22の駆動により打楽器21を打撃したときの演奏音V1と、打楽器21の模範的な演奏(以下「模範演奏」という)で発音された演奏音V2との近似度に応じた報酬Wを最大化させる強化学習である。模範演奏は、例えば特定の演奏者による手動での演奏である。自動演奏による演奏音V1と模範演奏時の演奏音V2との間で周波数スペクトルが相互に近似するほど報酬Wが増加し、当該報酬Wが最大化されるように学習モデルMの係数群ωが更新される。複数種の演奏パラメータPの数値を相違させた複数の場合について、当該演奏パラメータPのもとで生成される演奏音V1を利用した係数群ωの更新が反復される。各演奏パラメータPの指示値の時系列に応じた制御信号Cを駆動機構23に供給したときに打楽器21が発音する演奏音の音色は、係数群ωの更新毎に模範演奏の演奏音V2の音色に近付く。
第2実施形態においても第1実施形態と同様に、打撃部材22による打撃で打楽器21が発音する演奏音を入力とした機械学習により学習モデルMが生成される。したがって、第1実施形態と同様に、打撃部材22を楽曲データDに応じて移動させるだけの構成と比較して打楽器21の自然な自動演奏を実現することが可能である。
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)演奏パラメータPの種類または総数は以上の例示(開始位置P,待機時間P,駆動時間Pおよび開放時間P)に限定されない。例えば、開放時間Pを省略した3種類の演奏パラメータP(開始位置P,待機時間Pおよび駆動時間P)により演奏装置20を制御してもよい。
(2)前述の各形態ではドラムを打楽器21として例示したが、自動演奏の対象となる打楽器21の種類は以上の例示に限定されない。例えば、ティンパニ等の他の膜鳴楽器の自動演奏にも、前述の各形態は適用される。また、自動演奏の対象となる打楽器21は膜鳴楽器に限定されない。例えば、木琴または鉄琴等の体鳴楽器の自動演奏にも、前述の各形態が適用される。打楽器21の種類に応じて打撃部材22の称呼も変化する。
(3)前述の各形態では、圧電素子等の振動検出機器および演奏音を収音する収音機器を検出装置30として例示したが、検出装置30の構成は以上の例示に限定されない。例えば、打撃部材22が打楽器21を打撃する様子を撮像する撮像機器を検出装置30として利用してもよい。演奏制御部51(51a,51b)は、撮像機器が撮像した動画像から、打撃部材22による打撃の時点および強度(例えば打撃部材22の移動速度)を特定する。
(4)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る学習モデル生成方法は、コンピュータが、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する。以上の態様では、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルが生成される。以上の態様で生成された学習モデルを利用することで、例えば打撃部材を楽曲データに応じて移動させるだけの構成と比較して打楽器の自然な自動演奏を実現することが可能である。
なお、「演奏パラメータを設定するための数値」には、以下の各態様に例示する通り、演奏パラメータの基礎値(例えば初期値)を調整するための調整値と、演奏パラメータの数値自体とが包含される。
<態様2>
態様1の好適例(態様2)においては、前記打楽器が発音する演奏音の誤差を利用した前記機械学習により、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する前記学習モデルを生成する。演奏音の誤差を機械学習に利用する以上の態様によれば、打楽器が設置される環境が変化した場合でも打楽器の自然な自動演奏が実現されるという利点がある。
<態様3>
態様2の好適例(態様3)において、時間軸上の複数の時点の各々について、当該時点における前記演奏パラメータの基礎値と当該時点について生成された調整値とに応じて発音された演奏音の誤差に対して、当該時点の後の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する前記学習モデルを生成する。以上の態様では、時間軸上の複数の時点の各々について、演奏パラメータの基礎値を調整するための調整値を出力する学習モデルが生成される。
<態様4>
態様1の好適例(態様4)において、前記打撃部材を駆動する自動演奏により前記打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間における周波数特性の近似度に応じた報酬を最大化させる前記機械学習により、前記自動演奏に関する演奏パラメータの数値を出力する学習モデルを生成する。以上の態様では、打撃部材を駆動する自動演奏により打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間の周波数特性の近似度に応じた報酬を最大化させる機械学習(具体的には強化学習)により学習モデルが生成される。したがって、模範演奏時の演奏音に近い自然な音色で打楽器の自動演奏を実現することが可能である。
<態様5>
本発明の好適な態様(態様5)に係るプログラムは、コンピュータを、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習処理部として機能させる。以上の態様では、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルが生成される。以上の態様で生成された学習モデルを利用することで、例えば打撃部材を楽曲データに応じて移動させるだけの構成と比較して打楽器の自然な自動演奏を実現することが可能である。
態様5のプログラムは、例えばコンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされる。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。
<態様6>
本発明の好適な態様(態様6)に係る自動演奏ロボットは、前述の何れかの態様に係るプログラムをコンピュータが実行することで生成された学習モデルが出力する演奏パラメータを用いて打楽器を自動演奏する。以上の態様によれば、打楽器の自然な自動演奏を実現することが可能である。
100…自動演奏システム、200…自動演奏ロボット、10…演奏制御装置、20…演奏装置、21…打楽器、22…打撃部材、23…駆動機構、30…検出装置、51a,51b…演奏制御部、52a,52b…学習処理部。

Claims (8)

  1. 撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する
    コンピュータにより実現される学習モデル生成方法であって、
    前記機械学習は、前記打楽器が発音する演奏音の誤差を利用する処理であり、
    前記学習モデルは、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
    学習モデル生成方法。
  2. 前記学習モデルは、時間軸上の複数の時点の各々について、当該時点における前記演奏パラメータの基礎値と当該時点について生成された調整値とに応じて発音された演奏音の誤差に対して、当該時点の後の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
    請求項の学習モデル生成方法。
  3. 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する
    コンピュータにより実現される学習モデル生成方法であって、
    前記機械学習においては、前記打撃部材を駆動する自動演奏により前記打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間における周波数特性の近似度に応じた報酬を最大化させ
    前記学習モデルは、前記自動演奏に関する演奏パラメータの数値を出力す
    習モデル生成方法。
  4. 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習モデル生成装置であって、
    前記機械学習は、前記打楽器が発音する演奏音の誤差を利用する処理であり、
    前記学習モデルは、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
    学習モデル生成装置。
  5. 前記学習モデルは、時間軸上の複数の時点の各々について、当該時点における前記演奏パラメータの基礎値と当該時点について生成された調整値とに応じて発音された演奏音の誤差に対して、当該時点の後の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
    請求項4の学習モデル生成装置。
  6. 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習モデル生成装置であって、
    前記機械学習においては、前記打撃部材を駆動する自動演奏により前記打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間における周波数特性の近似度に応じた報酬を最大化させ、
    前記学習モデルは、前記自動演奏に関する演奏パラメータの数値を出力する
    学習モデル生成装置。
  7. 撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習処理部、としてコンピュータを機能させるプログラムであって、
    前記機械学習は、前記打楽器が発音する演奏音の誤差を利用する処理であり、
    前記学習モデルは、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
    プログラム。
  8. 請求項のプログラムをコンピュータが実行することで生成された学習モデルが出力する演奏パラメータを用いて打楽器を自動演奏する自動演奏ロボット。
JP2017150225A 2017-08-02 2017-08-02 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット Active JP6729517B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017150225A JP6729517B2 (ja) 2017-08-02 2017-08-02 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット
PCT/JP2018/028014 WO2019026742A1 (ja) 2017-08-02 2018-07-26 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット
US16/778,399 US11514876B2 (en) 2017-08-02 2020-01-31 Learning model generation method, learning model generation device, and automatic musical performance robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150225A JP6729517B2 (ja) 2017-08-02 2017-08-02 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット

Publications (3)

Publication Number Publication Date
JP2019028374A JP2019028374A (ja) 2019-02-21
JP2019028374A5 JP2019028374A5 (ja) 2020-04-02
JP6729517B2 true JP6729517B2 (ja) 2020-07-22

Family

ID=65232669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150225A Active JP6729517B2 (ja) 2017-08-02 2017-08-02 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット

Country Status (3)

Country Link
US (1) US11514876B2 (ja)
JP (1) JP6729517B2 (ja)
WO (1) WO2019026742A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020248124A1 (en) 2019-06-11 2020-12-17 WeMovie Technologies Production-as-service systems for making movies, tv shows and multimedia contents
WO2021022499A1 (en) 2019-08-07 2021-02-11 WeMovie Technologies Adaptive marketing in cloud-based content production
WO2021068105A1 (en) 2019-10-08 2021-04-15 WeMovie Technologies Pre-production systems for making movies, tv shows and multimedia contents
WO2021225608A1 (en) 2020-05-08 2021-11-11 WeMovie Technologies Fully automated post-production editing for movies, tv shows and multimedia contents
WO2022040410A1 (en) * 2020-08-21 2022-02-24 Aimi Inc. Comparison training for music generator
US11070888B1 (en) 2020-08-27 2021-07-20 WeMovie Technologies Content structure aware multimedia streaming service for movies, TV shows and multimedia contents
US11812121B2 (en) 2020-10-28 2023-11-07 WeMovie Technologies Automated post-production editing for user-generated multimedia contents
US11330154B1 (en) 2021-07-23 2022-05-10 WeMovie Technologies Automated coordination in multimedia content production
JP2023069663A (ja) * 2021-11-08 2023-05-18 ヤマハ株式会社 演奏解析方法、演奏解析システムおよびプログラム
US11321639B1 (en) * 2021-12-13 2022-05-03 WeMovie Technologies Automated evaluation of acting performance using cloud services

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319457A (ja) * 1994-04-01 1995-12-08 Yamaha Corp ドラムの自動演奏システム
JPH07319456A (ja) * 1994-04-01 1995-12-08 Yamaha Corp ドラムの自動演奏システム
JP4736883B2 (ja) * 2006-03-22 2011-07-27 ヤマハ株式会社 自動演奏装置
JP2008026724A (ja) * 2006-07-24 2008-02-07 Toyota Motor Corp ドラム演奏システム、ドラム演奏装置、アーム動作決定装置及びドラム演奏方法
DE202006020190U1 (de) * 2006-11-08 2008-04-30 Hochschule Merseburg (FH), Körperschaft des öffentlichen Rechts Automatisiertes Schlagzeug mit pneumatischem Antrieb
JP2008207299A (ja) * 2007-02-28 2008-09-11 Toyota Motor Corp 打楽器演奏マニピュレータ及び打楽器演奏ロボット
JP6573355B2 (ja) * 2014-12-12 2019-09-11 英一 庄司 打楽器の自動演奏装置及び自動演奏方法

Also Published As

Publication number Publication date
WO2019026742A1 (ja) 2019-02-07
US20200168186A1 (en) 2020-05-28
JP2019028374A (ja) 2019-02-21
US11514876B2 (en) 2022-11-29

Similar Documents

Publication Publication Date Title
JP6729517B2 (ja) 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット
Overholt et al. Advancements in actuated musical instruments
US8609972B2 (en) Performance apparatus and electronic musical instrument operable in plural operation modes determined based on movement operation of performance apparatus
US7435895B2 (en) Automatic playing system used for musical instruments and computer program used therein for self-teaching
JP4716422B2 (ja) 共鳴音発生装置
CN103000170B (zh) 音效赋予设备和钢琴
US8586853B2 (en) Performance apparatus and electronic musical instrument
JP3454100B2 (ja) 演奏パラメータ表示装置
JP3975772B2 (ja) 波形生成装置及び方法
JP7484952B2 (ja) 電子機器、電子楽器、方法及びプログラム
US20120247306A1 (en) Musical sound signal generation apparatus
CN113160779A (zh) 电子乐器、方法及存储介质
JP7180587B2 (ja) 電子楽器、方法及びプログラム
JP2006178197A (ja) 楽器の演奏駆動装置、鍵盤楽器の演奏駆動システム及び鍵盤楽器。
JP5257950B2 (ja) 共鳴音発生装置
JP2014112221A (ja) 発音機構における打撃部材のための駆動制御装置
Chafe Simulating performance on a bowed instrument
JP3829780B2 (ja) 奏法決定装置及びプログラム
JP7331890B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP4049022B2 (ja) 実楽器演奏ロボットと実楽器演奏ロボット群
JP2009198551A (ja) 楽器演奏ロボットおよび楽器自動演奏方法
CN112912951A (zh) 表示动作的数据的信息处理装置
JPH0635449A (ja) 電子打楽器
JP7528488B2 (ja) 電子楽器、方法及びプログラム
KR20170094828A (ko) 현악기 연주 로봇

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151