JP6729517B2 - 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット - Google Patents
学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット Download PDFInfo
- Publication number
- JP6729517B2 JP6729517B2 JP2017150225A JP2017150225A JP6729517B2 JP 6729517 B2 JP6729517 B2 JP 6729517B2 JP 2017150225 A JP2017150225 A JP 2017150225A JP 2017150225 A JP2017150225 A JP 2017150225A JP 6729517 B2 JP6729517 B2 JP 6729517B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- learning model
- striking
- learning
- time point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 19
- 238000009527 percussion Methods 0.000 claims description 92
- 238000010801 machine learning Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 description 28
- 238000001514 detection method Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000002360 preparation method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 239000012528 membrane Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H3/00—Instruments in which the tones are generated by electromechanical means
- G10H3/12—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
- G10H3/14—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
- G10H3/146—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a membrane, e.g. a drum; Pick-up means for vibrating surfaces, e.g. housing of an instrument
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10F—AUTOMATIC MUSICAL INSTRUMENTS
- G10F1/00—Automatic musical instruments
- G10F1/08—Percussion musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/435—Gensound percussion, i.e. generating or synthesising the sound of a percussion instrument; Control of specific aspects of percussion sounds, e.g. harmonics, under the influence of hitting force, hitting position, settings or striking instruments such as mallet, drumstick, brush or hand
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Electrophonic Musical Instruments (AREA)
Description
本発明の好適な態様に係るプログラムは、コンピュータを、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習処理部として機能させる。
図1は、本発明の第1実施形態に係る自動演奏システム100の構成図である。自動演奏システム100は、打楽器21の自動演奏を実行するコンピュータシステムであり、演奏制御装置10と演奏装置20と検出装置30とを具備する。なお、自動演奏システム100の任意の2以上の要素を一体に構成してもよい。例えば、演奏装置20と検出装置30とは一体に構成される。
本発明の第2実施形態について説明する。なお、以下に例示する各形態において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
<態様1>
本発明の好適な態様(態様1)に係る学習モデル生成方法は、コンピュータが、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する。以上の態様では、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルが生成される。以上の態様で生成された学習モデルを利用することで、例えば打撃部材を楽曲データに応じて移動させるだけの構成と比較して打楽器の自然な自動演奏を実現することが可能である。
態様1の好適例(態様2)においては、前記打楽器が発音する演奏音の誤差を利用した前記機械学習により、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する前記学習モデルを生成する。演奏音の誤差を機械学習に利用する以上の態様によれば、打楽器が設置される環境が変化した場合でも打楽器の自然な自動演奏が実現されるという利点がある。
態様2の好適例(態様3)において、時間軸上の複数の時点の各々について、当該時点における前記演奏パラメータの基礎値と当該時点について生成された調整値とに応じて発音された演奏音の誤差に対して、当該時点の後の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する前記学習モデルを生成する。以上の態様では、時間軸上の複数の時点の各々について、演奏パラメータの基礎値を調整するための調整値を出力する学習モデルが生成される。
態様1の好適例(態様4)において、前記打撃部材を駆動する自動演奏により前記打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間における周波数特性の近似度に応じた報酬を最大化させる前記機械学習により、前記自動演奏に関する演奏パラメータの数値を出力する学習モデルを生成する。以上の態様では、打撃部材を駆動する自動演奏により打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間の周波数特性の近似度に応じた報酬を最大化させる機械学習(具体的には強化学習)により学習モデルが生成される。したがって、模範演奏時の演奏音に近い自然な音色で打楽器の自動演奏を実現することが可能である。
本発明の好適な態様(態様5)に係るプログラムは、コンピュータを、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習処理部として機能させる。以上の態様では、打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルが生成される。以上の態様で生成された学習モデルを利用することで、例えば打撃部材を楽曲データに応じて移動させるだけの構成と比較して打楽器の自然な自動演奏を実現することが可能である。
本発明の好適な態様(態様6)に係る自動演奏ロボットは、前述の何れかの態様に係るプログラムをコンピュータが実行することで生成された学習モデルが出力する演奏パラメータを用いて打楽器を自動演奏する。以上の態様によれば、打楽器の自然な自動演奏を実現することが可能である。
Claims (8)
- 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する
コンピュータにより実現される学習モデル生成方法であって、
前記機械学習は、前記打楽器が発音する演奏音の誤差を利用する処理であり、
前記学習モデルは、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
学習モデル生成方法。 - 前記学習モデルは、時間軸上の複数の時点の各々について、当該時点における前記演奏パラメータの基礎値と当該時点について生成された調整値とに応じて発音された演奏音の誤差に対して、当該時点の後の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
請求項1の学習モデル生成方法。 - 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する
コンピュータにより実現される学習モデル生成方法であって、
前記機械学習においては、前記打撃部材を駆動する自動演奏により前記打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間における周波数特性の近似度に応じた報酬を最大化させ、
前記学習モデルは、前記自動演奏に関する演奏パラメータの数値を出力する
学習モデル生成方法。 - 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習モデル生成装置であって、
前記機械学習は、前記打楽器が発音する演奏音の誤差を利用する処理であり、
前記学習モデルは、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
学習モデル生成装置。 - 前記学習モデルは、時間軸上の複数の時点の各々について、当該時点における前記演奏パラメータの基礎値と当該時点について生成された調整値とに応じて発音された演奏音の誤差に対して、当該時点の後の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
請求項4の学習モデル生成装置。 - 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習モデル生成装置であって、
前記機械学習においては、前記打撃部材を駆動する自動演奏により前記打楽器を打撃したときの演奏音と、模範演奏時の演奏音との間における周波数特性の近似度に応じた報酬を最大化させ、
前記学習モデルは、前記自動演奏に関する演奏パラメータの数値を出力する
学習モデル生成装置。 - 打撃部材による打撃で打楽器が発音する演奏音を入力とした機械学習により、前記打撃部材の駆動により前記打楽器を打撃する自動演奏の演奏パラメータを設定するための数値を出力する学習モデルを生成する学習処理部、としてコンピュータを機能させるプログラムであって、
前記機械学習は、前記打楽器が発音する演奏音の誤差を利用する処理であり、
前記学習モデルは、時間軸上の一の時点における演奏音の誤差に対して、前記一の時点の後方の時点における前記演奏パラメータの基礎値を調整するための調整値を出力する
プログラム。 - 請求項7のプログラムをコンピュータが実行することで生成された学習モデルが出力する演奏パラメータを用いて打楽器を自動演奏する自動演奏ロボット。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017150225A JP6729517B2 (ja) | 2017-08-02 | 2017-08-02 | 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット |
PCT/JP2018/028014 WO2019026742A1 (ja) | 2017-08-02 | 2018-07-26 | 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット |
US16/778,399 US11514876B2 (en) | 2017-08-02 | 2020-01-31 | Learning model generation method, learning model generation device, and automatic musical performance robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017150225A JP6729517B2 (ja) | 2017-08-02 | 2017-08-02 | 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019028374A JP2019028374A (ja) | 2019-02-21 |
JP2019028374A5 JP2019028374A5 (ja) | 2020-04-02 |
JP6729517B2 true JP6729517B2 (ja) | 2020-07-22 |
Family
ID=65232669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017150225A Active JP6729517B2 (ja) | 2017-08-02 | 2017-08-02 | 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット |
Country Status (3)
Country | Link |
---|---|
US (1) | US11514876B2 (ja) |
JP (1) | JP6729517B2 (ja) |
WO (1) | WO2019026742A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020248124A1 (en) | 2019-06-11 | 2020-12-17 | WeMovie Technologies | Production-as-service systems for making movies, tv shows and multimedia contents |
WO2021022499A1 (en) | 2019-08-07 | 2021-02-11 | WeMovie Technologies | Adaptive marketing in cloud-based content production |
WO2021068105A1 (en) | 2019-10-08 | 2021-04-15 | WeMovie Technologies | Pre-production systems for making movies, tv shows and multimedia contents |
WO2021225608A1 (en) | 2020-05-08 | 2021-11-11 | WeMovie Technologies | Fully automated post-production editing for movies, tv shows and multimedia contents |
WO2022040410A1 (en) * | 2020-08-21 | 2022-02-24 | Aimi Inc. | Comparison training for music generator |
US11070888B1 (en) | 2020-08-27 | 2021-07-20 | WeMovie Technologies | Content structure aware multimedia streaming service for movies, TV shows and multimedia contents |
US11812121B2 (en) | 2020-10-28 | 2023-11-07 | WeMovie Technologies | Automated post-production editing for user-generated multimedia contents |
US11330154B1 (en) | 2021-07-23 | 2022-05-10 | WeMovie Technologies | Automated coordination in multimedia content production |
JP2023069663A (ja) * | 2021-11-08 | 2023-05-18 | ヤマハ株式会社 | 演奏解析方法、演奏解析システムおよびプログラム |
US11321639B1 (en) * | 2021-12-13 | 2022-05-03 | WeMovie Technologies | Automated evaluation of acting performance using cloud services |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319457A (ja) * | 1994-04-01 | 1995-12-08 | Yamaha Corp | ドラムの自動演奏システム |
JPH07319456A (ja) * | 1994-04-01 | 1995-12-08 | Yamaha Corp | ドラムの自動演奏システム |
JP4736883B2 (ja) * | 2006-03-22 | 2011-07-27 | ヤマハ株式会社 | 自動演奏装置 |
JP2008026724A (ja) * | 2006-07-24 | 2008-02-07 | Toyota Motor Corp | ドラム演奏システム、ドラム演奏装置、アーム動作決定装置及びドラム演奏方法 |
DE202006020190U1 (de) * | 2006-11-08 | 2008-04-30 | Hochschule Merseburg (FH), Körperschaft des öffentlichen Rechts | Automatisiertes Schlagzeug mit pneumatischem Antrieb |
JP2008207299A (ja) * | 2007-02-28 | 2008-09-11 | Toyota Motor Corp | 打楽器演奏マニピュレータ及び打楽器演奏ロボット |
JP6573355B2 (ja) * | 2014-12-12 | 2019-09-11 | 英一 庄司 | 打楽器の自動演奏装置及び自動演奏方法 |
-
2017
- 2017-08-02 JP JP2017150225A patent/JP6729517B2/ja active Active
-
2018
- 2018-07-26 WO PCT/JP2018/028014 patent/WO2019026742A1/ja active Application Filing
-
2020
- 2020-01-31 US US16/778,399 patent/US11514876B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019026742A1 (ja) | 2019-02-07 |
US20200168186A1 (en) | 2020-05-28 |
JP2019028374A (ja) | 2019-02-21 |
US11514876B2 (en) | 2022-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6729517B2 (ja) | 学習モデル生成方法、学習モデル生成装置、プログラムおよび自動演奏ロボット | |
Overholt et al. | Advancements in actuated musical instruments | |
US8609972B2 (en) | Performance apparatus and electronic musical instrument operable in plural operation modes determined based on movement operation of performance apparatus | |
US7435895B2 (en) | Automatic playing system used for musical instruments and computer program used therein for self-teaching | |
JP4716422B2 (ja) | 共鳴音発生装置 | |
CN103000170B (zh) | 音效赋予设备和钢琴 | |
US8586853B2 (en) | Performance apparatus and electronic musical instrument | |
JP3454100B2 (ja) | 演奏パラメータ表示装置 | |
JP3975772B2 (ja) | 波形生成装置及び方法 | |
JP7484952B2 (ja) | 電子機器、電子楽器、方法及びプログラム | |
US20120247306A1 (en) | Musical sound signal generation apparatus | |
CN113160779A (zh) | 电子乐器、方法及存储介质 | |
JP7180587B2 (ja) | 電子楽器、方法及びプログラム | |
JP2006178197A (ja) | 楽器の演奏駆動装置、鍵盤楽器の演奏駆動システム及び鍵盤楽器。 | |
JP5257950B2 (ja) | 共鳴音発生装置 | |
JP2014112221A (ja) | 発音機構における打撃部材のための駆動制御装置 | |
Chafe | Simulating performance on a bowed instrument | |
JP3829780B2 (ja) | 奏法決定装置及びプログラム | |
JP7331890B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP4049022B2 (ja) | 実楽器演奏ロボットと実楽器演奏ロボット群 | |
JP2009198551A (ja) | 楽器演奏ロボットおよび楽器自動演奏方法 | |
CN112912951A (zh) | 表示动作的数据的信息处理装置 | |
JPH0635449A (ja) | 電子打楽器 | |
JP7528488B2 (ja) | 電子楽器、方法及びプログラム | |
KR20170094828A (ko) | 현악기 연주 로봇 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200218 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200218 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6729517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |