JP7388542B2 - 演奏エージェントの訓練方法、自動演奏システム、及びプログラム - Google Patents
演奏エージェントの訓練方法、自動演奏システム、及びプログラム Download PDFInfo
- Publication number
- JP7388542B2 JP7388542B2 JP2022509544A JP2022509544A JP7388542B2 JP 7388542 B2 JP7388542 B2 JP 7388542B2 JP 2022509544 A JP2022509544 A JP 2022509544A JP 2022509544 A JP2022509544 A JP 2022509544A JP 7388542 B2 JP7388542 B2 JP 7388542B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- performer
- data
- satisfaction
- agent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 238000012549 training Methods 0.000 title claims description 57
- 230000008569 process Effects 0.000 claims description 24
- 238000010801 machine learning Methods 0.000 claims description 21
- 230000002787 reinforcement Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 230000008921 facial expression Effects 0.000 claims description 9
- 230000015654 memory Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 210000004243 sweat Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/441—Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
- G10H2220/455—Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Description
図1は、本実施形態に係る自動演奏システムSの構成の一例を示す。図1に示すように、本実施形態の自動演奏システムSは、演奏制御装置100、演奏装置200、及び推定装置300を有する。演奏制御装置100及び推定装置300は、例えば、パーソナルコンピュータ、サーバ、タブレット端末、携帯端末(例えば、スマートフォン)等の情報処理装置(コンピュータ)によって実現される。
(演奏制御装置)
図2は、本実施形態に係る演奏制御装置100のハードウェア構成の一例を示す。図2に示すように、演奏制御装置100は、CPU101、RAM102、ストレージ103、入力部104、出力部105、集音部106、撮像部107、送受信部108、及びドライブ109がバスB1により電気的に接続されたコンピュータである。
図3は、本実施形態に係る推定装置300のハードウェア構成の一例を示す。図3に示すように、推定装置300は、CPU301、RAM302、ストレージ303、入力部304、出力部305、集音部306、撮像部307、生体センサ308、送受信部309、及びドライブ310がバスB3により電気的に接続されたコンピュータである。
図4は、本実施形態に係る自動演奏システムSのソフトウェア構成の一例を示す。
演奏制御装置100は、制御部150及び記憶部180を有する。制御部150は、CPU101及びRAM102により、演奏制御装置100の動作を統合的に制御するように構成される。記憶部180は、RAM102及びストレージ103により、制御部150において用いられる種々のデータを記憶するように構成される。演奏制御装置100のCPU101は、ストレージ103に記憶されたプログラム81をRAM102に展開し、RAM102に展開されたプログラム81に含まれる命令を実行する。これにより、演奏制御装置100(制御部150)は、認証部151、演奏取得部152、映像取得部153、演奏エージェント160、及びエージェント訓練部170をソフトウェアモジュールとして備えるコンピュータとして動作する。
推定装置300は、制御部350及び記憶部380を有する。制御部350は、CPU301及びRAM302により、推定装置300の動作を統合的に制御するように構成される。記憶部380は、RAM302及びストレージ303により、制御部350において用いられる種々のデータ(特に、後述される満足度推定モデル)を記憶するように構成される。推定装置300のCPU301は、ストレージ303に記憶されたプログラム83をRAM302に展開し、RAM302に展開されたプログラム83に含まれる命令を実行する。これにより、推定装置300(制御部350)は、認証部351、演奏取得部352、反応取得部353、満足度取得部354、データ前処理部355、モデル訓練部356、及び満足度推定部357をソフトウェアモジュールとして備えるコンピュータとして動作する。
本実施形態では、演奏制御装置100及び推定装置300の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。上記各モジュールは、ハードウェアモジュールとして実現されてもよい。また、演奏制御装置100及び推定装置300それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
(満足度推定モデルの訓練処理)
図5は、本実施形態に係る自動演奏システムSによる満足度推定モデルの訓練処理の一例を示すフローチャートである。以下の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
図6は、本実施形態に係る自動演奏システムSによる演奏エージェントの訓練処理の一例を示すフローチャートである。以下の処理手順は、演奏エージェントの訓練方法の一例である。ただし、以下の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
本実施形態によれば、演奏者に適合する演奏エージェント160を自動的に生成することができる。そのため、演奏者に適合する演奏エージェント160を生成するコストの低減を図ることができる。また、本実施形態では、演奏者情報を用いることで、演奏者の満足度を自動的に取得することができる。これにより、満足度を取得する手間を削減することができる。また、本実施形態では、機械学習により生成された訓練済みの満足度推定モデルを使用することで、満足度を適切に取得することができる。更に、本実施形態では、演奏者情報は、演奏者による第1演奏を示す第1演奏データ、演奏者による第1演奏の際に取得される演奏者の生体信号、第1演奏を行う演奏者の映像、並びに映像から抽出される演奏者の表情及び姿勢、の少なくともいずれかを含むように構成されてよい。これにより、満足度を精度よく推定することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下の変形例は適宜組み合わせ可能である。
演奏者による楽曲の第1演奏を観測し、
演奏エージェントを用いて、前記観測された第1演奏に応じた第2演奏の演奏データを生成し、
前記演奏データを再生装置(例えば、電子楽器、ピアノプレーヤ等)に供給して、前記再生装置に前記第1演奏に並行して前記第2演奏を再生させ、
再生された第2演奏に対する、前記演奏者の満足度を観測し、
前記満足度を報酬として用いた強化学習により、得られる満足度が最大化されるよう、前記演奏エージェントが前記演奏データを生成する際に従う、パラメータを調整する、
処理を備える、
コンピュータで実現される演奏エージェントの訓練方法。
Claims (18)
- 演奏者による楽曲の第1演奏を観測し、
演奏エージェントにより、観測される前記第1演奏と並行に行う第2演奏の演奏データを生成し、
前記演奏者の前記第1演奏に並行して前記第2演奏を行うように前記演奏データを出力し、
出力された前記演奏データによる前記第2演奏に対する前記演奏者の満足度を取得し、
強化学習により、取得される前記満足度を報酬として用いて、前記演奏エージェントを訓練する、
処理を備える、
コンピュータにより実現される演奏エージェントの訓練方法。 - 前記満足度を取得することは、前記演奏者の前記第1演奏に係る演奏者情報を取得し、取得される前記演奏者情報から前記満足度を取得することにより構成される、
請求項1に記載の演奏エージェントの訓練方法。 - 前記満足度を取得することは、機械学習により生成された訓練済みの推定モデルを使用して、前記演奏者情報から前記満足度を推定することにより構成される、
請求項2に記載の演奏エージェントの訓練方法。 - 前記演奏者情報は、前記第1演奏を行う前記演奏者の映像を含む、
請求項2又は3に記載の演奏エージェントの訓練方法。 - 前記演奏者情報は、前記映像から抽出された前記演奏者の表情及び姿勢の少なくともいずれかを含む、
請求項4に記載の演奏エージェントの訓練方法。 - 前記演奏者情報は、前記演奏者による前記第1演奏の際に取得される前記演奏者の生体信号を含む、
請求項2から5のいずれか1項に記載の演奏エージェントの訓練方法。 - 前記演奏者情報は、前記演奏者による前記第1演奏の演奏データを含む、
請求項2から6のいずれか1項に記載の演奏エージェントの訓練方法。 - 前記演奏エージェントは、将来に亘って取得される前記満足度の和を最大化するように訓練される、
請求項1から7のいずれか1項に記載の演奏エージェントの訓練方法。 - プロセッサリソースと、
前記プロセッサリソースにより実行されるプログラムを保持するメモリリソースと、
を備える自動演奏システムであって、
前記プロセッサリソースは、前記プログラムを実行することにより、
演奏者による楽曲の第1演奏を観測し、
演奏エージェントにより、観測される前記第1演奏と並行に行う第2演奏の演奏データを生成し、
前記演奏者の前記第1演奏に並行して前記第2演奏を行うように前記演奏データを出力し、
出力された前記演奏データによる前記第2演奏に対する前記演奏者の満足度を取得し、
強化学習により、取得される前記満足度を報酬として用いて、前記演奏エージェントを訓練する、
ように構成される、
自動演奏システム。 - 前記第2演奏の前記演奏データに従って前記第2演奏を行う演奏装置を更に備える、
請求項9に記載の自動演奏システム。 - 前記満足度を取得することは、前記演奏者の前記第1演奏に係る演奏者情報を取得し、取得される前記演奏者情報から前記満足度を取得することにより構成される、
請求項9又は10に記載の自動演奏システム。 - 前記満足度を取得することは、機械学習により生成された訓練済みの推定モデルを使用して、前記演奏者情報から前記満足度を推定することにより構成される、
請求項11に記載の自動演奏システム。 - 前記演奏者情報は、前記第1演奏を行う前記演奏者の映像を含む、
請求項11又は12に記載の自動演奏システム。 - 前記演奏者情報は、前記映像から抽出された前記演奏者の表情及び姿勢の少なくともいずれかを含む、
請求項13に記載の自動演奏システム。 - 前記演奏者情報は、前記演奏者による前記第1演奏の際に取得される前記演奏者の生体信号を含む、
請求項11から14のいずれか1項に記載の自動演奏システム。 - 前記演奏者情報は、前記演奏者による前記第1演奏の演奏データを含む、
請求項11から15のいずれか1項に記載の自動演奏システム。 - 前記演奏エージェントは、将来に亘って取得される前記満足度の和を最大化するように訓練される、
請求項9から16のいずれか1項に記載の自動演奏システム。 - コンピュータに、
演奏者による楽曲の第1演奏を観測し、
演奏エージェントにより、観測される前記第1演奏と並行に行う第2演奏の演奏データを生成し、
前記演奏者の前記第1演奏に並行して前記第2演奏を行うように前記演奏データを出力し、
出力された前記演奏データによる前記第2演奏に対する前記演奏者の満足度を取得し、
強化学習により、取得される前記満足度を報酬として用いて、前記演奏エージェントを訓練する、
処理を実行させるための、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020051490 | 2020-03-23 | ||
JP2020051490 | 2020-03-23 | ||
PCT/JP2021/009361 WO2021193032A1 (ja) | 2020-03-23 | 2021-03-09 | 演奏エージェントの訓練方法、自動演奏システム、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021193032A1 JPWO2021193032A1 (ja) | 2021-09-30 |
JPWO2021193032A5 JPWO2021193032A5 (ja) | 2022-11-15 |
JP7388542B2 true JP7388542B2 (ja) | 2023-11-29 |
Family
ID=77891473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022509544A Active JP7388542B2 (ja) | 2020-03-23 | 2021-03-09 | 演奏エージェントの訓練方法、自動演奏システム、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230014736A1 (ja) |
JP (1) | JP7388542B2 (ja) |
CN (1) | CN115298734A (ja) |
WO (1) | WO2021193032A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7147384B2 (ja) * | 2018-09-03 | 2022-10-05 | ヤマハ株式会社 | 情報処理方法および情報処理装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191194A (ja) | 2014-03-28 | 2015-11-02 | パイオニア株式会社 | 演奏評価システム、サーバ装置、端末装置、演奏評価方法及びコンピュータプログラム |
JP2019162207A (ja) | 2018-03-19 | 2019-09-26 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5557087B2 (ja) * | 2009-10-30 | 2014-07-23 | カシオ計算機株式会社 | 自動伴奏装置およびプログラム |
JP6130041B1 (ja) * | 2016-11-15 | 2017-05-17 | 株式会社gloops | 端末装置、端末装置のゲーム実行方法、ゲーム実行プログラム、及びゲーム実行プログラム記録媒体 |
-
2021
- 2021-03-09 CN CN202180020161.5A patent/CN115298734A/zh active Pending
- 2021-03-09 JP JP2022509544A patent/JP7388542B2/ja active Active
- 2021-03-09 WO PCT/JP2021/009361 patent/WO2021193032A1/ja active Application Filing
-
2022
- 2022-09-22 US US17/950,804 patent/US20230014736A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191194A (ja) | 2014-03-28 | 2015-11-02 | パイオニア株式会社 | 演奏評価システム、サーバ装置、端末装置、演奏評価方法及びコンピュータプログラム |
JP2019162207A (ja) | 2018-03-19 | 2019-09-26 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021193032A1 (ja) | 2021-09-30 |
CN115298734A (zh) | 2022-11-04 |
US20230014736A1 (en) | 2023-01-19 |
JPWO2021193032A1 (ja) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10580393B2 (en) | Apparatus for analyzing musical performance, performance analysis method, automatic playback method, and automatic player system | |
US20190156809A1 (en) | Music data processing method and program | |
US20230014315A1 (en) | Trained model establishment method, estimation method, performance agent recommendation method, performance agent adjustment method, trained model establishment system, estimation system, trained model establishment program, and estimation program | |
CN109346043B (zh) | 一种基于生成对抗网络的音乐生成方法及装置 | |
US20220414472A1 (en) | Computer-Implemented Method, System, and Non-Transitory Computer-Readable Storage Medium for Inferring Audience's Evaluation of Performance Data | |
JP7383943B2 (ja) | 制御システム、制御方法、及びプログラム | |
US20200365126A1 (en) | Information processing method | |
US10235898B1 (en) | Computer implemented method for providing feedback of harmonic content relating to music track | |
JP7388542B2 (ja) | 演奏エージェントの訓練方法、自動演奏システム、及びプログラム | |
US20240013754A1 (en) | Performance analysis method, performance analysis system and non-transitory computer-readable medium | |
WO2021187395A1 (ja) | パラメータ推論方法、パラメータ推論システム、及びパラメータ推論プログラム | |
WO2021186928A1 (ja) | 演奏情報に対する評価を推論する方法、システム、及びプログラム | |
JP2012181697A (ja) | 対話システム、対話制御方法およびプログラム | |
Jadhav et al. | Transfer Learning for Audio Waveform to Guitar Chord Spectrograms Using the Convolution Neural Network | |
Nymoen et al. | Self-awareness in active music systems | |
Chang et al. | Intelligent Analysis and Classification of Piano Music Gestures with Multimodal Recordings | |
US20230395052A1 (en) | Audio analysis method, audio analysis system and program | |
WO2023181570A1 (ja) | 情報処理方法、情報処理システムおよびプログラム | |
KR102637788B1 (ko) | 이동 단말기용 악기 장치 및 그의 제어 방법 및 프로그램 | |
Rossi | SCHuBERT: a real-time end-to-end model for piano music emotion recognition | |
Shayda et al. | Stanford Research Series: Grand Digital Piano: Multimodal Transfer of Learning of Sound and Touch | |
JP2023106169A (ja) | 信号処理装置、及び信号処理方法 | |
KR20050088838A (ko) | 변형된 가사에 상응하는 노래 데이터 제공 방법 및 시스템 | |
Shayda et al. | Grand digital piano: multimodal transfer of learning of sound and touch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231030 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7388542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |