JP6708180B2 - 演奏解析方法、演奏解析装置およびプログラム - Google Patents
演奏解析方法、演奏解析装置およびプログラム Download PDFInfo
- Publication number
- JP6708180B2 JP6708180B2 JP2017143981A JP2017143981A JP6708180B2 JP 6708180 B2 JP6708180 B2 JP 6708180B2 JP 2017143981 A JP2017143981 A JP 2017143981A JP 2017143981 A JP2017143981 A JP 2017143981A JP 6708180 B2 JP6708180 B2 JP 6708180B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- tendency
- information
- candidate
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 40
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 15
- 230000007704 transition Effects 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/161—Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments or also rapid repetition of the same note onset
- G10H2210/165—Humanizing effects, i.e. causing a performance to sound less machine-like, e.g. by slightly randomising pitch or tempo
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/385—Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Auxiliary Devices For Music (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrophonic Musical Instruments (AREA)
Description
図1は、本発明の第1実施形態に係る演奏解析装置100の構成を示すブロック図である。図1に例示される通り、第1実施形態の演奏解析装置100は、制御装置11と記憶装置12と演奏装置13とを具備するコンピュータシステムで実現される。例えばパーソナルコンピュータ等の各種の機器が演奏解析装置100として利用される。
本発明の第2実施形態を説明する。なお、以下に例示する各形態において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図6は、第3実施形態における演奏解析装置100の構成を示すブロック図である。図6に例示される通り、第3実施形態の演奏推定部21は、演奏に関する特定の傾向(以下「基準傾向」という)CREFのもとで楽曲を演奏したときの推定演奏情報ymを単位期間Qm毎に生成する。具体的には、第3実施形態の演奏推定部21は、第1実施形態における任意の1個の演奏情報生成部Gkと同様の構成であり、基準傾向CREFが反映されたニューラルネットワークNを具備する。すなわち、演奏推定部21は、楽曲情報S(複数の単位情報Um−w〜Um+w)と過去のP個の推定演奏情報ym−1〜ym−PとをニューラルネットワークNに付与することで、基準傾向CREFが反映された推定演奏情報ymを単位期間Qmについて生成する。演奏観測部22の構成および動作は第1実施形態と同様である。
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
<態様1>
本発明の好適な態様(態様1)に係る演奏解析方法は、コンピュータが、利用者による楽曲の演奏に関する観測演奏情報と、特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報とから、前記利用者の演奏傾向を特定する。以上の態様によれば、利用者による楽曲の演奏に関する観測演奏情報から当該利用者の演奏傾向を特定することが可能である。
<態様2>
態様1の好適例(態様2)において、前記演奏傾向の特定は、相異なる複数の候補傾向の各々について、当該候補傾向のもとで前記楽曲を演奏したときの推定演奏情報を生成する演奏推定処理と、前記複数の候補傾向についてそれぞれ生成された複数の推定演奏情報の各々と前記観測演奏情報とを対比することで、前記複数の候補傾向の何れかを前記利用者の演奏傾向として特定する傾向特定処理とを含む。以上の態様では、相異なる候補傾向のもとで楽曲を演奏したときの複数の推定演奏情報の各々が観測演奏情報と対比される。したがって、複数の候補傾向の何れかを利用者の演奏傾向として特定することが可能である。
<態様3>
態様2の好適例(態様3)において、前記演奏推定処理では、前記複数の候補傾向の各々について、当該候補傾向が反映されたニューラルネットワークに、前記楽曲の内容を表す楽曲情報を付与することで、前記推定演奏情報を生成する。以上の態様では、候補傾向が反映されたニューラルネットワークに楽曲情報を付与することで、当該候補傾向のもとで楽曲を演奏したときの推定演奏情報を適切に生成することが可能である。
<態様4>
態様2または態様3の好適例(態様4)において、前記傾向特定処理では、前記各候補傾向と前記楽曲情報とが付与された条件のもとで前記観測演奏情報が観測される事後確率に応じて、前記複数の候補傾向の何れかを前記利用者の演奏傾向として特定する。以上の態様によれば、複数の候補傾向のうち最尤の演奏傾向を適切に特定することが可能である。
<態様5>
態様4の好適例(態様5)において、前記傾向特定処理では、前記各候補傾向に対応する事後確率と当該候補傾向の生起確率とに応じて、前記複数の候補傾向の何れかを前記利用者の演奏傾向として特定する。以上の態様によれば、例えば、複数の候補傾向の各々が現実の演奏の場面で観測され易いか否かという傾向のもとで、利用者の演奏傾向を高精度に推定できるという利点がある。
<態様6>
態様1の好適例(態様6)において、前記演奏傾向の特定は、特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報を生成する演奏推定処理と、前記推定演奏情報と前記観測演奏情報とを対比することで前記利用者の演奏傾向を特定する傾向特定処理とを含む。以上の態様によれば、利用者の演奏と特定の傾向との関係の指標を演奏傾向として特定できる。
<態様7>
本発明の好適な態様(態様7)に係るプログラムは、利用者による楽曲の演奏に関する観測演奏情報と、特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報とから、前記利用者の演奏傾向を特定する演奏解析部としてコンピュータを機能させる。以上の態様によれば、利用者による楽曲の演奏に関する観測演奏情報から当該利用者の演奏傾向を特定することが可能である。
Claims (8)
- 利用者による楽曲の演奏に関する観測演奏情報と、特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報とから、前記利用者の演奏傾向を特定する
コンピュータにより実現される演奏解析方法。 - 前記演奏傾向の特定は、
相異なる複数の候補傾向の各々について、当該候補傾向のもとで前記楽曲を演奏したときの推定演奏情報を生成する演奏推定処理と、
前記複数の候補傾向についてそれぞれ生成された複数の推定演奏情報の各々と前記観測演奏情報とを対比することで、前記複数の候補傾向の何れかを前記利用者の演奏傾向として特定する傾向特定処理とを含む
請求項1の演奏解析方法。 - 前記演奏推定処理においては、前記複数の候補傾向の各々について、当該候補傾向が反映された学習モデルに、前記楽曲の内容を表す楽曲情報を付与することで、前記推定演奏情報を生成する
請求項2の演奏解析方法。 - 前記傾向特定処理においては、前記各候補傾向と前記楽曲情報とが付与された条件のもとで前記観測演奏情報が観測される事後確率に応じて、前記複数の候補傾向の何れかを前記利用者の演奏傾向として特定する
請求項2または請求項3の演奏解析方法。 - 前記傾向特定処理においては、前記各候補傾向に対応する事後確率と当該候補傾向の生起確率とに応じて、前記複数の候補傾向の何れかを前記利用者の演奏傾向として特定する
請求項4の演奏解析方法。 - 前記演奏傾向の特定は、
特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報を生成する演奏推定処理と、
前記推定演奏情報と前記観測演奏情報とを対比することで前記利用者の演奏傾向を特定する傾向特定処理とを含む
請求項1の演奏解析方法。 - 利用者による楽曲の演奏に関する観測演奏情報と、特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報とから、前記利用者の演奏傾向を特定する
演奏解析装置。 - 利用者による楽曲の演奏に関する観測演奏情報と、特定の傾向のもとで前記楽曲を演奏したときの推定演奏情報とから、前記利用者の演奏傾向を特定する演奏解析部としてコンピュータを機能させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143981A JP6708180B2 (ja) | 2017-07-25 | 2017-07-25 | 演奏解析方法、演奏解析装置およびプログラム |
CN201880049017.2A CN110959172B (zh) | 2017-07-25 | 2018-07-25 | 演奏解析方法、演奏解析装置以及存储介质 |
PCT/JP2018/027837 WO2019022117A1 (ja) | 2017-07-25 | 2018-07-25 | 演奏解析方法およびプログラム |
US16/751,694 US11600252B2 (en) | 2017-07-25 | 2020-01-24 | Performance analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143981A JP6708180B2 (ja) | 2017-07-25 | 2017-07-25 | 演奏解析方法、演奏解析装置およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019028107A JP2019028107A (ja) | 2019-02-21 |
JP2019028107A5 JP2019028107A5 (ja) | 2020-04-30 |
JP6708180B2 true JP6708180B2 (ja) | 2020-06-10 |
Family
ID=65040186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143981A Active JP6708180B2 (ja) | 2017-07-25 | 2017-07-25 | 演奏解析方法、演奏解析装置およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11600252B2 (ja) |
JP (1) | JP6708180B2 (ja) |
CN (1) | CN110959172B (ja) |
WO (1) | WO2019022117A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6708179B2 (ja) * | 2017-07-25 | 2020-06-10 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP6724938B2 (ja) * | 2018-03-01 | 2020-07-15 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3577561B2 (ja) * | 1995-12-28 | 2004-10-13 | カシオ計算機株式会社 | 演奏分析装置及び演奏分析方法 |
US6236966B1 (en) * | 1998-04-14 | 2001-05-22 | Michael K. Fleming | System and method for production of audio control parameters using a learning machine |
AUPP547898A0 (en) * | 1998-08-26 | 1998-09-17 | Canon Kabushiki Kaisha | System and method for automatic music generation |
TW594670B (en) * | 2000-09-19 | 2004-06-21 | Victor Company Of Japan | A performance information recording device, performance information-compression equipment, and a telephone terminal unit |
JP4111004B2 (ja) * | 2003-02-28 | 2008-07-02 | ヤマハ株式会社 | 演奏練習装置および演奏練習プログラム |
JP2006030414A (ja) * | 2004-07-13 | 2006-02-02 | Yamaha Corp | 音色設定装置及びプログラム |
JP4457983B2 (ja) * | 2005-06-27 | 2010-04-28 | ヤマハ株式会社 | 演奏操作援助装置及びプログラム |
JP5206378B2 (ja) * | 2008-12-05 | 2013-06-12 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP5283289B2 (ja) | 2009-02-17 | 2013-09-04 | 国立大学法人京都大学 | 音楽音響信号生成システム |
JP5958041B2 (ja) * | 2012-04-18 | 2016-07-27 | ヤマハ株式会社 | 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置 |
JP5935503B2 (ja) * | 2012-05-18 | 2016-06-15 | ヤマハ株式会社 | 楽曲解析装置および楽曲解析方法 |
EP2772904B1 (en) * | 2013-02-27 | 2017-03-29 | Yamaha Corporation | Apparatus and method for detecting music chords and generation of accompaniment. |
WO2014189137A1 (ja) * | 2013-05-23 | 2014-11-27 | ヤマハ株式会社 | 演奏解析方法及び演奏解析装置 |
KR101459324B1 (ko) * | 2013-08-28 | 2014-11-07 | 이성호 | 음원 평가방법 및 이를 이용한 음원의 평가장치 |
JP2015191183A (ja) * | 2014-03-28 | 2015-11-02 | パイオニア株式会社 | 演奏評価システム、サーバ装置、端末装置、演奏評価方法及びコンピュータプログラム |
CN106340286B (zh) * | 2016-09-27 | 2020-05-19 | 华中科技大学 | 一种通用的实时乐器演奏评价系统 |
-
2017
- 2017-07-25 JP JP2017143981A patent/JP6708180B2/ja active Active
-
2018
- 2018-07-25 WO PCT/JP2018/027837 patent/WO2019022117A1/ja active Application Filing
- 2018-07-25 CN CN201880049017.2A patent/CN110959172B/zh active Active
-
2020
- 2020-01-24 US US16/751,694 patent/US11600252B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN110959172A (zh) | 2020-04-03 |
US20200160820A1 (en) | 2020-05-21 |
WO2019022117A1 (ja) | 2019-01-31 |
CN110959172B (zh) | 2023-10-31 |
US11600252B2 (en) | 2023-03-07 |
JP2019028107A (ja) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10657934B1 (en) | Enhancements for musical composition applications | |
JP6708179B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
CN110246472B (zh) | 一种音乐风格的转换方法、装置及终端设备 | |
JP6724938B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
WO2021166531A1 (ja) | 推定モデル構築方法、演奏解析方法、推定モデル構築装置、および演奏解析装置 | |
JP6708180B2 (ja) | 演奏解析方法、演奏解析装置およびプログラム | |
CN111837184A (zh) | 声音处理方法、声音处理装置及程序 | |
Foulon et al. | Automatic classification of guitar playing modes | |
JP7343012B2 (ja) | 情報処理装置および情報処理方法 | |
US11942106B2 (en) | Apparatus for analyzing audio, audio analysis method, and model building method | |
WO2021166745A1 (ja) | アレンジ生成方法、アレンジ生成装置、及び生成プログラム | |
JP7428182B2 (ja) | 情報処理装置および方法、並びにプログラム | |
Srivatsan et al. | Checklist models for improved output fluency in piano fingering prediction | |
JP6838357B2 (ja) | 音響解析方法および音響解析装置 | |
JP6596346B2 (ja) | カラオケシステム | |
JP2007240552A (ja) | 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法 | |
US20230410676A1 (en) | Information processing system, electronic musical instrument, information processing method, and machine learning system | |
JP7528971B2 (ja) | 情報処理方法、情報処理システムおよびプログラム | |
Miranda et al. | i-Berlioz: Towards interactive computer-aided orchestration with temporal control | |
Franjou | Arty: Expressive timbre transfer using articulation detection for guitar | |
JP2023106169A (ja) | 信号処理装置、及び信号処理方法 | |
JP2019139061A (ja) | コード提示方法およびプログラム | |
CN118379977A (zh) | 一种音色匹配模型训练方法及音色自动匹配方法 | |
JP4760348B2 (ja) | 楽曲選択装置および楽曲選択用コンピュータプログラム | |
CN116917981A (zh) | 音响解析方法、音响解析系统及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200318 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200318 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200504 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6708180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |