JP2022168269A - 電子楽器、学習済モデル、学習済モデルを備える装置、電子楽器の制御方法、及びプログラム - Google Patents
電子楽器、学習済モデル、学習済モデルを備える装置、電子楽器の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2022168269A JP2022168269A JP2022146086A JP2022146086A JP2022168269A JP 2022168269 A JP2022168269 A JP 2022168269A JP 2022146086 A JP2022146086 A JP 2022146086A JP 2022146086 A JP2022146086 A JP 2022146086A JP 2022168269 A JP2022168269 A JP 2022168269A
- Authority
- JP
- Japan
- Prior art keywords
- data
- musical instrument
- performance
- phrase
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 239000011295 pitch Substances 0.000 claims abstract description 121
- 230000004044 response Effects 0.000 claims abstract description 17
- 238000001228 spectrum Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 122
- 230000003595 spectral effect Effects 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 abstract description 14
- 230000015572 biosynthetic process Effects 0.000 description 98
- 238000003786 synthesis reaction Methods 0.000 description 98
- 230000008569 process Effects 0.000 description 72
- 238000010586 diagram Methods 0.000 description 31
- 230000008859 change Effects 0.000 description 15
- 238000003066 decision tree Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 230000001419 dependent effect Effects 0.000 description 6
- 238000001308 synthesis method Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000003111 delayed effect Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000002250 progressing effect Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
- G10G1/04—Transposing; Transcribing
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0016—Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
- G10H1/344—Structural association with individual keys
- G10H1/348—Switches actuated by parts of the body other than fingers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
- G10H1/42—Rhythm comprising tone forming circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/008—Means for controlling the transition from one tone waveform to another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/095—Inter-note articulation aspects, e.g. legato or staccato
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/385—Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/221—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/265—Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
橋本佳,高木信二「深層学習に基づく統計的音声合成」日本音響学会誌73巻1号(2017),pp.55-62
と置く)と、音響モデル(これを
と置く)とから、学習用音響特徴量系列614(これを
と置く)が生成される確率(これを
と置く)を最大にするような音響モデル
を、機械学習により推定する。即ち、テキストである楽器音特徴量系列と音声である音響特徴量系列との関係が、音響モデルという統計モデルによって表現される。
と置く)と、モデル学習部605での機械学習により学習結果615として設定された音響モデル
とに基づいて、音響特徴量データである音響特徴量系列617(これを再度
と置く)が生成される確率(これを
と置く)を最大にするような音響特徴量系列617の推定値
を推定する。
酒向慎司、才野慶二郎、南角吉彦、徳田恵一、北村正「声質と歌唱スタイルを自動学習可能な歌声合成システム」情報処理学会研究報告音楽情報科学(MUS)2008(12(2008-MUS-074)),pp.39-44,2008-02-08
はフレームtにおける音響特徴量、Tはフレーム数、
はHMM音響モデルの状態系列、
はフレームtにおけるHMM音響モデルの状態番号を表す。また、
は状態
から状態
への状態遷移確率を表し、
は平均ベクトル
、共分散行列
の正規分布であり、状態
の出力確率分布を表す。尤度最大化基準によるHMM音響モデルの学習は、期待値最大化(Expectation Maximization:EM)アルゴリズムを利用することで効率良く行われる。
)と、モデル学習部605での機械学習により学習結果615として設定された音響モデル(=
)とに基づいて、音響特徴量系列617(=
)が生成される確率(=
)を最大にするような音響特徴量系列617の推定値(=
)を推定する。ここで、前述した(2)式は、図7(b)の状態継続長モデルによって推定される状態系列
を用いることで、下記(4)式により近似される。
であり、
と
はそれぞれ状態
における平均ベクトルと共分散行列である。楽器音特徴量系列
を用い、学習済み音響モデル部606に設定された各決定木を辿ることにより、平均ベクトルと共分散行列が算出される。(4)式より、音響特徴量系列617の推定値(=
)は平均ベクトル(=
)によって得られるが、
は状態が遷移する部分で階段状に変化する不連続な系列となる。このような不連続な音響特徴量系列617から合成フィルタ部610が楽器音声出力データ217を合成した場合、自然性という観点からは低品質な合成楽器音声となってしまう。そこで、統計的音声合成処理の第1の実施例では、モデル学習部605において動的特徴量を考慮した学習結果615(モデルパラメータ)の生成アルゴリズムが採用されてよい。静的特徴量
と動的特徴量
からフレームtにおける音響特徴量系列(=
)が構成されるとき、各時刻の音響特徴量系列(=
)は、下記(5)式で示される。
は、動的特徴量を制約としながら出力確率が最大となる静的特徴量系列である。動的特徴量を考慮することで状態境界の不連続が解決され、滑らかに変化する音響特徴量系列617を得ることができ、合成フィルタ部610において、高品質な楽器音声出力データ217を生成することが可能となる。
と
はそれぞれt番目のフレームtにおける音響特徴量と楽器音特徴量(音高+楽器の種類)、
は学習済み音響モデル部606のDNNのモデルパラメータ、
はDNNによって表される非線形変換関数である。DNNのモデルパラメータは誤差逆伝播法によって効率良く推定することができる。前述した(1)式によって表される統計的音声合成におけるモデル学習部605の処理との対応関係を考慮すると、DNNの学習は下記の(8)式のように表すことができる。
によって表すことができる。DNNを用いた統計的音声合成処理の第2の実施例では、通常、楽器音特徴量系列
に非依存な共分散行列、即ち全てのフレームにおいて同じ共分散行列
が用いられる。また、共分散行列
を単位行列とすると、(8)式は(7)式と等価な学習処理を示している。
・・・(10)
(付記1)
互いに異なる音高データにそれぞれ対応する複数の操作子と、
任意の音高データを入力することにより、或る演奏家による或る楽器演奏の音響特徴量を示す音響特徴量データを出力する学習済み音響モデルを記憶しているメモリと、
少なくとも1つのプロセッサと、
を含み、
前記少なくとも1つのプロセッサは、
前記複数の操作子のなかのいずれかの操作子へのユーザ操作に応じて、前記いずれかの操作子に対応する音高データを前記学習済み音響モデルに入力し、
入力に応じて前記学習済み音響モデルが出力した前記音響特徴量データに基づいて前記或る演奏家による前記或る楽器演奏を推論した楽器音声出力データを出力する、
電子楽器。
(付記2)
付記1に記載の電子楽器において、
前記学習済み音響モデルは、
或る演奏家による或る楽器の演奏結果を示す学習用楽器音声データと、前記学習用楽器音声データに応じた学習用音高データを含む学習用楽譜データと、を機械学習することにより得られた学習済み音響モデルである。
(付記3)
付記1または2に記載の電子楽器において、
前記楽器音声出力データは、ユーザが演奏していない演奏技法に応じた音を含む演奏表現音データを含む。
(付記4)
付記3に記載の電子楽器において、
前記演奏技法は、スラーを含むアーティキュレーションの演奏技法を含む。
(付記5)
付記1から4のいずれかに記載の電子楽器において、
前記少なくとも1つのプロセッサは、
第1ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第1データを前記学習済み音響モデルに第1入力し、
前記第1入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第1演奏を推論した第1フレーズ楽器音声出力データを繰り返し第1出力し、
繰り返し出力しているときに、第2ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第2データを前記学習済み音響モデルに第2入力し、
前記第2入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第2演奏を推論した第2フレーズ楽器音声出力データを、前記第1フレーズ楽器音声出力データの前記第1出力に重ね合わせて第2出力する。
(付記6)
付記5に記載の電子楽器において、
前記少なくとも1つのプロセッサは、
前記第1出力による前記第2フレーズ楽器音声出力データに含まれる各音それぞれの出力タイミングを、前記第1フレーズ楽器音声出力データの各音それぞれの出力タイミングに合うように、前記第2出力を調整する。
(付記7)
付記1から6のいずれかに記載の電子楽器において、
前記音響特徴量データは、前記或る楽器の共鳴部をモデル化したスペクトルデータと、前記或る楽器の振動源をモデル化した音源データと、を含み、
前記少なくとも1つのプロセッサは、
前記スペクトルデータと、前記音源データと、に基づいて、前記楽器音声出力データを出力する。
(付記8)
付記1から7のいずれかにに記載の電子楽器において、
前記学習済み音響モデルは、少なくともディープニューラルネットワーク及び隠れマルコフモデルのいずれかにより機械学習されている。
(付記9)
互いに異なる音高データにそれぞれ対応する複数の操作子と、
任意の音高データを入力することにより、或る演奏家による或る楽器演奏の音響特徴量を示す音響特徴量データを出力する学習済み音響モデルを記憶しているメモリと、
を備える電子楽器に、
前記複数の操作子のなかのいずれかの操作子へのユーザ操作に応じて、前記いずれかの操作子に対応する音高データを前記学習済み音響モデルに入力させ、
入力に応じて前記学習済み音響モデルが出力した前記音響特徴量データに基づいて前記或る演奏家による前記或る楽器演奏を推論した楽器音声出力データを出力させる、方法。
(付記10)
互いに異なる音高データにそれぞれ対応する複数の操作子と、
任意の音高データを入力することにより、或る演奏家による或る楽器演奏の音響特徴量を示す音響特徴量データを出力する学習済み音響モデルを記憶しているメモリと、
を備える電子楽器に、
前記複数の操作子のなかのいずれかの操作子へのユーザ操作に応じて、前記いずれかの操作子に対応する音高データを前記学習済み音響モデルに入力させ、
入力に応じて前記学習済み音響モデルが出力した前記音響特徴量データに基づいて前記或る演奏家による前記或る楽器演奏を推論した楽器音声出力データを出力させる、プログラム。
101 鍵盤
102 第1のスイッチパネル
103 第2のスイッチパネル
104 LCD
105 ペダル
200 制御システム
201 CPU
202 ROM
203 RAM
204 音源LSI
205 音声合成LSI
206 キースキャナ
208 LCDコントローラ
209 システムバス
210 タイマ
211 D/Aコンバータ
213、307 ミキサ
214 アンプ
215 音高データ
216 発音制御データ
217 楽器音声出力データ
218 楽音出力データ
219 ネットワークインタフェース
220 ルーパLSI
221 拍データ
222 ループ再生楽器音声出力データ
301、Area1 第1ループ記憶エリア
302、Area2 第2ループ記憶エリア
303 ループ録音部
304 ループ再生部
305 フレーズ遅延部305
306 拍抽出部
310 ループ再生音
311 ループ再生音遅延出力
600 サーバコンピュータ
601 音声学習部
602 音声合成部
604 学習用音響特徴量抽出部
605 モデル学習部
606 学習済み音響モデル部
608 発音モデル部
609 音源生成部
610 合成フィルタ部
611 学習用楽譜データ
612 学習用楽器音声データ
614 学習用音響特徴量系列
615 学習結果
617 音響特徴量系列
618 スペクトルデータ
619 音源データ
Claims (17)
- 演奏操作子と、
音高列と、前記音高列に対応した第1種類の演奏に係る特徴量との関係が学習されている学習済み音響モデルを記憶しているメモリと、
前記演奏操作子による演奏操作で指定される音高列のデータを前記学習済み音響モデルに入力し、前記入力に応じて前記学習済み音響モデルが出力した前記特徴量のデータに基づいて前記第1種類の演奏に対応した楽音データを出力する制御部と、
を備える電子楽器。 - 前記第1種類の演奏に係る特徴量は、或る演奏家による或る楽器の演奏に係る音響的な特徴量であり、
前記制御部は、入力された音高列のデータに応じて前記学習済み音響モデルが出力した特徴量のデータに基づいて、前記演奏操作子によって演奏されていない前記或る演奏家の演奏技法を含む演奏に対応した楽音データをデジタル合成し、出力する、
請求項1に記載の電子楽器。 - 前記第1種類の演奏に係る特徴量は、前記音高列に含まれる各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つを示す特徴量であり、
前記学習済み音響モデルは、各音高の、発音タイミング、発音長、拍の強弱のいずれのデータも含まない音高列のデータを入力し、各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つを示す特徴量のデータを出力し、
前記制御部は、前記学習済み音響モデルが出力した特徴量のデータに基づいて、各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つが調整された楽音データを出力する、
請求項1または2に記載の電子楽器。 - 前記第1種類の演奏に係る特徴量は、前記音高列に含まれる各音高の、発音タイミング、発音長、拍の強弱を示す特徴量であり、
前記学習済み音響モデルは、各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つを含まない音高列のデータを入力し、各音高の、発音タイミング、発音長、拍の強弱の全てを示す特徴量のデータを出力し、
前記制御部は、前記学習済み音響モデルが出力した特徴量のデータに基づいて、各音高の、発音タイミング、発音長、拍の強弱の全てが調整された楽音データを出力する、
請求項1から3のいずれかに記載の電子楽器。 - 前記学習済み音響モデルは、
或る演奏家による或る楽器の演奏結果を示す学習用楽器音声データと、前記学習用楽器音声データに応じた学習用音高データを含む学習用楽譜データと、を機械学習することにより得られた学習済み音響モデルである、
請求項1から4のいずれかに記載の電子楽器。 - 前記第1種類の演奏は、西洋の楽譜におけるシンボルであるスラーを含むアーティキュレーションズのなかの1つを少なくとも含む、
請求項1から5のいずれかに記載の電子楽器。 - 前記制御部は、
前記演奏操作子による第1ユーザ操作に応じて、第1タイミングから第2タイミングまでの複数の第1ノートを含む第1フレーズデータを取得し、
前記第1フレーズデータに対応する前記或る演奏家の演奏技法を含む第1サウンドデータの繰り返し出力を指示する、
請求項2または5に記載の電子楽器。 - 前記制御部は、
前記演奏操作子による第2ユーザ操作に応じて、第3タイミングから第4タイミングまでの複数の第2ノートを含む第2フレーズデータを取得し、
前記第2フレーズデータに対応する前記或る演奏家の前記演奏技法を含む第2サウンドデータの繰り返し出力を指示し、
前記第1サウンドデータと前記第2サウンドデータを重ね合わせて繰り返し出力させる、
請求項7に記載の電子楽器。 - ペダル操作子を更に含み、
前記制御部は、前記ペダル操作子へのユーザ操作に応じて、前記第1フレーズデータ又は前記第2フレーズデータを取得する、請求項8に記載の電子楽器。 - 前記制御部は、
前記第2フレーズデータにおける複数の第2ノートの各スタートタイミングを、前記第1サウンドデータにおける複数の第1ノートの、拍の先頭に必ずしも一致していない各スタートタイミングに、変更し、
前記第1サウンドデータの複数の第1ノートの各スタートタイミングに基づいて変更された前記第2サウンドデータを生成する、
請求項8又は9に記載の電子楽器。 - 前記制御部は、
前記第2フレーズデータにおける前記複数の第2ノートの各音長を、前記第1サウンドデータの前記複数の第1ノートの各音長に、変更し、
前記第2サウンドデータを、前記複数の第2ノートの少なくとも1音長に変更させる、
請求項10に記載の電子楽器。 - 前記制御部は、
前記演奏操作子による第1ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第1データを前記学習済み音響モデルに第1入力し、
前記第1入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第1演奏を推論した第1フレーズ楽器音声出力データを繰り返し第1出力し、
繰り返し出力しているときに、第2ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第2データを前記学習済み音響モデルに第2入力し、
前記第2入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第2演奏を推論した第2フレーズ楽器音声出力データを、前記第1フレーズ楽器音声出力データの前記第1出力に重ね合わせて第2出力する、
請求項2または5に記載の電子楽器。 - 前記制御部は、
前記第1出力による前記第2フレーズ楽器音声出力データに含まれる各音それぞれの出力タイミングを、前記第1フレーズ楽器音声出力データの各音それぞれの出力タイミングに合うように、前記第2出力を調整する、
請求項12に記載の電子楽器。 - 前記音響特徴量データは、前記或る楽器の共鳴部をモデル化したスペクトルデータと、前記或る楽器の振動源をモデル化した音源データと、を含み、
前記制御部は、
前記スペクトルデータと、前記音源データと、に基づいて、前記楽器音声出力データを出力する、
請求項12または13に記載の電子楽器。 - 前記学習済み音響モデルは、少なくともディープニューラルネットワーク及び隠れマルコフモデルのいずれかにより機械学習されている、
請求項1から14のいずれかに記載の電子楽器。 - 演奏操作子と、音高列と、前記音高列に対応した第1種類の演奏に係る特徴量との関係が学習されている学習済み音響モデルを記憶しているメモリと、を備える電子楽器が、
前記演奏操作子による演奏操作で指定される音高列のデータを前記学習済み音響モデルに入力し、前記入力に応じて前記学習済み音響モデルが出力した前記特徴量のデータに基づいて前記第1種類の演奏に対応した楽音データを出力する処理を実行する、電子楽器の制御方法。 - 演奏操作子と、音高列と、前記音高列に対応した第1種類の演奏に係る特徴量との関係が学習されている学習済み音響モデルを記憶しているメモリと、を備える電子楽器に、
前記演奏操作子による演奏操作で指定される音高列のデータを前記学習済み音響モデルに入力し、前記入力に応じて前記学習済み音響モデルが出力した前記特徴量のデータに基づいて前記第1種類の演奏に対応した楽音データを出力する処理を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022146086A JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096779A JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP2022146086A JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096779A Division JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022168269A true JP2022168269A (ja) | 2022-11-04 |
JP7476934B2 JP7476934B2 (ja) | 2024-05-01 |
Family
ID=73453689
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096779A Active JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP2022146086A Active JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096779A Active JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220238088A1 (ja) |
EP (1) | EP3975167A4 (ja) |
JP (2) | JP7143816B2 (ja) |
CN (1) | CN113874932A (ja) |
WO (1) | WO2020235506A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9905210B2 (en) * | 2013-12-06 | 2018-02-27 | Intelliterran Inc. | Synthesized percussion pedal and docking station |
US20220215056A1 (en) * | 2021-01-04 | 2022-07-07 | Oracle International Corporation | Drill back to original audio clip in virtual assistant initiated lists and reminders |
WO2022172732A1 (ja) * | 2021-02-10 | 2022-08-18 | ヤマハ株式会社 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0869283A (ja) * | 1994-08-29 | 1996-03-12 | Imeeji Joho Kagaku Kenkyusho | 音楽セッション装置およびシステム |
JP3144273B2 (ja) | 1995-08-04 | 2001-03-12 | ヤマハ株式会社 | 自動歌唱装置 |
EP0858650B1 (en) * | 1995-10-23 | 2003-08-13 | The Regents Of The University Of California | Control structure for sound synthesis |
JP3776673B2 (ja) * | 2000-04-06 | 2006-05-17 | 独立行政法人科学技術振興機構 | 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体 |
EP1274069B1 (en) * | 2001-06-08 | 2013-01-23 | Sony France S.A. | Automatic music continuation method and device |
JP6187132B2 (ja) * | 2013-10-18 | 2017-08-30 | ヤマハ株式会社 | スコアアライメント装置及びスコアアライメントプログラム |
JP6597903B2 (ja) * | 2016-07-22 | 2019-10-30 | ヤマハ株式会社 | 楽曲データ処理方法およびプログラム |
JP6708179B2 (ja) * | 2017-07-25 | 2020-06-10 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP6913614B2 (ja) | 2017-11-24 | 2021-08-04 | 京セラ株式会社 | コンデンサ |
-
2019
- 2019-05-23 JP JP2019096779A patent/JP7143816B2/ja active Active
-
2020
- 2020-05-15 EP EP20809872.3A patent/EP3975167A4/en active Pending
- 2020-05-15 CN CN202080038164.7A patent/CN113874932A/zh active Pending
- 2020-05-15 US US17/611,621 patent/US20220238088A1/en active Pending
- 2020-05-15 WO PCT/JP2020/019525 patent/WO2020235506A1/ja unknown
-
2022
- 2022-09-14 JP JP2022146086A patent/JP7476934B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7476934B2 (ja) | 2024-05-01 |
US20220238088A1 (en) | 2022-07-28 |
EP3975167A1 (en) | 2022-03-30 |
CN113874932A (zh) | 2021-12-31 |
EP3975167A4 (en) | 2023-02-01 |
WO2020235506A1 (ja) | 2020-11-26 |
JP7143816B2 (ja) | 2022-09-29 |
JP2020190676A (ja) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6547878B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6610715B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6610714B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP7476934B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
CN111696498B (zh) | 键盘乐器以及键盘乐器的计算机执行的方法 | |
JP7259817B2 (ja) | 電子楽器、方法及びプログラム | |
CN113160779A (zh) | 电子乐器、方法及存储介质 | |
JP2023118866A (ja) | 電子楽器、方法及びプログラム | |
JP2023015302A (ja) | 電子機器、電子楽器、方法及びプログラム | |
JP2000122674A (ja) | カラオケ装置 | |
JP6819732B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6801766B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6835182B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6766935B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
JP7276292B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
WO2022080395A1 (ja) | 音声合成方法およびプログラム | |
JP7158331B2 (ja) | カラオケ装置 | |
JP2022038903A (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2022145465A (ja) | 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220922 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20231011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |