JP7251684B2 - アレンジ生成方法、アレンジ生成装置、及び生成プログラム - Google Patents
アレンジ生成方法、アレンジ生成装置、及び生成プログラム Download PDFInfo
- Publication number
- JP7251684B2 JP7251684B2 JP2022501825A JP2022501825A JP7251684B2 JP 7251684 B2 JP7251684 B2 JP 7251684B2 JP 2022501825 A JP2022501825 A JP 2022501825A JP 2022501825 A JP2022501825 A JP 2022501825A JP 7251684 B2 JP7251684 B2 JP 7251684B2
- Authority
- JP
- Japan
- Prior art keywords
- arrangement
- data
- generating
- information
- generative model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
- G10G1/04—Transposing; Transcribing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
- G10H2210/576—Chord progression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/135—Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
- G10H2220/151—Musical difficulty level setting or selection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Auxiliary Devices For Music (AREA)
Description
図1は、本発明を適用した場面の一例を模式的に示す。本実施形態に係るアレンジ生成装置1は、訓練済みの生成モデル5を用いて、楽曲のアレンジデータ25を生成するように構成されたコンピュータである。
<2.1 ハードウェア構成>
図2は、本実施形態に係るアレンジ生成装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係るアレンジ生成装置1は、制御部11、記憶部12、通信インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、通信インタフェースを「通信I/F」と記載している。
図3は、本実施形態に係るアレンジ生成装置1のソフトウェア構成の一例を模式的に例示する。アレンジ生成装置1の制御部11は、記憶部12に記憶された生成プログラム81に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係るアレンジ生成装置1は、学習データ取得部111、学習処理部112、保存処理部113、対象データ取得部114、アレンジ生成部115、楽譜生成部116、及び出力部117をソフトウェアモジュールとして備えるように構成される。すなわち、本実施形態では、アレンジ生成装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
演奏情報(21、31)は、楽曲の少なくとも一部の旋律及び和音を示すように適宜構成されてよい。楽曲の少なくとも一部は、例えば、4小節分等の所定の長さで規定されてよい。一例では、演奏情報(21、31)は、直接的に与えられてよい。他の一例では、演奏情報(21、31)は、例えば、楽譜等の他の形式のデータから得られてよい。具体例として、演奏情報(21、31)は、旋律及び和音を含む楽曲の演奏を示す様々なタイプのオリジナルデータから取得されてよい。オリジナルデータは、例えば、MIDIデータ、オーディオ波形データ等であってよい。一例では、オリジナルデータは、例えば、記憶部12、記憶媒体91等の自装置のメモリリソースから読み込まれてもよい。他の一例では、オリジナルデータは、例えば、他のスマートフォン、楽曲提供サーバ、NAS(Network Attached Storage)等の外部装置から得られてもよい。オリジナルデータは、旋律及び和声以外のデータを含んでもよい。演奏情報(21、31)における和声は、オリジナルデータに対して和声推定処理を実行することで特定されてよい。和声推定処理には、公知の方法が採用されてよい。
図6は、本実施形態に係る生成モデル5の構成の一例を模式的に例示する。生成モデル5は、機械学習により調整されるパラメータを有する機械学習モデルにより構成される。機械学習モデルの種類は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。一例では、図6に示されるとおり、生成モデル5は、参考文献「Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017.」で提案されるTransformerに基づいた構成を有してよい。Transformerは、系列データ(自然言語等)を処理する機械学習モデルであって、注意(Attention)ベースの構成を有する。
アレンジ生成装置1の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、アレンジ生成装置1の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサ(例えば、特定用途向け集積回路(ASIC))により実現されてもよい。上記各モジュールは、ハードウェアモジュールとして実現されてもよい。また、アレンジ生成装置1のソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<3.1 機械学習の処理手順>
図9は、本実施形態に係るアレンジ生成装置1による生成モデル5の機械学習に関する処理手順の一例を示すフローチャートである。以下で説明する機械学習に関する処理手順は、モデル生成方法の一例である。ただし、以下で説明するモデル生成方法の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
図10は、本実施形態に係るアレンジ生成装置1によるアレンジ生成に関する処理手順の一例を示すフローチャートである。以下で説明するアレンジ生成に関する処理手順は、アレンジ生成方法の一例である。ただし、以下で説明するアレンジ生成方法の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
以上のとおり、本実施形態では、ステップS904の処理において、機械学習により生成された訓練済みの生成モデル5を用いて、元の演奏情報21を含む対象楽曲データ20からアレンジデータ25を生成する。ステップS805において、十分な学習データ3を使用して機械学習を適切に実施することで、訓練済みの生成モデル5は、多様な元の演奏情報からアレンジデータを適切に生成する能力を獲得することができる。そのため、ステップS904において、そのような能力を獲得した訓練済みの生成モデル5を用いることで、アレンジデータ25を適切に生成することができる。加えて、メタ情報23により、アレンジデータ25の生成条件を制御することができるため、同一の演奏情報21から多様なアレンジデータ25を生成することができる。更に、訓練済みの生成モデル5を用いることで、アレンジデータ25を生成する工程の少なくとも一部を自動化することができる。これにより、人手による作業工数を削減することができる。したがって、本実施形態によれば、アレンジデータ25を生成するコストの低減を図ると共に、多様なアレンジデータ25を適切に生成することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記一例では、生成モデル5は、演奏情報に含まれる単旋律及び和声から、ピアノの右手パート及び左手パートをアレンジデータとして生成するように構成される。しかしながら、アレンジは、このような例に限定されなくてよい。上記実施形態において、構成情報を含むようにメタ情報(23、33)を構成し、構成情報により示される楽器構成を適宜制御する(例えば、ユーザが指定する)ことで、任意のパートを含むアレンジデータを生成モデル5に生成されてもよい。楽器構成の一例として、ヴォーカル・ギター・ベース・ドラムス・キーボード等を含むバンド構成、ソプラノ・アルト・テナー・バス等を含む合唱構成、及び複数の木管楽器・複数の金管楽器・弦バス・打楽器等を含む吹奏楽構成を例示することができる。当該構成によれば、上記ステップS904において、同一の演奏情報21に基づいて、異なる複数の楽器構成のパートを有するアレンジデータ25を生成することができる。上記機械学習の段階では、そのような能力を獲得した訓練済みの生成モデル5を生成することができる。
また、上記実施形態において、演奏情報(21、31)に含まれる情報は、楽曲に含まれる旋律(メロディ)及び和声(ハーモニー)を示す情報に限られなくてよい。演奏情報(21、31)は、旋律及び和声以外の情報を含んでもよい。
上記実施形態に係るステップS901及びステップS902において、アレンジ生成装置1(制御部11)は、1つの楽曲を分割する(例えば、4小節毎等の所定の長さで分割する)ことで得られる複数の部分それぞれに対応する複数の対象楽曲データ20を取得してもよい。これに応じて、制御部11は、取得された複数の対象楽曲データ20それぞれに対してアレンジデータ25を生成するステップ(ステップS903及びステップS904)を実行することで、複数のアレンジデータ25を生成してもよい。そして、制御部11は、アレンジ生成部115として動作して、生成された複数のアレンジデータ25を統合することで、1つの楽曲に対応するアレンジデータを生成してもよい。当該構成によれば、1度に実行する生成モデル5の計算量を抑えることができ、注意層による参照対象のデータサイズも抑えることができる。その結果、生成処理における演算負荷を軽減しながら、楽曲全体に亘ってアレンジデータを生成することができる。
また、上記実施形態では、アレンジ生成装置1は、機械学習の処理、及びアレンジ生成(推論)の処理の両方の演算を実行するように構成されている。しかしながら、アレンジ生成装置1の構成は、このような例に限定されなくてよい。アレンジ生成装置1が、複数台のコンピュータで構成される場合に、各ステップは、複数台のコンピュータの少なくともいずれかに実行されることで、各ステップの演算は、分散的に処理されてよい。各コンピュータ間は、ネットワーク、記憶媒体、外部記憶装置等を介して、データのやり取りが行われてよい。一例では、機械学習の処理及びアレンジ生成の処理は、別々のコンピュータにより実行されてもよい。
上記実施形態では、生成モデル5は、図6に示されるTransformerの構成による再帰構造を有している。しかしながら、再帰構造は、図6に示される例に限定されなくてよい。再帰構造は、対象より過去の入力を参照して、対象(現在)の入力に対する処理を実行可能に構成された構造を示す。このような演算が可能であれば、再帰構造は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。他の一例では、再帰構造は、例えば、RNN(Recurrent Neural Network)、LSTM(Long short-term memory)等の公知の構造により構成されてよい。
上記実施形態において、楽譜データ27の生成は省略されてもよい。これに応じて、アレンジ生成装置1のソフトウェア構成において、楽譜生成部116は省略されてよい。上記アレンジ生成に関する処理手順において、ステップS905の処理は省略されてよい。
Claims (12)
- コンピュータが、
楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するステップと、
機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するステップであって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、ステップと、
生成された前記アレンジデータを出力するステップと、
を実行し、
前記メタ情報は、アレンジの条件として前記楽曲の演奏上の難しさを示す難易度情報を含み、
前記アレンジデータを生成するステップでは、前記コンピュータは、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記難易度情報により示される前記難しさに対応した前記アレンジデータを生成する、
アレンジ生成方法。 - 前記メタ情報は、アレンジの条件として前記楽曲の音楽的なスタイルを示すスタイル情報を含み、
前記アレンジデータを生成するステップでは、前記コンピュータは、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記スタイル情報により示される前記スタイルに対応した前記アレンジデータを生成する、
請求項1に記載のアレンジ生成方法。 - 前記スタイル情報は、編曲者を特定するための編曲者情報を含む、
請求項2に記載のアレンジ生成方法。 - 前記メタ情報は、アレンジの条件として前記楽曲における楽器構成を示す構成情報を含み、
前記アレンジデータを生成するステップでは、前記コンピュータは、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記構成情報により示される前記楽器構成に対応した前記アレンジデータを生成する、
請求項1から請求項3のいずれか1項に記載のアレンジ生成方法。 - 前記演奏情報は、前記楽曲の少なくとも一部におけるリズムを示すビート情報を含む、
請求項1から請求項4のいずれか1項に記載のアレンジ生成方法。 - 前記アレンジデータを生成するステップは、
前記コンピュータが、前記対象楽曲データに対応する入力トークン列を生成するステップ、及び
前記コンピュータが、生成された前記入力トークン列に含まれるトークンを前記訓練済みの生成モデルに入力し、前記訓練済みの生成モデルの演算を実行することで、前記アレンジデータに対応する出力トークン列を生成するステップ、
を備える、
請求項1から請求項5のいずれか1項に記載のアレンジ生成方法。 - 前記入力トークン列は、前記メタ情報に対応するトークンが配置された後に、前記演奏情報に対応するトークンが時系列に対応して配置されるように構成され、
前記訓練済みの生成モデルは、再帰構造を有するように構成され、
前記出力トークン列を生成するステップでは、前記コンピュータが、前記入力トークン列に含まれるトークンを先頭から順に前記訓練済みの生成モデルに入力し、前記訓練済みの生成モデルの演算を繰り返し実行することで、前記出力トークン列を構成するトークンを順次生成する、
請求項6に記載のアレンジ生成方法。 - 前記取得するステップにおいて、前記コンピュータは、1つの楽曲を分割することで得られる複数の部分それぞれにそれぞれ対応する複数の前記対象楽曲データを取得し、
前記コンピュータは、取得された前記複数の対象楽曲データそれぞれに対して前記アレンジデータを生成するステップを実行することで、複数の前記アレンジデータを生成し、
前記コンピュータは、生成された前記複数のアレンジデータを統合することで、前記1つの楽曲に対応するアレンジデータを生成する、
請求項1から請求項7のいずれか1項に記載のアレンジ生成方法。 - コンピュータが、生成された前記アレンジデータを用いて楽譜データを生成するステップを更に実行する、
請求項1から請求項8のいずれか1項に記載のアレンジ生成方法。 - 楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するように構成された対象データ取得部と、
機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するように構成されたアレンジ生成部であって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、アレンジ生成部と、
生成された前記アレンジデータを出力するように構成された出力部と、
を備え、
前記メタ情報は、アレンジの条件として前記楽曲の演奏上の難しさを示す難易度情報を含み、
前記アレンジ生成部は、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記難易度情報により示される前記難しさに対応した前記アレンジデータを生成する、
アレンジ生成装置。 - 前記アレンジ生成装置は、生成された前記アレンジデータを用いて楽譜データを生成するように構成された楽譜生成部を更に備え、
前記アレンジデータを出力することは、生成された楽譜データを出力することにより構成される、
請求項10に記載のアレンジ生成装置。 - コンピュータに、
楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するステップと、
機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するステップであって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、ステップと、
生成された前記アレンジデータを出力するステップと、
を実行させ、
前記メタ情報は、アレンジの条件として前記楽曲の演奏上の難しさを示す難易度情報を含み、
前記アレンジデータを生成するステップでは、前記コンピュータに、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記難易度情報により示される前記難しさに対応した前記アレンジデータを生成させる、
生成プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024482 | 2020-02-17 | ||
JP2020024482 | 2020-02-17 | ||
PCT/JP2021/004815 WO2021166745A1 (ja) | 2020-02-17 | 2021-02-09 | アレンジ生成方法、アレンジ生成装置、及び生成プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021166745A1 JPWO2021166745A1 (ja) | 2021-08-26 |
JPWO2021166745A5 JPWO2021166745A5 (ja) | 2022-05-27 |
JP7251684B2 true JP7251684B2 (ja) | 2023-04-04 |
Family
ID=77391129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501825A Active JP7251684B2 (ja) | 2020-02-17 | 2021-02-09 | アレンジ生成方法、アレンジ生成装置、及び生成プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220383843A1 (ja) |
JP (1) | JP7251684B2 (ja) |
CN (1) | CN115004294A (ja) |
WO (1) | WO2021166745A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023056004A1 (en) * | 2021-09-30 | 2023-04-06 | Novel, LLC | Method and system for automatic music transcription and simplification |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2643582B2 (ja) * | 1990-10-20 | 1997-08-20 | ヤマハ株式会社 | 自動リズム生成装置 |
JP3316547B2 (ja) * | 1992-10-12 | 2002-08-19 | カシオ計算機株式会社 | 和音付装置 |
JPH06124275A (ja) * | 1992-10-13 | 1994-05-06 | Ricoh Co Ltd | 信号処理装置 |
JP3013648B2 (ja) * | 1993-03-23 | 2000-02-28 | ヤマハ株式会社 | 自動編曲装置 |
-
2021
- 2021-02-09 CN CN202180009202.0A patent/CN115004294A/zh active Pending
- 2021-02-09 WO PCT/JP2021/004815 patent/WO2021166745A1/ja active Application Filing
- 2021-02-09 JP JP2022501825A patent/JP7251684B2/ja active Active
-
2022
- 2022-08-11 US US17/886,452 patent/US20220383843A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021166745A1 (ja) | 2021-08-26 |
CN115004294A (zh) | 2022-09-02 |
JPWO2021166745A1 (ja) | 2021-08-26 |
US20220383843A1 (en) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240062736A1 (en) | Automated music composition and generation system employing virtual musical instrument libraries for producing notes contained in the digital pieces of automatically composed music | |
Hadjeres et al. | Deepbach: a steerable model for bach chorales generation | |
US5736666A (en) | Music composition | |
US9728173B2 (en) | Automatic arrangement of automatic accompaniment with accent position taken into consideration | |
CN112382257B (zh) | 一种音频处理方法、装置、设备及介质 | |
US11568244B2 (en) | Information processing method and apparatus | |
WO2020000751A1 (zh) | 自动作曲方法、装置、计算机设备和存储介质 | |
WO2020080239A1 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
US6294720B1 (en) | Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif | |
Nakamura et al. | Automatic piano reduction from ensemble scores based on merged-output hidden markov model | |
JP7251684B2 (ja) | アレンジ生成方法、アレンジ生成装置、及び生成プログラム | |
JP2017058594A (ja) | 自動アレンジ装置及びプログラム | |
JP2008527463A (ja) | 完全なオーケストレーションシステム | |
Lousseief et al. | Mahlernet: Unbounded orchestral music with neural networks | |
JP6645085B2 (ja) | 自動アレンジ装置及びプログラム | |
Jensen | Evolutionary music composition: A quantitative approach | |
WO2019022117A1 (ja) | 演奏解析方法およびプログラム | |
Wu et al. | Generating detailed music datasets with neural audio synthesis | |
Braasch | A cybernetic model approach for free jazz improvisations | |
CN113096624A (zh) | 交响乐曲自动创作方法、装置、设备及存储介质 | |
Winter | Interactive music: Compositional techniques for communicating different emotional qualities | |
WO2020171035A1 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
US11756515B1 (en) | Method and system for generating musical notations for musical score | |
JP7107427B2 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
US20240005896A1 (en) | Music generation method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230306 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7251684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |