JP7251684B2 - アレンジ生成方法、アレンジ生成装置、及び生成プログラム - Google Patents

アレンジ生成方法、アレンジ生成装置、及び生成プログラム Download PDF

Info

Publication number
JP7251684B2
JP7251684B2 JP2022501825A JP2022501825A JP7251684B2 JP 7251684 B2 JP7251684 B2 JP 7251684B2 JP 2022501825 A JP2022501825 A JP 2022501825A JP 2022501825 A JP2022501825 A JP 2022501825A JP 7251684 B2 JP7251684 B2 JP 7251684B2
Authority
JP
Japan
Prior art keywords
arrangement
data
generating
information
generative model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022501825A
Other languages
English (en)
Other versions
JPWO2021166745A1 (ja
JPWO2021166745A5 (ja
Inventor
正博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of JPWO2021166745A1 publication Critical patent/JPWO2021166745A1/ja
Publication of JPWO2021166745A5 publication Critical patent/JPWO2021166745A5/ja
Application granted granted Critical
Publication of JP7251684B2 publication Critical patent/JP7251684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • G10H2220/151Musical difficulty level setting or selection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、機械学習により生成された訓練済みの生成モデルを用いて楽曲のアレンジを生成するアレンジ生成方法、アレンジ生成装置、及び生成プログラムに関する。
楽譜を生成するには種々の工程が必要である。一般的には、楽曲の基本構成(メロディ(旋律)、リズム、ハーモニー(和声))を作成する工程、基本構成に基づいてアレンジを作成する工程、作成された楽曲(アレンジ)に対応する音符及び演奏記号等の要素をレイアウトすることで楽譜データを作成する工程、楽譜データを紙媒体等に出力する工程、等の工程を経て楽譜が作成される。以上の工程は、従来から、主として人間の作業(例えば、人手によるコンピュータソフトの操作)によって実行されている。
しかしながら、楽譜を生成する工程の全てを人手で行う場合、楽譜を生成するコストが高くなってしまう。そこで、近年では、楽譜を生成する工程の少なくとも一部を自動化する技術の開発が進められている。例えば、特許文献1には、アレンジによる伴奏(バッキング)データを自動的に生成する技術が提案されている。当該技術によれば、アレンジを生成する工程の一部を自動化することができるため、アレンジを生成するコストの低減を図ることができる。
特開2017-58594号公報
本件発明者らは、特許文献1等で提案される従来のアレンジの生成方法には次のような問題点があることを見出した。すなわち、従来の技術では、所定のアルゴリズムに従って演奏情報から伴奏データが生成される。しかしながら、自動アレンジの元となる楽曲は多種多様であるから、所定のアルゴリズムが常に演奏情報(楽曲)に適合するとは限らない。元の演奏情報が所定のアルゴリズムに適合しない場合、原曲から乖離したアレンジがされてしまい、適切なアレンジデータが生成できない可能性がある。また、従来の方法では、所定のアルゴリズムに従う一様なアレンジデータしか生成することができず、多様なアレンジデータを自動生成するのは困難である。したがって、従来の方法では、多様なアレンジデータを適切に生成するのが困難である。
本発明は、一側面では、以上の事情を鑑みてなされたものであり、その目的は、アレンジデータを生成するコストの低減を図ると共に、多様なアレンジデータを適切に生成するための技術を提供することである。
本発明は、上述した課題を解決するために、次の構成を採用する。すなわち、本発明の一側面に係るアレンジ生成方法は、コンピュータが、楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するステップと、機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するステップであって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、ステップと、生成された前記アレンジデータを出力するステップと、を実行する。
上記構成では、機械学習により生成された訓練済みの生成モデルを用いて、元の演奏情報を含む対象楽曲データからアレンジデータを生成する。十分な学習データを使用して機械学習を適切に実施することで、訓練済みの生成モデルは、多様な元の演奏情報からアレンジデータを適切に生成する能力を獲得することができる。そのため、そのような能力を獲得した訓練済みの生成モデルを用いることで、アレンジデータを適切に生成することができる。加えて、当該構成では、生成モデルの入力にメタ情報が含まれている。メタ情報によれば、アレンジデータの生成条件を制御することができる。よって、当該構成によれば、多様なアレンジデータを生成することができる。更に、当該構成によれば、アレンジデータを生成する工程を自動化することができるため、アレンジデータを生成するコストの低減を図ることができる。したがって、上記構成によれば、アレンジデータを生成するコストの低減を図ると共に、多様なアレンジデータを適切に生成することができる。
本発明によれば、アレンジデータを生成するコストの低減を図ると共に、多様なアレンジデータを適切に生成するための技術を提供することができる。
図1は、本発明が適用される場面の一例を模式的に例示する。 図2は、実施の形態に係るアレンジ生成装置のハードウェア構成の一例を模式的に例示する。 図3は、実施の形態に係るアレンジ生成装置のソフトウェア構成の一例を模式的に例示する。 図4は、実施の形態に係る演奏情報の旋律及び和声の一例を示す譜面である。 図5は、図4に示される旋律及び和声に基づいて生成されたアレンジの一例を示す譜面である。 図6は、実施の形態に係る生成モデルの構成の一例を模式的に例示する。 図7は、実施の形態に係る生成モデルに入力されるトークンの一例を説明するための図である。 図8は、実施の形態に係る生成モデルから出力されるトークンの一例を説明するための図である。 図9は、実施の形態に係るアレンジ生成装置による生成モデルの機械学習の処理手順の一例を示すフローチャートである。 図10は、実施の形態に係るアレンジ生成装置によるアレンジデータの生成処理(生成モデルによる推論処理)の手順の一例を示すフローチャートである。 図11は、変形例に係る生成モデルに入力されるトークンの一例を説明するための図である。 図12は、変形例に係る生成モデルから出力されるトークンの一例を説明するための図である。 図13は、本発明が適用される場面の他の一例を模式的に例示する。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
<1.適用例>
図1は、本発明を適用した場面の一例を模式的に示す。本実施形態に係るアレンジ生成装置1は、訓練済みの生成モデル5を用いて、楽曲のアレンジデータ25を生成するように構成されたコンピュータである。
まず、本実施形態に係るアレンジ生成装置1は、楽曲の少なくとも一部の旋律(メロディ)及び和声(コード)を示す演奏情報21、並びに楽曲の少なくとも一部に関する特性を示すメタ情報23を含む対象楽曲データ20を取得する。次に、アレンジ生成装置1は、機械学習により訓練済みの生成モデル5を用いて、取得された対象楽曲データ20からアレンジデータ25を生成する。アレンジデータ25は、メタ情報23に応じて演奏情報21をアレンジすることで得られるものである。すなわち、メタ情報23は、アレンジの生成条件に対応する。アレンジ生成装置1は、生成されたアレンジデータ25を出力する。
以上のとおり、本実施形態では、機械学習により生成された訓練済みの生成モデル5を用いて、元の演奏情報21を含む対象楽曲データ20からアレンジデータ25を生成する。十分な学習データを使用して機械学習を適切に実施することで、訓練済みの生成モデル5は、多様な元の演奏情報からアレンジデータを適切に生成する能力を獲得することができる。そのため、そのような能力を獲得した訓練済みの生成モデル5を用いることで、アレンジデータ25を適切に生成することができる。加えて、メタ情報23により、アレンジデータ25の生成条件を制御することができる。更に、訓練済みの生成モデル5を用いることで、アレンジデータ25を生成する工程の少なくとも一部を自動化することができる。したがって、本実施形態によれば、アレンジデータ25を生成するコストの低減を図ると共に、多様なアレンジデータ25を適切に生成することができる。
<2.構成例>
<2.1 ハードウェア構成>
図2は、本実施形態に係るアレンジ生成装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係るアレンジ生成装置1は、制御部11、記憶部12、通信インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、通信インタフェースを「通信I/F」と記載している。
制御部11は、ハードウェアプロセッサ(プロセッサリソース)の一例であるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部12は、メモリの一例であり、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。本実施形態では、記憶部12は、生成プログラム81、学習データ3、学習結果データ125等の各種情報を記憶する。
生成プログラム81は、生成モデル5の機械学習及び訓練済みの生成モデル5を用いたアレンジデータ25の生成に関する後述の情報処理(図9及び図10)をアレンジ生成装置1に実行させるためのプログラムである。生成プログラム81は、当該情報処理の一連の命令を含む。学習データ3は、生成モデル5の機械学習に使用される。学習結果データ125は、訓練済みの生成モデル5に関する情報を示す。本実施形態では、学習結果データ125は、生成モデル5の機械学習の処理を実行した結果として生成される。詳細は後述する。
通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。アレンジ生成装置1は、通信インタフェース13を利用して、他の情報処理装置との間で、ネットワークを介したデータ通信を実行することができる。
入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。一例では、入力装置14及び出力装置15は、別々に構成されてよい。他の一例では、入力装置14及び出力装置15は、例えば、タッチパネルディスプレイ等により一体的に構成されてよい。ユーザ等のオペレータは、入力装置14及び出力装置15を利用することで、アレンジ生成装置1を操作することができる。
ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラム等の各種情報を読み込むためのドライブ装置である。記憶媒体91は、コンピュータその他装置、機械等が、記憶されたプログラム等の各種情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。上記生成プログラム81及び学習データ3の少なくともいずれかは、記憶媒体91に記憶されていてもよい。アレンジ生成装置1は、この記憶媒体91から、上記生成プログラム81及び学習データ3の少なくともいずれかを取得してもよい。なお、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限られなくてもよく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。ドライブ16の種類は、記憶媒体91の種類に応じて任意に選択されてよい。
なお、アレンジ生成装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサの種類は、CPUに限られなくてよい。ハードウェアプロセッサは、例えば、マイクロプロセッサ、FPGA(field-programmable gate array)、GPU(Graphics Processing Unit)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。通信インタフェース13、入力装置14、出力装置15及びドライブ16の少なくともいずれかは省略されてもよい。アレンジ生成装置1は、外部装置と接続するための外部インタフェースを備えてよい。外部インタフェースは、例えば、USB(Universal Serial Bus)ポート、専用ポート等により構成されてよい。アレンジ生成装置1は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、アレンジ生成装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC(Personal Computer)、携帯端末(例えば、スマートフォン、タブレットPC)等であってもよい。
<2.2 ソフトウェア構成>
図3は、本実施形態に係るアレンジ生成装置1のソフトウェア構成の一例を模式的に例示する。アレンジ生成装置1の制御部11は、記憶部12に記憶された生成プログラム81に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係るアレンジ生成装置1は、学習データ取得部111、学習処理部112、保存処理部113、対象データ取得部114、アレンジ生成部115、楽譜生成部116、及び出力部117をソフトウェアモジュールとして備えるように構成される。すなわち、本実施形態では、アレンジ生成装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
学習データ取得部111は、学習データ3を取得するように構成される。学習データ3は、複数の学習データセット300により構成される。各学習データセット300は、訓練楽曲データ30及び既知のアレンジデータ35の組み合わせにより構成される。訓練楽曲データ30は、生成モデル5の機械学習において訓練データとして使用される楽曲データである。訓練楽曲データ30は、楽曲の少なくとも一部の旋律及び和声を示す演奏情報31、並びに楽曲の少なくとも一部に関する特性を示すメタ情報33を含む。メタ情報33は、演奏情報31から対応する既知のアレンジデータ35を生成する条件を示す。
学習処理部112は、取得された複数の学習データセット300を使用して、生成モデル5の機械学習を実施するように構成される。保存処理部113は、機械学習により生成された訓練済みの生成モデル5に関する情報を学習結果データ125として生成し、生成された学習結果データ125を所定の記憶領域に保存するように構成される。学習結果データ125は、訓練済みの生成モデル5を再生するための情報を含むように適宜構成されてよい。
対象データ取得部114は、楽曲の少なくとも一部の旋律及び和声を示す演奏情報21、並びに楽曲の少なくとも一部に関する特性を示すメタ情報23を含む対象楽曲データ20を取得するように構成される。対象楽曲データ20は、訓練済みの生成モデル5に入力されることで、アレンジの対象となる(すなわち、アレンジの元となる)楽曲データである。アレンジ生成部115は、学習結果データ125を保持していることで、訓練済みの生成モデル5を備える。アレンジ生成部115は、機械学習により訓練済みの生成モデル5を用いて、取得された対象楽曲データ20からアレンジデータ25を生成する。アレンジデータ25は、メタ情報23に応じて演奏情報21をアレンジすることで得られる。楽譜生成部116は、生成されたアレンジデータ25を用いて楽譜データ27を生成するように構成される。出力部117は、生成されたアレンジデータ25を出力するように構成される。本実施形態では、アレンジデータ25を出力することは、生成された楽譜データ27を出力することにより構成されてよい。
(各種データ)
演奏情報(21、31)は、楽曲の少なくとも一部の旋律及び和音を示すように適宜構成されてよい。楽曲の少なくとも一部は、例えば、4小節分等の所定の長さで規定されてよい。一例では、演奏情報(21、31)は、直接的に与えられてよい。他の一例では、演奏情報(21、31)は、例えば、楽譜等の他の形式のデータから得られてよい。具体例として、演奏情報(21、31)は、旋律及び和音を含む楽曲の演奏を示す様々なタイプのオリジナルデータから取得されてよい。オリジナルデータは、例えば、MIDIデータ、オーディオ波形データ等であってよい。一例では、オリジナルデータは、例えば、記憶部12、記憶媒体91等の自装置のメモリリソースから読み込まれてもよい。他の一例では、オリジナルデータは、例えば、他のスマートフォン、楽曲提供サーバ、NAS(Network Attached Storage)等の外部装置から得られてもよい。オリジナルデータは、旋律及び和声以外のデータを含んでもよい。演奏情報(21、31)における和声は、オリジナルデータに対して和声推定処理を実行することで特定されてよい。和声推定処理には、公知の方法が採用されてよい。
メタ情報(23、33)は、アレンジの生成条件を示すように適宜構成されてよい。本実施形態では、メタ情報(23、33)は、難易度情報、スタイル情報、構成情報、及びテンポ情報の少なくともいずれかを含むように構成されてよい。難易度情報は、アレンジの条件として演奏上の難しさを示すように構成される。一例では、難易度情報は、難易度のカテゴリ(例えば、「初級」、「初中級」、「中級」、「中上級」、及び「上級」のいずれか)を示す値により構成されてよい。スタイル情報は、アレンジの条件としてアレンジの音楽的なスタイルを示すように構成される。一例では、スタイル情報は、編曲者(アレンジャー)を特定するための編曲者情報(例えば、編曲者ID)、及びアーティストを特定するためのアーティスト情報(例えば、アーティストID)の少なくともいずれかを含むように構成されてよい。
構成情報は、アレンジの条件として楽曲における楽器構成を示すように構成される。一例では、構成情報は、アレンジに用いられる楽器のカテゴリを示す値により構成されてよい。楽器のカテゴリは、例えば、GM(General MIDI)規格に準じて与えられてよい。テンポ情報は、楽曲のテンポを示すように構成される。一例では、テンポ情報は、複数のテンポ範囲(例えば、BPM=60未満、60以上84未満、84以上108未満、108以上144未満、144以上192未満、192以上)のうちの楽曲の属するテンポ範囲を示す値により構成されてよい。
機械学習の場面において、メタ情報33は、対応する既知のアレンジデータ35に予め関連付けられていてよく、この場合、メタ情報33は、既知のアレンジデータ35から取得されてよい。メタ情報33は、対応する既知のアレンジデータ35を解析することで得られてよい。メタ情報33は、演奏情報31を指定した(例えば、オリジナルデータを入力した)オペレータによる入力装置14を介した入力により得られてもよい。一方、推論処理(アレンジ生成)の場面において、メタ情報23は、生成するアレンジの条件を指定するように適宜決定されてよい。一例では、メタ情報23は、例えば、ランダム、所定の規則に従って決定する等の方法によりアレンジ生成装置1又は他のコンピュータにより自動的に選択されてよい。他の一例では、メタ情報23は、アレンジデータの生成を所望するユーザによる入力装置14を介した入力により得られてもよい。
アレンジデータ(25、35)は、楽曲の少なくとも一部の旋律及び和声に対応する伴奏音(アレンジ音)を含むように構成される。アレンジデータ(25、35)は、例えば、スタンダードMIDIファイル(SMF)等の形式で得られてよい。機械学習の場面において、既知のアレンジデータ35は、正解データとして使用可能なように、演奏情報31及びメタ情報33に応じて適宜得られてよい。既知のアレンジデータ35は、所定のアルゴリズムに従って演奏情報31から自動的に生成されてもよいし、或いは少なくとも部分的に手作業により生成されてもよい。既知のアレンジデータ35は、例えば、既存の楽譜データに基づいて生成されてよい。
図4は、本実施形態に係る演奏情報(21、31)の旋律及び和声の一例を示す譜面を例示する。図4に例示されるとおり、演奏情報(21、31)は、単音(休符を含む)のシークエンスによって構成される旋律(単旋律)、及び時間と共に進行する和声(Am、F等のコード情報)を含むように構成されてよい。
図5は、図4に示される旋律及び和声に基づいて生成されるアレンジの一例を示す譜面を例示する。図5に例示されるとおり、アレンジデータ(25、35)は、複数の演奏パート(一例では、ピアノの右手パート及び左手パート)を含んでよい。アレンジデータ(25、35)は、演奏情報(21、31)に含まれている旋律を構成する旋律音に加えて、旋律及び和声に対応する伴奏音(アレンジ音)を含むように構成されてよい。
図4及び図5の例では、1小節目の冒頭において、演奏情報(21、31)に含まれる旋律はA音(付点4分音符)あり、和声はAマイナー(本例の調であるハ長調のVIの和音)である。これに対応して、アレンジデータ(25、35)は、右手パートに含まれる旋律音に加えて、和声法に従う伴奏音として、Aマイナーの構成音であるA音(表拍の8分音符)及びE音(表拍の付点4分音符及び裏拍の8分音符)を含んでいる。
なお、図示のとおり、アレンジデータ(25、35)に含まれる伴奏音は、和声を構成する音を単に伸ばした音に限定されなくてよい。アレンジデータ(25、35)は、和声に加えて旋律の音高及びリズムに対応した音(例えば、対位法的に構成された音)を含んでよい。
(生成モデルの構成例)
図6は、本実施形態に係る生成モデル5の構成の一例を模式的に例示する。生成モデル5は、機械学習により調整されるパラメータを有する機械学習モデルにより構成される。機械学習モデルの種類は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。一例では、図6に示されるとおり、生成モデル5は、参考文献「Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017.」で提案されるTransformerに基づいた構成を有してよい。Transformerは、系列データ(自然言語等)を処理する機械学習モデルであって、注意(Attention)ベースの構成を有する。
図6の例では、生成モデル5は、エンコーダ50及びデコーダ55を備える。エンコーダ50は、自己注意を求める複数ヘッド注意層(Multi-Head Attention Layer)及びフィードフォワード層(Feed Forward Layer)をそれぞれ有する複数のブロックをスタックすることで構成された構造を有する。一方、デコーダ55は、自己注意を求めるマスク化複数ヘッド注意層(Masked Multi-Head Attention Layer)、ソース・ターゲット注意を求める複数ヘッド注意層、及びフィードフォワード層をそれぞれ有する複数のブロックをスタックすることで構成された構造を有する。図6に示されるとおり、エンコーダ50及びデコーダ55の各層には、加算・正規化層(Addition and Normalization Layer)が設けられてよい。各層には、1つ以上のノードが含まれてよく、各ノードには、閾値が設定されてよい。閾値は、活性化関数により表現されてよい。また、隣接する層のノード間の結合には、重み(結合荷重)が設定されてよい。ノード間の結合の重み及び閾値が、生成モデル5のパラメータの一例である。
更に、図7及び図8を用いて、生成モデル5の入力形式及び出力形式の一例について説明する。図7は、本実施形態に係る生成モデル5に入力される楽曲データの入力形式(トークン)の一例を説明するための図である。図8は、本実施形態に係る生成モデル5から出力されるアレンジデータの出力形式(トークン)の一例を説明するための図である。本実施形態では、図7に示されるとおり、機械学習及び推論処理の場面において、楽曲データ(20、30)は、複数のトークンTを含む入力トークン列に変換される。入力トークン列は、楽曲データ(20、30)に対応するように適宜生成されてよい。
機械学習の段階において、学習処理部112は、訓練楽曲データ30に対応する入力トークン列に含まれるトークンを生成モデル5に入力し、生成モデル5の演算を実行することで、アレンジデータ(推論結果)に対応する出力トークン列を生成するように構成される。一方、推論段階において、アレンジ生成部115は、アレンジの対象楽曲データ20に対応する入力トークン列に含まれるトークンを訓練済みの生成モデル5に入力し、訓練済みの生成モデル5の演算処理を実行することで、アレンジデータ25に対応する出力トークン列を生成するように構成される。
図7に例示されるとおり、入力トークン列に含まれる各トークンTは、演奏情報(21、31)又はメタ情報(23、33)を示す情報要素である。難易度トークン(例えば、level_400)は、メタ情報(23、33)に含まれる難易度情報(例えば、ピアノ中級)を示す。スタイルトークン(例えば、arr_1)は、メタ情報(23、33)に含まれるスタイル情報(例えば、編曲者A)を示す。テンポトークン(例えば、tempo_72)は、メタ情報(23、33)に含まれるテンポ情報(例えば、4分音符=72付近のテンポ範囲)を示す。
コードトークン(例えば、chord_0 root_0)は、演奏情報(21、31)に含まれる和声(例えば、根音がCであるCメジャー)を示す。ノートオントークン(例えば、on_67)、ホールドトークン(例えば、wait_4)、及びノートオフトークン(例えば、off_67)は、演奏情報(21、31)に含まれる旋律を構成する音(例えば、音高G4の4分音符)を示す。なお、ノートオントークンは新たに発音すべき音の音高を示し、ノートオフトークンは停止すべき音の音高を示し、ホールドトークンは発音(または無音)状態を維持すべき時間長を示す。したがって、ノートオントークンによって所定の音が鳴らされ、ホールドトークンによって上記の音が鳴っている状態が維持され、ノートオフトークンによって上記の音が停止される。
本実施形態では、入力トークン列は、メタ情報(23、33)に対応するトークンTが配置された後に、演奏情報(21、31)に対応するトークンTが時系列に対応して配置されるように構成される。なお、図7の例では、入力トークン列において、難易度トークン、スタイルトークン、及びテンポトークンの順番で、メタ情報(23、33)に含まれる各種情報のトークンTが配置されている。しかしながら、メタ情報(23、33)が複数種類の情報を含む場合に、入力トークン列におけるメタ情報(23、33)の各種情報に対応するトークンTの配置順序は、このような例に限定されなくてよく、実施の形態に応じて適宜決定されてよい。
図6に示されるとおり、本実施形態に係る生成モデル5は、入力トークン列に含まれるトークンTの入力を先頭から順に受け付けるように構成される。生成モデル5に入力されたトークンTは、入力エンベディング処理によって所定の次元数を有するベクトルにそれぞれ変換され、位置エンコーディング処理によって楽曲内(フレーズ内)での位置を特定する値が付与された後、エンコーダ50に入力される。エンコーダ50は、当該入力に対して、複数ヘッド注意層及びフィードフォワード層による処理をブロック数分だけ繰り返し実行して特徴表現を取得し、取得した特徴表現を次段のデコーダ55(複数ヘッド注意層)に供給する。
デコーダ55(マスク化複数ヘッド注意層)には、エンコーダ50からの入力に加えて、デコーダ55からの既知(過去)の出力が供給される。すなわち、本実施形態に係る生成モデル5は、再帰構造を有するように構成されている。デコーダ55は、上記入力に対して、マスク化複数ヘッド注意層、複数ヘッド注意層、及びフィードフォワード層による処理をブロック数分だけ繰り返し実行して特徴表現を取得して出力する。デコーダ55からの出力は、線形層及びソフトマックス層において変換され、アレンジに相当する情報が付与されたトークンTとして出力される。
図8に例示されるとおり、生成モデル5から出力される各トークンTは、演奏情報又はメタ情報を示す情報要素であって、アレンジデータを構成する。生成モデル5からそれぞれ順次得られる複数のトークンTにより、アレンジデータに対応する出力トークン列が構成される。メタ情報に対応するトークンTについては、入力トークン列(図7)と同様であるため、説明を省略する。
アレンジデータに含まれる演奏情報を示すトークンT(ノートオントークン、ノートオフトークン)は、複数の演奏パート(ピアノの右手パート、左手パート)の音に対応してよい。すなわち、上記図5に示されるとおり、生成モデル5から出力される複数のトークンT(出力トークン列)は、入力された演奏情報(21、31)に対応するトークンTにより示される旋律を構成する旋律音に加えて、旋律及び和声に対応する伴奏音(アレンジ音)を示すように構成されてよい。
入力トークン列と同様に、出力トークン列は、メタ情報に対応するトークンTが配置された後に、演奏情報に対応するトークンTが時系列に対応して配置されるように構成される。出力トークン列におけるメタ情報の各種情報に対応するトークンTの配置順序は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。
機械学習の段階では、学習処理部112は、各学習データセット300について、訓練楽曲データ30を示す複数のトークンT(入力トークン列)を訓練データ(入力データ)として用い、対応するアレンジデータ35を示す複数のトークンT(出力トークン列)を正解データ(教師信号)として用いて、生成モデル5の機械学習を実施する。具体的には、学習処理部112は、各学習データセット300について、訓練楽曲データ30に対応する入力トークン列を生成モデル5に入力し、生成モデル5の演算を実行することで得られる出力トークン列(アレンジデータの推論結果)が対応する正解データ(既知のアレンジデータ35)に適合するものとなるように生成モデル5を訓練するように構成される。換言すると、学習処理部112は、各学習データセット300について、訓練楽曲データ30に対応する入力トークン列から生成モデル5により生成される出力トークン列により示されるアレンジデータと対応する既知のアレンジデータ35との間の誤差が小さくなるように生成モデル5のパラメータの値を調整するように構成される。生成モデル5の機械学習の処理には、複数の正規化手法(例えば、ラベル平滑化、残差ドロップアウト、注意ドロップアウト)が適用されてよい。
推論(アレンジ生成)の段階では、アレンジ生成部115は、アレンジの対象楽曲データ20を示す複数のトークンT(入力トークン列)を訓練済みの生成モデル5のエンコーダ50(図6の例では、入力エンベディング層を経た後に、最初に配置された複数ヘッド注意層)に先頭から順に入力して、エンコーダ50の演算処理を実行する。この演算処理の結果、アレンジ生成部115は、訓練済みの生成モデル5(図6の例では、最後に配置されたソフトマックス層)から出力されるトークンTを順次取得することで、アレンジデータ25(出力トークン列)を生成する。この処理の際、アレンジデータ25は、例えば、ビーム探索等の探索法を用いて生成されてよい。より具体的には、アレンジ生成部115は、生成モデル5から出力された値の確率分布からスコアの高い順にn個の候補トークンを保持し、連続するm個における統合スコアが最も高くなるように候補トークンを選択することで、アレンジデータ25を生成してよい(n,mは2以上の整数)。この処理は、機械学習における推論結果を得る処理にも適用されてよい。
(その他)
アレンジ生成装置1の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、アレンジ生成装置1の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサ(例えば、特定用途向け集積回路(ASIC))により実現されてもよい。上記各モジュールは、ハードウェアモジュールとして実現されてもよい。また、アレンジ生成装置1のソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<3.動作例>
<3.1 機械学習の処理手順>
図9は、本実施形態に係るアレンジ生成装置1による生成モデル5の機械学習に関する処理手順の一例を示すフローチャートである。以下で説明する機械学習に関する処理手順は、モデル生成方法の一例である。ただし、以下で説明するモデル生成方法の処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
ステップS801では、制御部11は、学習データ取得部111として動作し、各学習データセット300を構成する演奏情報31を取得する。一例では、演奏情報31は、直接的に与えられてよい。他の一例では、演奏情報31は、例えば、楽譜等の他の形式のデータから得られてよい。具体例として、演奏情報31は、既知のオリジナルデータの旋律及び和声を解析することで生成されてよい。
ステップS802では、制御部11は、学習データ取得部111として動作し、各件の演奏情報31に対するメタ情報33を取得する。メタ情報33は、アレンジの楽曲に関する特性を示すように適宜構成されてよい。本実施形態では、メタ情報33は、難易度情報、スタイル情報、構成情報、及びテンポ情報の少なくともいずれかを含むように構成されてよい。メタ情報33は、演奏情報31を指定した(例えば、オリジナルデータを入力した)オペレータによる入力装置14を介した入力により得られてもよい。ステップS801及びステップS802の処理により、各学習データセット300の訓練楽曲データ30を取得することができる。
ステップS803では、制御部11は、学習データ取得部111として動作し、各件の訓練楽曲データ30に対応する既知のアレンジデータ35を取得する。既知のアレンジデータ35は、正解データとして使用可能なように適宜生成されてよい。すなわち、既知のアレンジデータ35は、対応するメタ情報33に示される条件で、対応する演奏情報31に示される楽曲をアレンジすることで得られる楽曲を示すように適宜生成されてよい。一例では、既知のアレンジデータ35は、演奏情報31の取得に利用した既知のオリジナルデータに対応して生成されてよい。上記メタ情報33は、対応する既知のアレンジデータ35から取得されてもよい。得られた既知のアレンジデータ35は、対応する訓練楽曲データ30に適宜関連付けられてよい。ステップS801~ステップS803の処理により、複数の学習データセット300を取得することができる。
ステップS804では、制御部11は、学習処理部112として動作し、各学習データセット300の訓練楽曲データ30(演奏情報31及びメタ情報33)を複数のトークンTに変換する。これにより、制御部11は、各学習データセット300の訓練楽曲データ30に対応する入力トークン列を生成する。上記のとおり、本実施形態では、入力トークン列は、メタ情報33に対応するトークンTが配置された後に、演奏情報31に対応するトークンTが時系列に対応して配置されるように構成される。
なお、ステップS801及びステップS802の処理がステップS804よりも前に実行される限り、ステップS801~ステップS804の処理の順序は、上記の例に限定されなくてよく、実施の形態に応じて適宜決定されてよい。他の一例では、ステップS802の処理が、ステップS801よりも先に実行されてよい。或いは、ステップS801及びステップS802の処理は並列的に実行されてよい。他の一例では、ステップS804の処理は、ステップS801及びステップS802それぞれに対応して実行されてよい。すなわち、制御部11は、演奏情報31の取得に応じて、演奏情報31の部分のトークンTを生成し、メタ情報33の取得に応じて、メタ情報33の部分のトークンTを生成してもよい。他の一例では、ステップS804の処理は、ステップS801~ステップS803の少なくともいずれかよりも先に実行されてよい。その他の一例では、ステップS803及びステップS804の処理は並列的に実行されてもよい。
また、ステップS801~ステップS804の処理の少なくとも一部は、他のコンピュータにより実行されてよい。この場合、制御部11は、ネットワーク、記憶媒体91、その他の外部記憶装置(例えば、NAS、外付け記憶媒体等)等を介して、他のコンピュータから演算結果を取得することで、ステップS801~ステップS804の処理の少なくとも一部を達成してもよい。一例では、各学習データセット300は、他のコンピュータにより生成されてよい。この場合、制御部11は、ステップS801~ステップS803の処理として、他のコンピュータから各学習データセット300を取得してもよい。複数の学習データセット300のうちの少なくとも一部が他のコンピュータで生成され、残りがアレンジ生成装置1で生成されてもよい。
ステップS805では、制御部11は、学習処理部112として動作し、複数の学習データセット300(学習データ3)を使用して、生成モデル5の機械学習を実施する。本実施形態では、制御部11は、各学習データセット300について、順伝播の演算処理として、ステップS804の処理により得られた入力トークン列に含まれるトークンTを先頭から順に生成モデル5に入力し、生成モデル5の演算を繰り返し実行することで、出力トークン列を構成するトークンTを順次生成する。この演算により、制御部11は、推論結果として、各件の訓練楽曲データ30に対応するアレンジデータ(出力トークン列)を取得することができる。続いて、制御部11は、得られたアレンジデータ及び対応する既知のアレンジデータ35(正解データ)との間の誤差を算出し、算出された誤差の勾配を更に算出する。制御部11は、誤差逆伝播法により、算出された誤差の勾配を逆伝播することで、生成モデル5のパラメータの値の誤差を算出する。制御部11は、算出された誤差に基づいて、生成モデル5のパラメータの値を調整する。制御部11は、所定の条件(例えば、規定回数実行する、算出される誤差の和が閾値以下になる)を満たすまで、上記一連の処理による生成モデル5のパラメータの値の調整を繰り返してよい。
この機械学習により、生成モデル5は、各学習データセット300について、訓練楽曲データ30から生成したアレンジデータが対応する既知のアレンジデータ35に適合するものとなるように訓練される。したがって、機械学習の結果、各学習データセット300により与えられる入力トークン列(訓練楽曲データ30)及び出力トークン列(既知のアレンジデータ35)の間の対応関係を学習した訓練済みの生成モデル5を生成することができる。換言すると、メタ情報33に示される条件に従って演奏情報31(オリジナル)の旋律及び和声を、既知のアレンジデータ35(正解データ)に適合するようにアレンジする能力を獲得した訓練済みの生成モデル5を生成することができる。
ステップS806では、制御部11は、保存処理部113として動作し、機械学習により生成された訓練済みの生成モデル5に関する情報を学習結果データ125として生成する。学習結果データ125には、訓練済みの生成モデル5を再生するための情報が保持される。一例として、学習結果データ125は、上記機械学習の調整により得られた生成モデル5の各パラメータの値を示す情報を含んでよい。場合によって、学習結果データ125は、生成モデル5の構造を示す情報を含んでよい。構造は、例えば、層の数、各層の種類、各層に含まれるノードの数、隣接する層のノード同士の結合関係等により特定されてよい。制御部11は、生成された学習結果データ125を所定の記憶領域に保存する。
所定の記憶領域は、例えば、制御部11内のRAM、記憶部12、外部記憶装置、記憶メディア又はこれらの組み合わせであってよい。記憶メディアは、例えば、CD、DVD等であってよく、制御部11は、ドライブ16を介して記憶メディアに学習結果データ125を格納してもよい。外部記憶装置は、例えば、NAS等のデータサーバであってよい。この場合、制御部11は、通信インタフェース13を利用して、ネットワークを介してデータサーバに学習結果データ125を格納してもよい。また、外部記憶装置は、例えば、アレンジ生成装置1に接続された外付けの記憶装置であってもよい。
学習結果データ125の保存が完了すると、制御部11は、本動作例に係る生成モデル5の機械学習の処理手順を終了する。なお、制御部11は、上記ステップS801~ステップS806の処理を定期又は不定期に繰り返すことで、学習結果データ125を更新又は新たに生成してもよい。この繰り返しの際に、機械学習に使用する学習データ3の少なくとも一部の変更、修正、追加、削除等が適宜実行されてよい。これにより、制御部11は、訓練済みの生成モデル5を更新又は新たに生成してもよい。また、機械学習の結果の保存が不要である場合、ステップS806の処理は省略されてよい。
<3.2 アレンジ生成の処理手順>
図10は、本実施形態に係るアレンジ生成装置1によるアレンジ生成に関する処理手順の一例を示すフローチャートである。以下で説明するアレンジ生成に関する処理手順は、アレンジ生成方法の一例である。ただし、以下で説明するアレンジ生成方法の処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
ステップS901では、制御部11は、対象データ取得部114として動作し、楽曲の少なくとも一部の旋律及び和声を示す演奏情報21を取得する。一例では、演奏情報21は、直接的に与えられてよい。他の一例では、演奏情報21は、例えば、楽譜等の他の形式のデータから得られてよい。具体例として、演奏情報21は、アレンジの対象となるオリジナルデータを解析することで得られてよい。
ステップS902では、制御部11は、対象データ取得部114として動作し、楽曲の少なくとも一部に関する特性を示すメタ情報23を取得する。本実施形態では、メタ情報23は、難易度情報、スタイル情報、構成情報、及びテンポ情報の少なくともいずれかを含むように構成されてよい。一例では、メタ情報23は、例えば、ランダム、所定の規則に従って決定する等の方法によりアレンジ生成装置1又は他のコンピュータにより自動的に選択されてよい。他の一例では、メタ情報23は、ユーザによる入力装置14を介した入力により得られてもよい。この場合、ユーザは、所望のアレンジ条件を指定することができる。ステップS901及びステップS902の処理により、制御部11は、演奏情報21及びメタ情報23を含む対象楽曲データ20を取得することができる。
ステップS903では、制御部11は、アレンジ生成部115として動作し、対象楽曲データ20に含まれる演奏情報21及びメタ情報23を複数のトークンTに変換する。これにより、制御部11は、アレンジの対象楽曲データ20に対応する入力トークン列を生成する。上記のとおり、本実施形態では、入力トークン列は、メタ情報23に対応するトークンTが配置された後に、演奏情報21に対応するトークンTが時系列に対応して配置されるように構成される。
なお、ステップS901及びステップS902の処理がステップS903よりも前に実行される限り、ステップS901~ステップS903の処理の順序は、上記の例に限定されなくてよく、実施の形態に応じて適宜決定されてよい。他の一例では、ステップS902の処理が、ステップS901よりも先に実行されてよい。或いは、ステップS901及びステップS902の処理は並列的に実行されてよい。他の一例では、ステップS903の処理は、ステップS901及びステップS902それぞれに対応して実行されてよい。すなわち、制御部11は、演奏情報21の取得に応じて、演奏情報21の部分のトークンTを生成し、メタ情報23の取得に応じて、メタ情報23の部分のトークンTを生成してもよい。
ステップS904では、制御部11は、アレンジ生成部115として動作し、学習結果データ125を参照して、機械学習により訓練済みの生成モデル5の設定を行う。訓練済みの生成モデル5の設定が既に完了している場合は、当該処理は省略されてよい。制御部11は、機械学習により訓練済みの生成モデル5を用いて、取得された対象楽曲データ20からアレンジデータ25を生成する。本実施形態では、制御部11は、生成された入力トークン列に含まれるトークンTを訓練済みの生成モデル5に入力し、訓練済みの生成モデル5の演算を実行することで、アレンジデータ25に対応する出力トークン列を生成する。更に本実施形態では、訓練済みの生成モデル5は、再帰構造を有するように構成されている。上記出力トークン列を生成するステップでは、制御部11は、入力トークン列に含まれるトークンTを先頭から順に訓練済みの生成モデル5に入力し、訓練済みの生成モデル5の演算(上記順伝播の演算)を繰り返し実行することで、出力トークン列を構成するトークンを順次生成する。
この演算の結果、メタ情報23に応じて演奏情報21をアレンジすることで得られるアレンジデータ25を生成することができる。すなわち、演奏情報21が同じであっても、メタ情報23を変更することで、異なるアレンジデータ25を生成することができる。メタ情報23が難易度情報を含んでいる場合、本ステップS904では、制御部11は、訓練済みの生成モデル5を用いて、難易度情報により示される難しさに対応したアレンジデータ25を対象楽曲データ20から生成することができる。メタ情報23がスタイル情報を含んでいる場合、本ステップS904では、制御部11は、訓練済みの生成モデル5を用いて、スタイル情報により示されるスタイル(編曲者、アーティスト)に対応したアレンジデータ25を対象楽曲データ20から生成することができる。メタ情報23が構成情報を含んでいる場合、本ステップS904では、制御部11は、訓練済みの生成モデル5を用いて、構成情報により示される楽器構成に対応したアレンジデータ25を対象楽曲データ20から生成することができる。メタ情報23がテンポ情報を含んでいる場合、本ステップS904では、制御部11は、訓練済みの生成モデル5を用いて、テンポ情報により示されるテンポに対応したアレンジデータ25を対象楽曲データ20から生成することができる。
ステップS905では、制御部11は、楽譜生成部116として動作し、生成されたアレンジデータ25を用いて楽譜データ27を生成する。一例では、制御部11は、アレンジデータ25を用いて、例えば、音符、演奏記号等の要素をレイアウトすることで、楽譜データ27を生成する。
ステップS906では、制御部11は、出力部117として動作し、生成されたアレンジデータ25を出力する。出力先及び出力形式は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。一例では、制御部11は、例えば、RAM、記憶部12、記憶媒体、外部記憶装置、他の情報処理装置等の出力先にアレンジデータ25をそのまま出力してもよい。他の一例では、アレンジデータ25を出力することは、楽譜データ27を出力することにより構成されてよい。この場合、制御部11は、例えば、RAM、記憶部12、記憶媒体、外部記憶装置、他の情報処理装置等の出力先に楽譜データ27を出力してもよい。この他/これに加えて、制御部11は、例えば、紙等の媒体に楽譜データ27を印刷させるための指令を印刷装置(不図示)に出力してもよい。これにより、印刷された楽譜が出力されてもよい。
アレンジデータ25の出力が完了すると、制御部11は、本動作例に係るアレンジ生成の処理手順を終了する。なお、制御部11は、例えば、ユーザからの要求に応じて、上記ステップS901~ステップS906の処理を定期又は不定期に繰り返し実行してもよい。この繰り返しの際に、訓練済みの生成モデル5に入力される演奏情報21及びメタ情報23の少なくとも一部の変更、修正、追加、削除等が適宜行われてよい。これにより、制御部11は、訓練済みの生成モデル5を用いて、異なるアレンジデータ25を生成することができる。
<特徴>
以上のとおり、本実施形態では、ステップS904の処理において、機械学習により生成された訓練済みの生成モデル5を用いて、元の演奏情報21を含む対象楽曲データ20からアレンジデータ25を生成する。ステップS805において、十分な学習データ3を使用して機械学習を適切に実施することで、訓練済みの生成モデル5は、多様な元の演奏情報からアレンジデータを適切に生成する能力を獲得することができる。そのため、ステップS904において、そのような能力を獲得した訓練済みの生成モデル5を用いることで、アレンジデータ25を適切に生成することができる。加えて、メタ情報23により、アレンジデータ25の生成条件を制御することができるため、同一の演奏情報21から多様なアレンジデータ25を生成することができる。更に、訓練済みの生成モデル5を用いることで、アレンジデータ25を生成する工程の少なくとも一部を自動化することができる。これにより、人手による作業工数を削減することができる。したがって、本実施形態によれば、アレンジデータ25を生成するコストの低減を図ると共に、多様なアレンジデータ25を適切に生成することができる。
また、本実施形態では、上記ステップS905により、生成されたアレンジデータ25から楽譜データ27を自動的に生成することができる。加えて、上記ステップS906により、楽譜データ27を種々の媒体(例えば、記憶媒体、紙媒体等)に自動的に出力することができる。したがって、本実施形態によれば、楽譜の生成及び出力を自動化することができるため、人手による作業工数を更に削減することができる。
また、本実施形態では、メタ情報(23、33)は、難易度情報、スタイル情報、構成情報、及びテンポ情報の少なくともいずれかを含むように構成されてよい。これにより、ステップS904では、メタ情報23により示される難易度、スタイル、楽器構成、及びテンポの少なくともいずれかに適合する多様なアレンジデータ25を生成することができる。したがって、本実施形態によれば、同一の演奏情報21からアレンジデータ25の複数のバリエーション(アレンジパターン)を生成するのにかかるコストの低減を図ることができる。同様に、演奏情報(21、23)は、旋律の情報だけでなく、和声(コード)の情報も含んでいる。そのため、本実施形態によれば、生成されるアレンジデータ25における和声も制御することができる。
また、本実施形態では、楽曲データ(20、30)は入力トークン列に変換され、入力トークン列は、メタ情報(23、33)に対応するトークンTが配置された後に、演奏情報(21、31)に対応するトークンTが時系列に対応して配置されるように構成される。加えて、生成モデル5は、再帰構造を有するように構成され、入力トークン列に含まれる各トークンTは、先頭から順番に生成モデル5に入力される。これにより、生成モデル5では、メタ情報(23、33)及び演奏情報(21、31)の対象より以前の部分に対する演算結果を演奏情報(21、31)の対象の部分に対する演算に反映することができる。したがって、本実施形態によれば、メタ情報及び演奏情報の文脈を適切に推論処理に反映することができるため、生成モデル5は、適切なアレンジデータを生成することができる。機械学習の段階では、そのような適切なアレンジデータを生成する能力を獲得した訓練済みの生成モデル5を生成することができる。アレンジ生成の段階では、ステップS905において、そのような能力を獲得した訓練済みの生成モデル5を用いることで、適切なアレンジデータ25を生成することができる。
<4.変形例>
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
上記一例では、生成モデル5は、演奏情報に含まれる単旋律及び和声から、ピアノの右手パート及び左手パートをアレンジデータとして生成するように構成される。しかしながら、アレンジは、このような例に限定されなくてよい。上記実施形態において、構成情報を含むようにメタ情報(23、33)を構成し、構成情報により示される楽器構成を適宜制御する(例えば、ユーザが指定する)ことで、任意のパートを含むアレンジデータを生成モデル5に生成されてもよい。楽器構成の一例として、ヴォーカル・ギター・ベース・ドラムス・キーボード等を含むバンド構成、ソプラノ・アルト・テナー・バス等を含む合唱構成、及び複数の木管楽器・複数の金管楽器・弦バス・打楽器等を含む吹奏楽構成を例示することができる。当該構成によれば、上記ステップS904において、同一の演奏情報21に基づいて、異なる複数の楽器構成のパートを有するアレンジデータ25を生成することができる。上記機械学習の段階では、そのような能力を獲得した訓練済みの生成モデル5を生成することができる。
図11及び図12を用いて、本変形例に係る生成モデル5の入力形式及び出力形式の一例について説明する。図11は、本変形例に係る生成モデル5に入力される楽曲データの入力形式(トークン)の一例を説明するための図である。図12は、本変形例に係る生成モデル5から出力されるアレンジデータの出力形式(トークン)の一例を説明するための図である。
図11に例示されるとおり、本変形例に係る入力トークン列は、上記図7に例示されるトークンTと共に、構成情報を示す楽器構成トークン(例えば、<inst> elg bas apf </inst>)を含む。楽器構成トークンは、各々が1つの楽器を表現する複数の楽器特定トークン(例えば、ギターを示すelg、ベースを示すbas、ピアノを示すapf)、楽器特定トークンが出現する(楽器構成トークンが開始する)ことを示す開始タグトークン(<inst>)、及び楽器構成トークンが終了することを示す終了タグトークン(</inst>)を含む。
これにより、図12に例示されるとおり、生成モデル5は、楽器構成トークンにより楽器構成を特定し、特定された楽器構成に対応するアレンジデータ(出力トークン列)を生成することができる。図12の例では、生成モデル5から出力される出力トークン列は、楽器構成トークンにより特定された複数の楽器(例えば、ギター、ベース、ピアノ)それぞれに対応する音(演奏情報)を示すトークンTを含んでいる。
<4.2>
また、上記実施形態において、演奏情報(21、31)に含まれる情報は、楽曲に含まれる旋律(メロディ)及び和声(ハーモニー)を示す情報に限られなくてよい。演奏情報(21、31)は、旋律及び和声以外の情報を含んでもよい。
一例として、図11に例示されるとおり、演奏情報(21、31)は、旋律及び和声の情報に加えて、楽曲の少なくとも一部におけるリズムを示すビート情報を含んでよい。図11の例では、入力トークン列は、ビート情報を示すビートトークン(例えば、バスドラムを示す図11のbdトークン)を含んでいる。当該構成によれば、上記ステップS904において、楽曲の構造(リズム)をより適切に反映したアレンジデータ25を生成することができる。上記機械学習の段階では、そのような能力を獲得した訓練済みの生成モデル5を生成することができる。
<4.3>
上記実施形態に係るステップS901及びステップS902において、アレンジ生成装置1(制御部11)は、1つの楽曲を分割する(例えば、4小節毎等の所定の長さで分割する)ことで得られる複数の部分それぞれに対応する複数の対象楽曲データ20を取得してもよい。これに応じて、制御部11は、取得された複数の対象楽曲データ20それぞれに対してアレンジデータ25を生成するステップ(ステップS903及びステップS904)を実行することで、複数のアレンジデータ25を生成してもよい。そして、制御部11は、アレンジ生成部115として動作して、生成された複数のアレンジデータ25を統合することで、1つの楽曲に対応するアレンジデータを生成してもよい。当該構成によれば、1度に実行する生成モデル5の計算量を抑えることができ、注意層による参照対象のデータサイズも抑えることができる。その結果、生成処理における演算負荷を軽減しながら、楽曲全体に亘ってアレンジデータを生成することができる。
<4.4>
また、上記実施形態では、アレンジ生成装置1は、機械学習の処理、及びアレンジ生成(推論)の処理の両方の演算を実行するように構成されている。しかしながら、アレンジ生成装置1の構成は、このような例に限定されなくてよい。アレンジ生成装置1が、複数台のコンピュータで構成される場合に、各ステップは、複数台のコンピュータの少なくともいずれかに実行されることで、各ステップの演算は、分散的に処理されてよい。各コンピュータ間は、ネットワーク、記憶媒体、外部記憶装置等を介して、データのやり取りが行われてよい。一例では、機械学習の処理及びアレンジ生成の処理は、別々のコンピュータにより実行されてもよい。
図13は、発明が適用される場面の他の一例を模式的に示す。モデル生成装置101は、機械学習を実施することで、訓練済みの生成モデル5を生成するように構成された1又は複数台のコンピュータである。アレンジ生成装置102は、訓練済みの生成モデル5を用いて、対象楽曲データ20からアレンジデータ25を生成するように構成された1又は複数台のコンピュータである。
モデル生成装置101及びアレンジ生成装置102のハードウェア構成は、上記アレンジ生成装置1と同様であってよい。具体例として、モデル生成装置101は、汎用のサーバ装置であってよく、アレンジ生成装置1は、例えば、汎用のPC、タブレットPC、スマートフォン等のユーザ端末であってよい。モデル生成装置101及びアレンジ生成装置102は、直接的に接続されてもよいし、或いはネットワークを介して接続されてもよい。モデル生成装置101及びアレンジ生成装置102がネットワークを介して接続される場合、ネットワークの種類は、特に限定されなくてよく、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。ただし、モデル生成装置101及びアレンジ生成装置102の間でデータをやり取りする方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、モデル生成装置101及びアレンジ生成装置102の間では、記憶媒体を利用して、データがやりとりされてよい。
本変形例において、上記生成プログラム81は、生成モデル5の機械学習に関する情報処理の命令を含む第1プログラム、及び訓練済みの生成モデル5を用いたアレンジデータ25の生成に関する情報処理の命令を含む第2プログラムに分割されてよい。この場合、第1プログラムは、モデル生成プログラムと称されてよく、第2プログラムは、アレンジ生成プログラムと称されてよい。アレンジ生成プログラムは、本発明の生成プログラムの一例である。
モデル生成装置101は、生成プログラム81の機械学習の処理に関する部分(第1プログラム)を実行することで、学習データ取得部111、学習処理部112、及び保存処理部113をソフトウェアモジュールとして備えるコンピュータとして動作する。一方、アレンジ生成装置102は、生成プログラム81のアレンジ生成の処理に関する部分(第2プログラム)を実行することで、対象データ取得部114、アレンジ生成部115、楽譜生成部116、及び出力部117をソフトウェアモジュールとして備えるコンピュータとして動作する。
本変形例では、モデル生成装置101は、上記ステップS801~ステップS806の処理を実行することで、訓練済みの生成モデル5を生成する。生成された訓練済みの生成モデル5を生成する。生成された訓練済みの生成モデル5は、任意のタイミングでアレンジ生成装置102に提供されてよい。生成された訓練済みの生成モデル5(学習結果データ125)は、例えば、ネットワーク、記憶媒体、外部記憶装置等を介して、アレンジ生成装置102に提供されてよい。或いは、生成された訓練済みの生成モデル5(学習結果データ125)は、アレンジ生成装置102に予め組み込まれてもよい。一方、アレンジ生成装置102は、上記ステップS901~ステップS906の処理を実行することで、訓練済みの生成モデル5を用いて、対象楽曲データ20からアレンジデータ25を生成する。
<4.5>
上記実施形態では、生成モデル5は、図6に示されるTransformerの構成による再帰構造を有している。しかしながら、再帰構造は、図6に示される例に限定されなくてよい。再帰構造は、対象より過去の入力を参照して、対象(現在)の入力に対する処理を実行可能に構成された構造を示す。このような演算が可能であれば、再帰構造は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。他の一例では、再帰構造は、例えば、RNN(Recurrent Neural Network)、LSTM(Long short-term memory)等の公知の構造により構成されてよい。
また、上記実施形態では、生成モデル5は、再帰構造を有するように構成されている。しかしながら、生成モデル5の構成は、このような例に限定されなくてよい。再帰構造は省略されてよい。生成モデル5は、例えば、全結合型ニューラルネットワーク、畳み込みニューラルネットワーク等の公知の構造を有するニューラルネットワークにより構成されてよい。更に、入力トークン列を生成モデル5に入力する形態は、上記実施形態の例に限定されなくてよい。他の一例では、生成モデル5は、入力トークン列に含まれる複数のトークンTを一度に受け付けるように構成されてもよい。
また、上記実施形態では、生成モデル5は、楽曲データに対応する入力トークン列の入力を受け付け、アレンジデータに対応する出力トークン列を出力するように構成されている。しかしながら、生成モデル5の入力形式及び出力形式は、このような例に限定されなくてよい。他の一例では、生成モデル5は、楽曲データを直接的に受け取るように構成されてもよい。また、生成モデル5は、アレンジデータを直接的に出力するように構成されてもよい。
また、上記実施形態において、楽曲データからアレンジデータを生成可能であれば、生成モデル5を構成する機械学習モデルの種類は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。更に、上記実施形態において、生成モデル5を複数の層で構成する場合、各層の種類は、実施の形態に応じて適宜選択されてよい。各層には、例えば、畳み込み層、プーリング層、ドロップアウト層、正規化層、全結合層等が採用されてよい。生成モデル5の構造に関して、適宜、構成要素の省略、置換及び追加が可能である。
<4.6>
上記実施形態において、楽譜データ27の生成は省略されてもよい。これに応じて、アレンジ生成装置1のソフトウェア構成において、楽譜生成部116は省略されてよい。上記アレンジ生成に関する処理手順において、ステップS905の処理は省略されてよい。
1…アレンジ生成装置、11…制御部、12…記憶部、111…学習データ取得部、112…学習処理部、113…保存処理部、114…対象データ取得部、115…アレンジ生成部、116…楽譜生成部、117…出力部、5…生成モデル

Claims (12)

  1. コンピュータが、
    楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するステップと、
    機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するステップであって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、ステップと、
    生成された前記アレンジデータを出力するステップと、
    を実行
    前記メタ情報は、アレンジの条件として前記楽曲の演奏上の難しさを示す難易度情報を含み、
    前記アレンジデータを生成するステップでは、前記コンピュータは、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記難易度情報により示される前記難しさに対応した前記アレンジデータを生成する、
    アレンジ生成方法。
  2. 前記メタ情報は、アレンジの条件として前記楽曲の音楽的なスタイルを示すスタイル情報を含み、
    前記アレンジデータを生成するステップでは、前記コンピュータは、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記スタイル情報により示される前記スタイルに対応した前記アレンジデータを生成する、
    請求項1に記載のアレンジ生成方法。
  3. 前記スタイル情報は、編曲者を特定するための編曲者情報を含む、
    請求項に記載のアレンジ生成方法。
  4. 前記メタ情報は、アレンジの条件として前記楽曲における楽器構成を示す構成情報を含み、
    前記アレンジデータを生成するステップでは、前記コンピュータは、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記構成情報により示される前記楽器構成に対応した前記アレンジデータを生成する、
    請求項1から請求項のいずれか1項に記載のアレンジ生成方法。
  5. 前記演奏情報は、前記楽曲の少なくとも一部におけるリズムを示すビート情報を含む、
    請求項1から請求項のいずれか1項に記載のアレンジ生成方法。
  6. 前記アレンジデータを生成するステップは、
    前記コンピュータが、前記対象楽曲データに対応する入力トークン列を生成するステップ、及び
    前記コンピュータが、生成された前記入力トークン列に含まれるトークンを前記訓練済みの生成モデルに入力し、前記訓練済みの生成モデルの演算を実行することで、前記アレンジデータに対応する出力トークン列を生成するステップ、
    を備える、
    請求項1から請求項のいずれか1項に記載のアレンジ生成方法。
  7. 前記入力トークン列は、前記メタ情報に対応するトークンが配置された後に、前記演奏情報に対応するトークンが時系列に対応して配置されるように構成され、
    前記訓練済みの生成モデルは、再帰構造を有するように構成され、
    前記出力トークン列を生成するステップでは、前記コンピュータが、前記入力トークン列に含まれるトークンを先頭から順に前記訓練済みの生成モデルに入力し、前記訓練済みの生成モデルの演算を繰り返し実行することで、前記出力トークン列を構成するトークンを順次生成する、
    請求項に記載のアレンジ生成方法。
  8. 前記取得するステップにおいて、前記コンピュータは、1つの楽曲を分割することで得られる複数の部分それぞれにそれぞれ対応する複数の前記対象楽曲データを取得し、
    前記コンピュータは、取得された前記複数の対象楽曲データそれぞれに対して前記アレンジデータを生成するステップを実行することで、複数の前記アレンジデータを生成し、
    前記コンピュータは、生成された前記複数のアレンジデータを統合することで、前記1つの楽曲に対応するアレンジデータを生成する、
    請求項1から請求項のいずれか1項に記載のアレンジ生成方法。
  9. コンピュータが、生成された前記アレンジデータを用いて楽譜データを生成するステップを更に実行する、
    請求項1から請求項のいずれか1項に記載のアレンジ生成方法。
  10. 楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するように構成された対象データ取得部と、
    機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するように構成されたアレンジ生成部であって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、アレンジ生成部と、
    生成された前記アレンジデータを出力するように構成された出力部と、
    を備え、
    前記メタ情報は、アレンジの条件として前記楽曲の演奏上の難しさを示す難易度情報を含み、
    前記アレンジ生成部は、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記難易度情報により示される前記難しさに対応した前記アレンジデータを生成する、
    アレンジ生成装置。
  11. 前記アレンジ生成装置は、生成された前記アレンジデータを用いて楽譜データを生成するように構成された楽譜生成部を更に備え、
    前記アレンジデータを出力することは、生成された楽譜データを出力することにより構成される、
    請求項10に記載のアレンジ生成装置。
  12. コンピュータに、
    楽曲の少なくとも一部の旋律及び和声を示す演奏情報、並びに前記楽曲の少なくとも一部に関する特性を示すメタ情報を含む対象楽曲データを取得するステップと、
    機械学習により訓練済みの生成モデルを用いて、取得された前記対象楽曲データからアレンジデータを生成するステップであって、前記アレンジデータは、前記メタ情報に応じて前記演奏情報をアレンジすることで得られる、ステップと、
    生成された前記アレンジデータを出力するステップと、
    を実行させ、
    前記メタ情報は、アレンジの条件として前記楽曲の演奏上の難しさを示す難易度情報を含み、
    前記アレンジデータを生成するステップでは、前記コンピュータに、前記訓練済みの生成モデルを用いて、取得された前記対象楽曲データから、前記難易度情報により示される前記難しさに対応した前記アレンジデータを生成させる、
    生成プログラム。
JP2022501825A 2020-02-17 2021-02-09 アレンジ生成方法、アレンジ生成装置、及び生成プログラム Active JP7251684B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020024482 2020-02-17
JP2020024482 2020-02-17
PCT/JP2021/004815 WO2021166745A1 (ja) 2020-02-17 2021-02-09 アレンジ生成方法、アレンジ生成装置、及び生成プログラム

Publications (3)

Publication Number Publication Date
JPWO2021166745A1 JPWO2021166745A1 (ja) 2021-08-26
JPWO2021166745A5 JPWO2021166745A5 (ja) 2022-05-27
JP7251684B2 true JP7251684B2 (ja) 2023-04-04

Family

ID=77391129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022501825A Active JP7251684B2 (ja) 2020-02-17 2021-02-09 アレンジ生成方法、アレンジ生成装置、及び生成プログラム

Country Status (4)

Country Link
US (1) US20220383843A1 (ja)
JP (1) JP7251684B2 (ja)
CN (1) CN115004294A (ja)
WO (1) WO2021166745A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023056004A1 (en) * 2021-09-30 2023-04-06 Novel, LLC Method and system for automatic music transcription and simplification

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2643582B2 (ja) * 1990-10-20 1997-08-20 ヤマハ株式会社 自動リズム生成装置
JP3316547B2 (ja) * 1992-10-12 2002-08-19 カシオ計算機株式会社 和音付装置
JPH06124275A (ja) * 1992-10-13 1994-05-06 Ricoh Co Ltd 信号処理装置
JP3013648B2 (ja) * 1993-03-23 2000-02-28 ヤマハ株式会社 自動編曲装置

Also Published As

Publication number Publication date
WO2021166745A1 (ja) 2021-08-26
CN115004294A (zh) 2022-09-02
JPWO2021166745A1 (ja) 2021-08-26
US20220383843A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
US20240062736A1 (en) Automated music composition and generation system employing virtual musical instrument libraries for producing notes contained in the digital pieces of automatically composed music
Hadjeres et al. Deepbach: a steerable model for bach chorales generation
US5736666A (en) Music composition
US9728173B2 (en) Automatic arrangement of automatic accompaniment with accent position taken into consideration
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
US11568244B2 (en) Information processing method and apparatus
WO2020000751A1 (zh) 自动作曲方法、装置、计算机设备和存储介质
WO2020080239A1 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
Nakamura et al. Automatic piano reduction from ensemble scores based on merged-output hidden markov model
JP7251684B2 (ja) アレンジ生成方法、アレンジ生成装置、及び生成プログラム
JP2017058594A (ja) 自動アレンジ装置及びプログラム
JP2008527463A (ja) 完全なオーケストレーションシステム
Lousseief et al. Mahlernet: Unbounded orchestral music with neural networks
JP6645085B2 (ja) 自動アレンジ装置及びプログラム
Jensen Evolutionary music composition: A quantitative approach
WO2019022117A1 (ja) 演奏解析方法およびプログラム
Wu et al. Generating detailed music datasets with neural audio synthesis
Braasch A cybernetic model approach for free jazz improvisations
CN113096624A (zh) 交响乐曲自动创作方法、装置、设备及存储介质
Winter Interactive music: Compositional techniques for communicating different emotional qualities
WO2020171035A1 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム
US11756515B1 (en) Method and system for generating musical notations for musical score
JP7107427B2 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム
US20240005896A1 (en) Music generation method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R151 Written notification of patent or utility model registration

Ref document number: 7251684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151