JP7298115B2 - プログラム、情報処理方法、及び電子機器 - Google Patents

プログラム、情報処理方法、及び電子機器 Download PDF

Info

Publication number
JP7298115B2
JP7298115B2 JP2018120234A JP2018120234A JP7298115B2 JP 7298115 B2 JP7298115 B2 JP 7298115B2 JP 2018120234 A JP2018120234 A JP 2018120234A JP 2018120234 A JP2018120234 A JP 2018120234A JP 7298115 B2 JP7298115 B2 JP 7298115B2
Authority
JP
Japan
Prior art keywords
melody
type
trained model
input
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018120234A
Other languages
English (en)
Other versions
JP2020003535A (ja
Inventor
大輝 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018120234A priority Critical patent/JP7298115B2/ja
Publication of JP2020003535A publication Critical patent/JP2020003535A/ja
Application granted granted Critical
Publication of JP7298115B2 publication Critical patent/JP7298115B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、プログラム、情報処理方法、及び電子機に関する。
従来、自動で楽曲を作成する自動作曲技術が知られている。この自動作曲技術において、予め規定されたルールに基づいて楽曲を作成する技術が知られている(例えば、特許文献1参照)。
特開2017-182089号公報
従来のルールに基づいて楽曲を生成する技術では、当該ルールに沿った楽曲しか生成されない。そこで、一側面では、より多様な楽曲を自動で作成できる技術を提供することを目的とする。
一つの案では、電子機器に、所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成処理と、所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択処理と、選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成処理と、所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する処理と、を実行させるプログラムが提供される。
一側面によれば、より多様な楽曲を自動で作成できる。
実施形態に係る情報処理システムの構成例を示す図である。 実施形態に係るサーバ、及び端末のハードウェア構成例を示す図である。 実施形態に係るサーバ、及び端末の機能構成の一例を示す図である。 実施形態に係る学習用データについて説明する図である。 実施形態に係る学習用データについて説明する図である。 実施形態に係る情報処理システムの処理の一例を示すシーケンス図である。 第1の実施形態の実行フェーズについて説明する図である。 第1の実施形態に係る学習フェーズの処理の一例について説明するフローチャートである。 第1の実施形態に係るフレーズの種別を分類するための学習済みモデル502を生成する処理の一例について説明するフローチャートである。 第1の実施形態に係る各種別のフレーズからパートを作成するための学習済みモデルを生成する処理の一例について説明するフローチャートである。 第1の実施形態に係る一の種別のパートから他の種別のパートを作成するための学習済みモデルを生成する処理の一例について説明するフローチャートである。 第1の実施形態に係る実行フェーズの処理の一例について説明するフローチャートである。 第2の実施形態の実行フェーズについて説明する図である。 第2の実施形態に係る学習フェーズの処理の一例について説明するフローチャートである。 第2の実施形態に係るパートの種別を分類するための学習済みモデル1104を生成する処理の一例について説明するフローチャートである。 第2の実施形態に係る実行フェーズの処理の一例について説明するフローチャートである。
以下、図面に基づいて本発明の実施形態を説明する。
<システム構成>
図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、サーバ10、及び端末20を備える。なお、各装置の数は、図1の例に限定されない。
サーバ10と端末20は、例えば、携帯電話網、LAN(Local Area Network)、無線LAN、及びインターネット等のネットワーク50により通信が接続される。
サーバ10は、サーバ用の情報処理装置(コンピュータ、電子機器)である。サーバ10は、学習用のデータに基づいて機械学習を行い、楽曲を自動で生成(作成)するための学習済みモデルを生成する。
端末20は、例えば、タブレット端末、スマートフォン、デスクトップPC(Personal Computer)、ノートPC等の情報処理装置、または電子キーボード、電子オルガン、電子ピアノ、電子管楽器、電子弦楽器、及びシンセサイザー等の電子楽器である。端末20は、サーバ10から取得した学習済みモデルのデータ等に基づいて、楽曲を自動で生成する。
<ハードウェア構成>
図2は、実施形態に係るサーバ10、及び端末20のハードウェア構成例を示す図である。以下では、サーバ10を例として説明する。図2のサーバ10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU(Central Processing Unit)104、インタフェース装置105、表示装置106、入力装置107、及び出力装置108等を有する。
サーバ10での処理を実現するプログラム(情報処理プログラム)は、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従ってサーバ10に係る機能を実現する。インタフェース装置105は、ネットワーク等に接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等、またはタッチパネル及びボタン等で構成され、様々な操作指示を入力させるために用いられる。出力装置108は、スピーカ等で構成され、様々な音を出力させるために用いられる。
なお、記録媒体101の一例としては、CD-ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。また、サーバ10は、GPU(Graphics Processing Unit)を有し、GPUを用いて、後述する機械学習に関する処理の少なくとも一部を行うようにしてもよい。この場合、GPUが実装されたアクセラレータ用のボードが、インタフェース装置105等を介してバスBに接続されてもよい。
なお、端末20のハードウェア構成は、図2に示すサーバ10のハードウェア構成例と同様でもよい。
<機能構成>
次に、図3、図4A、及び図4Bを参照し、実施形態に係るサーバ10、及び端末20の機能構成について説明する。図3は、実施形態に係るサーバ10、及び端末20の機能構成の一例を示す図である。図4A、及び図4Bは、実施形態に係る学習用データ111について説明する図である。
≪サーバ10の機能構成≫
サーバ10は、記憶部11を有する。記憶部11は、例えば、補助記憶装置102等を用いて実現される。記憶部11は、学習用データ111等のデータを記憶する。学習用データ111には、図4Aに示すように、楽曲IDに対応付けて、学習用の楽曲データが予め記憶されている。学習用の楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)規格による、音の高さ、音の強さ等の情報が符号化された楽曲の演奏情報でもよい。
また、図4Bに示すように、学習用データ111に記憶されている学習用の楽曲データには、「Aメロ」、「Bメロ」、「サビ」等の各種別に対応する区間(構成要素)毎の開始時点と終了時点、及び当該区間毎の種別が含まれている。図4Bの例では、ある楽曲の時点401から時点402までの区間の種別が「Aメロ」であり、時点402から時点403までの区間の種別が「Bメロ」であり、時点403から時点404までの区間の種別が「サビ」であり、時点404から時点405までの区間の種別が「Aメロ」であること等が示されている。なお、図4Bの例では、邦楽(J-POP)の楽曲に含まれる種別の例が示されているが、種別として、洋楽の「Verse」、「Bridge」、「Chorus」等が用いられてもよい。
一般的に、「Aメロ」、「Bメロ」、「サビ」等の楽曲の構成要素の種別は、主にメロディによって決まるものであるが、どのようなメロディがどの種別に対応するものであるかは、人間が感覚的に決める部分も多く、メロディから種別を判定するための判定基準を明確に定義することが難しい。
また、このようなメロディによって種別が認識される構成要素の区間長については、一般的な楽曲では、4小節、8小節、16小節などの、複数の小節を単位区間としているが、単に種別が認識可能な区間長としては、1小節よりも短い区間長であってもよい。
このように、メロディから種別を判定するための判定基準を明確に定義することができない場合であっても、既に人間が感覚的に判断したメロディと種別の対応情報に基づいて機械学習させることにより、ニューラルネットワークの結合重み値などの形式で、上記判定基準を決めることが可能となる。
なお、楽曲データは、上記のような種別(「Aメロ」、「Bメロ」、「サビ」等)が割り当てられる区間(構成要素)を複数連結して構成されるが、このような種別とは別に、コード(「C」、「Am」、「F」、「G」等)が割り当てられるコード区間(コード要素)を、コード進行(音楽理論に基づくコードの連結順序)に合わせて複数連結して構成されるものでもある。このコードは和音に対応するものであるが、和音とメロディとの間にも一定の関係がある。
本実施形態によるメロディ生成の対象として各種別が割り当てられる構成要素の区間は、上記のコード区間よりも長い区間を対象とするものであり、また、本実施形態で行われる構成要素の連結は、コード進行によるコードの連結よりも長い区間を対象として行われるものである。
また、コード進行に合わせたコードの生成や連結の手法は、従来から知られたものであり、本実施形態においても、コード進行に合わせたコードの生成や連結については、従来手法を用いて行ってもよい。
しかしながら、本実施形態で用いる学習用データとして、上述した種別の構成要素の連結を考慮した学習用データを用いるだけでなく、上述したコード進行をも考慮した学習用データを用いることにより、上述した種別の構成要素の連結が適正に行われた楽曲が生成されるだけでなく、同時に、上述したコード進行についても適正な楽曲を生成することが可能となる。
また、サーバ10は、生成部12、及び出力部13を有する。これら各部は、サーバ10にインストールされた1以上のプログラムが、サーバ10のCPU104に実行させる処理により実現される。
生成部12は、学習用データ111に記憶されている学習用の楽曲データに基づいて、楽曲を自動で生成するための学習済みモデルを生成する。生成部12は、例えば、学習用の楽曲に含まれる第1種別の区間のメロディと、第2種別の区間のメロディとの組を学習データとする機械学習により、第1種別の区間のメロディに基づいて第2種別の区間のメロディを生成可能な学習済みモデルを生成する。
出力部13は、生成部12により生成された学習済みモデルのデータを、端末20に出力する。出力部13は、例えば、端末20にインストールされるアプリケーションに当該学習済みモデルのデータを含めて、外部サーバ等を介して当該アプリケーションを端末20に配信してもよい。
≪端末20の機能構成≫
端末20は、受付部21、取得部22、第1メロディ生成部23、第2メロディ生成部24、楽曲生成部25、及び出力部26を有する。これら各部は、端末20にインストールされた1以上のプログラムが、端末20のCPUに実行させる処理により実現される。
受付部21は、端末20のユーザからの各種の操作を受け付ける。
取得部22は、学習済みモデルのデータをサーバ10から取得する。
第1メロディ生成部23は、所定の情報に応じて、楽曲に含まれる所定の種別の区間のメロディを生成する。
第2メロディ生成部24は、学習用の楽曲に含まれる第1種別の区間のメロディと、第2種別の区間のメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、第1メロディ生成部23により生成された第1種別の区間のメロディに基づいて第2種別の区間のメロディを生成する。
楽曲生成部25は、所定のテンプレート(「構成情報」の一例。)により規定される各区間の種別の出現順序に応じて、第1種別の区間のメロディ、及び第2種別の区間のメロディを配置し、楽曲を生成する。
出力部26は、楽曲生成部25により生成された楽曲を再生し、端末20のスピーカに出力させる。
<処理>
次に、図5を参照し、実施形態に係る情報処理システム1の処理について説明する。図5は、実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。
ステップS1において、サーバ10の生成部12は、学習済みモデルのセットを生成する。以下で、この処理を「学習フェーズ」とも称する。
続いて、端末20の取得部22は、ユーザの操作に応答して、当該学習済みモデルのセットのデータを含むプログラムをサーバ10からダウンロードする(ステップS2)。
続いて、端末20の第1メロディ生成部23、第2メロディ生成部24、及び楽曲生成部25は、ユーザからの操作に応答して、当該学習済みモデルのセットを用いて、楽曲を自動で作成する(ステップS3)。以下で、この処理を「実行フェーズ」とも称する。なお、作成された楽曲のデータは、ユーザの操作により、端末20にて再生されてもよい。
[第1の実施形態]
次に、図6を参照し、第1の実施形態の概要について説明する。図6は、第1の実施形態の実行フェーズについて説明する図である。
第1の実施形態では、実行フェーズにおいて、フレーズの種別を分類するための学習済みモデル502を用いて、所定のフレーズ501の種別を判定する。なお、「フレーズ」とは、楽曲に含まれる各種別の区間のメロディの一部のことである。すなわち、フレーズは、例えば、最後の音が弱くされたメロディの一区切りに限らず、複数の音符で表現可能なメロディであればよい。また、以下で、楽曲を構成する「Aメロ」、「Bメロ」、「サビ」等の各種別の区間のメロディのことを「パート」と称する。
図6の例では、所定のフレーズ501の種別が「Aメロ」503と判定されていることが示されている。そして、フレーズからパートを作成するための学習済みモデル504を用いて、所定のフレーズ501から、所定のフレーズ501の種別と同一の種別のパート505を作成する。
そして、一の種別のパートから他の種別のパートを作成するための学習済みモデル506を用いて、パート505から、他の種別のパート507、508を作成する。図6の例では、パート507の種別は「Bメロ」509、パート508の種別は「サビ」510であることが示されている。そして、各パート505、507、508を、所定のテンプレート511で規定された順に並べることにより、楽曲512を作成する。
<第1の実施形態の効果>
従来のGANs等のデータ生成手法では、例えば、犬の画像や人の画像等、1つの種別の被写体を含む画像を生成させる場合、十分な品質のデータを生成できる。しかしながら、犬、人、及び山等の複数の種別の被写体を含む画像が生成されるように学習させる場合、当該複数の種別のうち、いずれか1つの種別の被写体を含む画像ばかりを生成する場合がある。そのため、1フレーズ等の所定のデータに基づいてGANs等で楽曲を生成させる場合、「Aメロ」、「Bメロ」、及び「サビ」のいずれか1つの種別らしいパートのみで構成された楽曲ばかりが生成されることが懸念される。
一方、本開示の技術によれば、楽曲が「Aメロ」、「Bメロ」、及び「サビ」等のパートの組み合わせにより構成されていること、例えば、1番のAメロと2番のAメロ、1番のサビと2番のサビはそれぞれ同じメロディで歌詞だけが異なることが一般的であることを利用する。そして、1フレーズ等からの作曲という比較的難しい問題を、比較的簡単な複数の問題に分割することで、より適切な学習を可能にすることができる。
≪学習フェーズ≫
次に、図7を参照し、第1の実施形態における、図5のステップS1の、機械学習により学習済みモデルのセットを生成する処理(学習フェーズ)について説明する。図7は、第1の実施形態に係る学習フェーズの処理の一例について説明するフローチャートである。
ステップS10において、生成部12は、フレーズの種別を分類するための学習済みモデル502を生成する。続いて、生成部12は、各種別のフレーズからパートを作成するための学習済みモデル504を生成する(ステップS11)。続いて、生成部12は、一の種別のパートから他の種別のパートを作成するための学習済みモデル506を生成し(ステップS12)、学習済みモデル生成処理を終了する。なお、ステップS10からステップS12の処理の順番は、どのような順番で行ってもよい。
(フレーズの種別を分類するための学習済みモデル502の生成処理)
次に、図8を参照し、図7のステップS10の、フレーズの種別を分類するための学習済みモデル502を生成する処理について説明する。図8は、第1の実施形態に係るフレーズの種別を分類するための学習済みモデル502を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル502により、実行フェーズにおいて、例えば、端末20は、自動作曲する楽曲の元となる所定のフレーズの種別を判定することができる。
ステップS101において、生成部12は、楽曲に含まれる一のパートの少なくとも一部であるフレーズと、当該一のパートの種別とが対応付けられたデータを、学習用データ111から取得する。以下で、当該種別は、当該フレーズに対する正解として機械学習される。ステップS101の処理で、各パートの少なくとも一部であるフレーズの演奏情報と、当該フレーズを含むパートの種別の情報とのペアが読み込まれる。
続いて、生成部12は、学習用の楽曲のデータの表現形式を変換する(ステップS102)。ここで、生成部12は、ステップS101の処理で取得した、各時点(各拍子)における音の高さ、及び音の強さ等を含む楽譜の情報を、機械学習を行うために離散表現(ワンホット(One-hot)表現、ベクトル表現)に変換する。ここで、例えば、「ド」の音符のデータは、「ド」の音高を示す値が「1」であり、「ド」以外の音高を示す値が「0」であるデータに変換される。
続いて、生成部12は、表現形式が変換された学習用の楽曲のデータに基づいた機械学習を行うことにより、フレーズの種別を分類するための学習済みモデル502を生成する(ステップS103)。ここで、生成部12は、例えば、ディープラーニング等のニューラルネットワーク(NN:Neural Network)、GBDT(Gradient Boosting Decision Tree)、決定木(Decision Tree)、SVM(Support Vector Machine)、またはランダムフォレスト(Random Forest)等を用いて、機械学習してもよい。例えば、ニューラルネットワークを用いる場合、ステップS101の処理により入力されたフレーズに対する各種別の予測確率を算出し、算出した各種別の予測確率の値が正しい値に近づくように、誤差逆伝播法(Backpropagation)により学習を行う。
続いて、生成部12は、学習の終了条件を満たしたか否かを判定する(ステップS104)。ここで、生成部12は、例えば、ステップS101からステップS103の学習処理を所定回数行った場合に、学習の終了条件を満たしたと判定してもよい。また、生成部12は、ステップS101の処理により入力されたフレーズに対する各種別の予測の正解率が所定の閾値以上となった場合に、学習の終了条件を満たしたと判定してもよい。
学習の終了条件を満たしていない場合(ステップS104でNO)、ステップS101の処理に進む。学習の終了条件を満たしている場合(ステップS104でYES)、処理を終了する。
(フレーズからパートを作成するための学習済みモデル504の生成処理)
次に、図9を参照し、図7のステップS11の、各種別のフレーズからパートを作成するための学習済みモデル504を生成する処理について説明する。図9は、第1の実施形態に係る各種別のフレーズからパートを作成するための学習済みモデル504を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル504により、実行フェーズにおいて、例えば、端末20は、自動作曲する楽曲の元となる所定のフレーズから、当該所定のフレーズを含むパートであって、当該所定のフレーズと同一の種別であるパートを作成することができる。
なお、以下の処理は、「Aメロ」、「Bメロ」等の各種別に対してそれぞれ実行され、種別毎に学習済みモデルが生成される。この場合、例えば、種別が「Aメロ」、「Bメロ」、「サビ」の3つであれば、種別毎の3つの学習済みモデルが生成される。
ステップS111において、生成部12は、楽曲に含まれる一のパートの少なくとも一部であるフレーズと、当該一のパートとが対応付けられたデータを、学習用データ111から取得する。
続いて、生成部12は、学習用の楽曲のデータの表現形式を変換する(ステップS112)。ここで、生成部12は、上述したステップS102の処理と同様に、ステップS111の処理で取得した楽譜の情報を離散表現に変換する。
続いて、生成部12は、表現形式が変換された学習用の楽曲のデータに基づいた機械学習を行うことにより、所定の種別のフレーズから当該所定の種別のパートを作成するための学習済みモデル504を生成する(ステップS113)。ここで、生成部12は、例えば、GANs(Generative Adversarial Networks、敵対的生成ネットワーク)、またはVAE(Variational AutoEncoder)等を用いて、機械学習してもよい。
GANsを用いる場合、生成部12は、GANsのgenerator(生成ネットワーク)により、例えば、ニューラルネットワークを用いて、当該パートを、当該フレーズに対する正解として、ニューラルネットワークを用いて機械学習する。そして、生成部12は、ステップS111の処理により入力されたフレーズに基づいて、当該フレーズを含むパートを生成する。
また、生成部12は、generatorにより生成されたパート、またはステップS111の処理により入力された、学習用データ111に記憶されているパートをGANsのdiscriminator(識別ネットワーク)の入力とする。そして、discriminatorに、入力されたパートが、generatorにより生成されたものであるか、学習用データ111に記憶されているものであるかを予測(識別)させる。そして、入力されたパートが、generatorにより生成されたものである確率を示す値(例えば、0から1までの範囲の値)を出力させる。
続いて、生成部12は、学習の終了条件を満たしたか否かを判定する(ステップS114)。ここで、例えば、生成部12は、ステップS111からステップS113の学習処理を所定回数行った場合に、学習の終了条件を満たしたと判定してもよい。または、生成部12は、generatorにより生成されたパートの品質が一定程度に達したと人間により判断された場合に、学習の終了条件を満たしたと判定してもよい。
学習の終了条件を満たしていない場合(ステップS114でNO)、ステップS111の処理に進む。学習の終了条件を満たしている場合(ステップS114でYES)、処理を終了する。
(一の種別のパートから他の種別のパートを作成するための学習済みモデル506の生成処理)
次に、図10を参照し、図7のステップS12の、一の種別のパートから他の種別のパートを作成するための学習済みモデル506の生成処理について説明する。図10は、第1の実施形態に係る一の種別のパートから他の種別のパートを作成するための学習済みモデル506を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル506により、実行フェーズにおいて、例えば、端末20は、所定のパートから、当該所定のパートとは異なる種別のパートを生成することができる。
なお、以下に示す図10の処理は、入力されるパートの種別と、生成されるパートの種別との組に対してそれぞれ実行され、当該組毎に学習済みモデルが生成される。この場合、例えば、パートの種別が「Aメロ」、「Bメロ」、「サビ」の3つであれば、「Aメロ」から「Bメロ」、「Aメロ」から「サビ」、「Bメロ」から「Aメロ」、「Bメロ」から「サビ」、「サビ」から「Aメロ」、「サビ」から「Aメロ」の6つの組のそれぞれに対応する6つの学習済みモデルが生成される。これにより、各学習済みモデルを各役割に特化して学習させられるため、各学習済みモデルにより出力されるデータの品質がより向上する。以下では、各組における、入力されるパートの種別を第1種別、生成されるパートの種別を第2種別と称して説明する。
ステップS121において、生成部12は、一の楽曲に含まれる第1種別のパートと、当該一の楽曲に含まれる第2種別のパートとが対応付けられたデータを、学習用データ111から取得する。以下で、当該第2種別のパートは、当該第1種別のパートに対する正解として機械学習される。
続いて、生成部12は、学習用の楽曲のデータの表現形式を変換する(ステップS122)。ここで、上述したステップS102の処理と同様に、ステップS121の処理で取得した楽譜の情報を離散表現に変換する。
続いて、生成部12は、表現形式が変換された学習用の楽曲のデータに基づいた機械学習を行うことにより、一の種別のパートから他の種別のパートを作成するための学習済みモデル506を生成する(ステップS123)。ここで、生成部12は、例えば、GANs(Generative Adversarial Networks、敵対的生成ネットワーク)、またはVAE(Variational AutoEncoder)等を用いて、機械学習してもよい。
GANsを用いる場合、生成部12は、GANsのgeneratorにより、例えば、当該第2種別のパートを、当該第1種別のパートに対する正解として、ニューラルネットワークを用いて機械学習する。そして、ステップS121の処理により入力された第1種別のパートに基づいて、第2種別のパートを生成する。
また、生成部12は、generatorにより生成された第2種別のパート、またはステップS121の処理により入力された、学習用データ111に記憶されている第2種別のパートをGANsのdiscriminatorの入力とする。そして、discriminatorに、入力された第2種別のパートが、generatorにより生成されたものであるか、学習用データ111に記憶されているものであるかを予測(識別)させる。そして、入力された第2種別のパートが、generatorにより生成されたものである確率を示す値(例えば、0から1までの範囲の値)を出力させる。
続いて、生成部12は、学習の終了条件を満たしたか否かを判定する(ステップS124)。ここで、生成部12は、例えば、ステップS121からステップS123の学習処理を所定回数行った場合に、学習の終了条件を満たしたと判定してもよい。または、生成部12は、generatorにより生成されたパートの品質が一定程度に達したと人間により判断された場合に、学習の終了条件を満たしたと判定してもよい。
学習の終了条件を満たしていない場合(ステップS124でNO)、ステップS121の処理に進む。学習の終了条件を満たしている場合(ステップS124でYES)、処理を終了する。
≪実行フェーズ≫
次に、図11を参照し、第1の実施形態における、図5のステップS3の、学習済みモデルのセットを用いて、楽曲を自動で作成する処理(実行フェーズ)について説明する。図11は、第1の実施形態に係る実行フェーズの処理の一例について説明するフローチャートである。以下の処理は、例えば、ユーザから所定の操作を受け付けた場合等に実行される。
ステップS15において、端末20の取得部22は、所定のフレーズを取得する。ここで、所定のフレーズは、例えば、ユーザの鼻歌が自動で採譜されたフレーズでもよい。これにより、ユーザが思いついたフレーズを含み、当該フレーズに適合する楽曲を生成することができる。また、一様分布やガウス分布などに従う乱数に基づいて自動で生成されたフレーズでもよい。これにより、明示的にフレーズを与えずとも、楽曲を生成することができる。
続いて、第1メロディ生成部23は、図7のステップS10の処理で生成された、フレーズの種別を分類するための学習済みモデル502を用いて、当該所定のフレーズの種別を判定する(ステップS16)。なお、種別を自動で判定する代わりに、ユーザからの操作で種別を指定できるようにしてもよい。これにより、例えば、ユーザがサビのつもりで入力した鼻歌がサビ以外のAメロ等であると判定されることを防ぐことができる。
続いて、第1メロディ生成部23は、ステップS15で取得した所定のフレーズに基づいて、当該所定のフレーズを含む第1のパートを作成する(ステップS17)。ここで、第1メロディ生成部23は、図7のステップS11の処理で生成された複数の学習済みモデル504のうち、当該種別のフレーズから当該種別のパートを作成するための学習済みモデルを選択する。そして、第1メロディ生成部23は、当該学習済みモデルに当該所定のフレーズを入力することにより、当該学習済みモデルから第1のパートを出力させる。
続いて、第2メロディ生成部24は、第1のパートに基づいて、第2パートから第Nパート(Nは2以上の自然数)をそれぞれ作成する(ステップS18)。ここで、第2メロディ生成部24は、図7のステップS12の処理で生成された複数の学習済みモデル506のうち、第1のパートに基づいて、第1のパートの種別とは異なる各種別であって、所定のテンプレートに含まれる各種別のパートを作成するための各学習済みモデルを選択する。すなわち、第1のパートの種別が「Aメロ」であり、所定のテンプレートに含まれる種別が「Aメロ」、「Bメロ」、及び「サビ」である場合、「Aメロ」から「Bメロ」を作成するための学習済みモデルAと、「Aメロ」から「サビ」を作成するための学習済みモデルBとを選択する。そして、第2メロディ生成部24は、学習済みモデルAに第1のパートを入力することにより、学習済みモデルAから「Bメロ」のパートを出力させる。また、学習済みモデルBに第1のパートを入力することにより、学習済みモデルBから「サビ」のパートを出力させる。
続いて、楽曲生成部25は、当該所定のテンプレートで規定されたパートの種別の順番に従って、当該第1のパートから第Nパートをそれぞれ1以上配置することにより、楽曲を作成する(ステップS19)。ここで、所定のテンプレートには、例えば、「Aメロ」、「Bメロ」、「サビ」、「Aメロ」、「Bメロ」、「サビ」、「サビ」等のように、楽曲におけるパートの種別の順番の情報が含まれている。所定のテンプレートは、端末20のユーザにより選択できるようにしてもよい。
[第2の実施形態]
第1の実施形態では、実行フェーズにおいて、所定のフレーズの種別を判定した後、判定した種別のパートを作成するようにする例について説明した。第2の実施形態では、実行フェーズにおいて、所定のフレーズからパートを作成した後、当該パートの種別を判定するようにする例について説明する。
なお、第2の実施形態は一部を除いて第1の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。
次に、図12を参照し、第2の実施形態の概要について説明する。図12は、第2の実施形態の実行フェーズについて説明する図である。
第2の実施形態では、実行フェーズにおいて、フレーズからパートを作成するための学習済みモデル1102を用いて、所定のフレーズ1101から、パート1103を作成する。そして、パートの種別を分類するための学習済みモデル1104を用いて、パート1103の種別を判定する。図12の例では、パート1103の種別が「Aメロ」1103と判定されていることが示されている。そして、以下は、第1の実施形態と同様の処理で、一の種別のパートから他の種別のパートを作成するための学習済みモデル506を用いて、パート1103から、他の種別のパート1106、1107を作成する。図11の例では、パート1106の種別は「Bメロ」1108、パート1107の種別は「サビ」1109であることが示されている。そして、パート1103、パート1106、パート1107を、所定のテンプレート510で規定された順に並べることにより、楽曲1110を作成する。第2の実施形態の効果は、第1の実施形態の効果と同様である。
≪学習フェーズ≫
次に、図13を参照し、第2の実施形態における、図5のステップS1の、機械学習により学習済みモデルのセットを生成する処理(学習フェーズ)について説明する。図13は、第2の実施形態に係る学習フェーズの処理の一例について説明するフローチャートである。
ステップS20において、生成部12は、フレーズからパートを作成するための学習済みモデル1102を生成する。なお、ステップS20の処理は、第1の実施形態のステップS11の処理と同様であるが、種別に関係なく学習モデルが生成される点が異なる。
続いて、生成部12は、パートの種別を分類するための学習済みモデル1104を生成する(ステップS21)。なお、ステップS21の処理は、第1の実施形態のステップS10の処理と同様であるが、フレーズの種別ではなくパートの種別を学習させる点が異なる。
続いて、生成部12は、一の種別のパートから他の種別のパートを作成するための学習済みモデル506を生成し(ステップS22)、学習済みモデル生成処理を終了する。なお、ステップS22の処理は、第1の実施形態のステップS12の処理と同様である。なお、ステップS20からステップS22の処理の順番は、どのような順番で行ってもよい。
(パートの種別を分類するための学習済みモデル1104の生成処理)
次に、図14を参照し、図13のステップS21の、パートの種別を分類するための学習済みモデル1104を生成する処理について説明する。図14は、第2の実施形態に係るパートの種別を分類するための学習済みモデル1104を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル1104により、実行フェーズにおいて、例えば、端末20は、自動作曲する楽曲の元となる所定のフレーズに基づいて作成されたパートの種別を判定することができる。
なお、図14の処理は、第1の実施形態の図8の処理と比較して、フレーズの種別ではなくパートの種別を学習させる点が異なる。
ステップS211において、生成部12は、楽曲に含まれるパートと、当該パートの種別とが対応付けられたデータを、学習用データ111から取得する。以下で、当該種別は、当該パートに対する正解として機械学習される。
続いて、生成部12は、学習用の楽曲のデータの表現形式を変換する(ステップS212)。続いて、生成部12は、表現形式が変換された学習用の楽曲のデータに基づいた機械学習を行うことにより、パートの種別を分類するための学習済みモデル1104を生成する(ステップS213)。
続いて、生成部12は、学習の終了条件を満たしたか否かを判定する(ステップS214)。学習の終了条件を満たしていない場合(ステップS214でNO)、ステップS211の処理に進む。学習の終了条件を満たしている場合(ステップS214でYES)、処理を終了する。
≪実行フェーズ≫
次に、図15を参照し、第2の実施形態における、図5のステップS3の、学習済みモデルのセットを用いて、楽曲を自動で作成する処理(実行フェーズ)について説明する。図15は、第2の実施形態に係る実行フェーズの処理の一例について説明するフローチャートである。
ステップS25において、端末20の取得部22は、所定のフレーズを取得する。この処理は第1の実施形態と同様である。続いて、第1メロディ生成部23は、図13のステップS21の処理で生成された、フレーズからパートを作成するための学習済みモデル1102を用いて、当該所定のフレーズから第1のパートを作成する(ステップS26)。
続いて、第1メロディ生成部23は、図13のステップS22の処理で生成された、パートの種別を分類するための学習済みモデル1104を用いて、第1のパートの種別を判定する(ステップS27)。
ステップS28、及びステップS29の処理は第1の実施形態の図11のステップS18、及びステップS19の処理と同様である。
<変形例>
サーバ10、及び端末20の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。端末20の各機能部の少なくとも一部を、サーバ10に設けた構成としてもよい。この場合、例えば、第1メロディ生成部23、第2メロディ生成部24、及び楽曲生成部25等をサーバ10に設け、サーバ10が、ユーザの鼻歌等のデータを端末20から取得し、上述した実行フェーズの処理を実行して楽曲を作成し、作成した楽曲を端末20に配信するようにしてもよい。また、サーバ10の各機能部の少なくとも一部を、端末20に設けた構成としてもよい。サーバ10、及び端末20は、一体の装置として構成されてもよい。
<実施形態の効果>
上述した実施形態によれば、より多様な楽曲を自動で作成できる。また、音楽の知識が無くても作曲ができるため、例えば、より多くの人に音楽の面白さを知ってもらうきっかけにもなる。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
以上の説明に関し、更に以下の説明を開示する。
(付記1)
電子機器に、
所定の情報に応じて、楽曲の構成要素に対応する区間長を有し、構成要素の種別が特定されているメロディを生成する第1メロディ生成処理と、
学習用の楽曲に含まれる、第1種別の構成要素に対応する区間長を有するメロディと、前記第1種別とは異なる第2種別の構成要素に対応する区間長を有するメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、少なくとも、前記第1メロディ生成処理により生成された前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成する第2メロディ生成処理と、
所定の構成情報により規定される各構成要素の種別の出現順序に応じて、前記第1種別の構成要素のメロディ、及び前記第2種別の構成要素のメロディを配置し、楽曲を生成する処理と、を実行させるプログラム。
(付記2)
前記第1の学習済みモデルは、GANs(Generative Adversarial Networks)、またはVAE(Variational AutoEncoder)を用いて生成されたモデルである、
付記1に記載のプログラム。
(付記3)
前記第1メロディ生成処理は、学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部と、当該構成要素のメロディとの組を学習データとする機械学習により生成された第2の学習済みモデルを用いて、前記所定の情報に応じたメロディを生成する、
付記1または2に記載のプログラム。
(付記4)
学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部または当該構成要素のメロディと、当該構成要素の種別との組を学習データとする機械学習により生成された第3の学習済みモデルを用いて、前記所定の情報に応じたメロディ、または前記第1メロディ生成処理により生成されたメロディの種別を判断する処理を実行させる、
付記1から3のいずれか一項に記載のプログラム。
(付記5)
前記所定の情報は、ユーザの音声に基づく情報、及び乱数に基づく情報である、
付記1から4のいずれか一項に記載のプログラム。
(付記6)
電子機器が、
所定の情報に応じて、楽曲の構成要素に対応する区間長を有し、構成要素の種別が特定されているメロディを生成する第1メロディ生成処理と、
学習用の楽曲に含まれる、第1種別の構成要素に対応する区間長を有するメロディと、前記第1種別とは異なる第2種別の構成要素に対応する区間長を有するメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、少なくとも、前記第1メロディ生成処理により生成された前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成する第2メロディ生成処理と、
所定の構成情報により規定される各構成要素の種別の出現順序に応じて、前記第1種別の構成要素のメロディ、及び前記第2種別の構成要素のメロディを配置し、楽曲を生成する処理と、を実行する情報処理方法。
(付記7)
所定の情報に応じて、楽曲の構成要素に対応する区間長を有し、構成要素の種別が特定されているメロディを生成する第1メロディ生成部と、
学習用の楽曲に含まれる、第1種別の構成要素に対応する区間長を有するメロディと、前記第1種別とは異なる第2種別の構成要素に対応する区間長を有するメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、少なくとも、前記第1メロディ生成部により生成された前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成する第2メロディ生成部と、
所定の構成情報により規定される各構成要素の種別の出現順序に応じて、前記第1種別の構成要素のメロディ、及び前記第2種別の構成要素のメロディを配置し、楽曲を生成する楽曲生成部と、を有する電子機器。
(付記8)
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成可能な学習済みモデルを生成する生成部を有する電子機器。
(付記9)
電子機器が、
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成可能な学習済みモデルを生成する、情報処理方法。
(付記10)
電子機器に、
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成可能な学習済みモデルを生成させる、プログラム。
(付記11)
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により生成され、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成するための学習済みモデル。
1 情報処理システム
10 サーバ
11 記憶部
111 学習用データ
12 生成部
13 出力部
20 端末
21 受付部
22 取得部
23 第1メロディ生成部
24 第2メロディ生成部
25 楽曲生成部
26 出力部

Claims (10)

  1. 電子機器に、
    所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成処理と、
    所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択処理と、
    選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成処理と、
    所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する処理と、
    を実行させるプログラム。
  2. 前記第1の学習済みモデルは、GANs(Generative Adversarial Networks)、またはVAE(Variational AutoEncoder)を用いて生成されたモデルである、
    請求項1に記載のプログラム。
  3. 前記第1メロディ生成処理は、学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部と、当該構成要素のメロディとの組を学習データとする機械学習により生成された第2の学習済みモデルを用いて、前記所定の情報に応じたメロディを生成する、
    請求項1または2に記載のプログラム。
  4. 学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部または当該構成要素のメロディと、当該構成要素の種別との組を学習データとする機械学習により生成された第3の学習済みモデルを用いて、前記所定の情報に応じたメロディ、または前記第1メロディ生成処理により生成されたメロディの種別を判断する処理を実行させる、
    請求項1から3のいずれか一項に記載のプログラム。
  5. 前記所定の情報は、ユーザの音声に基づく情報、及び乱数に基づく情報である、
    請求項1から4のいずれか一項に記載のプログラム。
  6. 電子機器が、
    所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成処理と、
    所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択処理と、
    選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成処理と、
    所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する処理と、を実行する情報処理方法。
  7. 所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成部と、
    所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択部であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択部と、
    選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成部と、
    所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する楽曲生成部と、を有する電子機器。
  8. 電子機器に、
    所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、第1メロディに対応する第1種別情報の入力に基づいて、複数の学習済みモデルの中から、第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1学習済みモデルと、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第3種別のメロディを出力する第2学習済みモデルと、を選択する選択処理と、
    前記第1学習済みモデル及び前記第2学習済みモデルに前記第1メロディを夫々入力し、入力に応じて前記第1学習済みモデル及び前記第2学習済みモデルが夫々出力する第2メロディ及び第3メロディを含む楽曲を生成する処理と、
    を実行させるプログラム。
  9. 電子機器が、
    所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、第1メロディに対応する第1種別情報の入力に基づいて、複数の学習済みモデルの中から、第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1学習済みモデルと、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第3種別のメロディを出力する第2学習済みモデルと、を選択する選択処理と、
    前記第1学習済みモデル及び前記第2学習済みモデルに前記第1メロディを夫々入力し、入力に応じて前記第1学習済みモデル及び前記第2学習済みモデルが夫々出力する第2メロディ及び第3メロディを含む楽曲を生成する処理と、
    を実行する情報処理方法。
  10. 所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、第1メロディに対応する第1種別情報の入力に基づいて、複数の学習済みモデルの中から、第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1学習済みモデルと、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第3種別のメロディを出力する第2学習済みモデルと、を選択する選択処理と、
    前記第1学習済みモデル及び前記第2学習済みモデルに前記第1メロディを夫々入力し、入力に応じて前記第1学習済みモデル及び前記第2学習済みモデルが夫々出力する第2メロディ及び第3メロディを含む楽曲を生成する処理と、
    を実行する電子機器。
JP2018120234A 2018-06-25 2018-06-25 プログラム、情報処理方法、及び電子機器 Active JP7298115B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120234A JP7298115B2 (ja) 2018-06-25 2018-06-25 プログラム、情報処理方法、及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120234A JP7298115B2 (ja) 2018-06-25 2018-06-25 プログラム、情報処理方法、及び電子機器

Publications (2)

Publication Number Publication Date
JP2020003535A JP2020003535A (ja) 2020-01-09
JP7298115B2 true JP7298115B2 (ja) 2023-06-27

Family

ID=69099668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120234A Active JP7298115B2 (ja) 2018-06-25 2018-06-25 プログラム、情報処理方法、及び電子機器

Country Status (1)

Country Link
JP (1) JP7298115B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4145439A4 (en) * 2020-05-01 2023-10-11 Sony Group Corporation INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE AND PROGRAM
JP2022021890A (ja) * 2020-07-22 2022-02-03 株式会社Tmik 音楽処理システム、音楽処理プログラム、及び音楽処理方法
JP7033365B2 (ja) * 2020-07-22 2022-03-10 株式会社Tmik 音楽処理システム、音楽処理プログラム、及び音楽処理方法
JPWO2022113907A1 (ja) * 2020-11-25 2022-06-02
KR102313549B1 (ko) * 2020-12-29 2021-10-15 주식회사 업보트엔터 음원 생성 방법 및 음원 생성 시스템
CN113643564B (zh) * 2021-07-27 2022-08-26 中国科学院深圳先进技术研究院 一种停车数据修复方法、装置、计算机设备以及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032079A (ja) 2000-07-18 2002-01-31 Yamaha Corp 自動作曲装置及び方法並びに記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2759110B2 (ja) * 1996-11-05 1998-05-28 カシオ計算機株式会社 自動作曲機
KR20180032755A (ko) * 2016-09-23 2018-04-02 송완 기계 학습을 통한 자동 음악 콘텐츠 제작시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032079A (ja) 2000-07-18 2002-01-31 Yamaha Corp 自動作曲装置及び方法並びに記憶媒体

Also Published As

Publication number Publication date
JP2020003535A (ja) 2020-01-09

Similar Documents

Publication Publication Date Title
JP7298115B2 (ja) プログラム、情報処理方法、及び電子機器
US11562722B2 (en) Cognitive music engine using unsupervised learning
US11430418B2 (en) Automatically managing the musical tastes and preferences of system users based on user feedback and autonomous analysis of music automatically composed and generated by an automated music composition and generation system
US10657934B1 (en) Enhancements for musical composition applications
JP6004358B1 (ja) 音声合成装置および音声合成方法
JP2018537727A5 (ja)
US20140278433A1 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
US11842719B2 (en) Sound processing method, sound processing apparatus, and recording medium
WO2019176954A1 (en) Machine learning method, electronic apparatus, electronic musical instrument, model generator for part selection, and method of part determination
CN113920969A (zh) 信息处理方法、装置、电子设备及存储介质
WO2023249554A1 (en) Computing system and method for music generation
KR20240020082A (ko) 딥러닝 기반 가창 음성 합성 장치 및 이를 이용한 가창 음성 합성 방법
Featherstone et al. Using character valence in computer generated music to produce variation aligned to a storyline

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7298115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150