JP7298115B2 - プログラム、情報処理方法、及び電子機器 - Google Patents
プログラム、情報処理方法、及び電子機器 Download PDFInfo
- Publication number
- JP7298115B2 JP7298115B2 JP2018120234A JP2018120234A JP7298115B2 JP 7298115 B2 JP7298115 B2 JP 7298115B2 JP 2018120234 A JP2018120234 A JP 2018120234A JP 2018120234 A JP2018120234 A JP 2018120234A JP 7298115 B2 JP7298115 B2 JP 7298115B2
- Authority
- JP
- Japan
- Prior art keywords
- melody
- type
- trained model
- input
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Description
図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、サーバ10、及び端末20を備える。なお、各装置の数は、図1の例に限定されない。
図2は、実施形態に係るサーバ10、及び端末20のハードウェア構成例を示す図である。以下では、サーバ10を例として説明する。図2のサーバ10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU(Central Processing Unit)104、インタフェース装置105、表示装置106、入力装置107、及び出力装置108等を有する。
次に、図3、図4A、及び図4Bを参照し、実施形態に係るサーバ10、及び端末20の機能構成について説明する。図3は、実施形態に係るサーバ10、及び端末20の機能構成の一例を示す図である。図4A、及び図4Bは、実施形態に係る学習用データ111について説明する図である。
サーバ10は、記憶部11を有する。記憶部11は、例えば、補助記憶装置102等を用いて実現される。記憶部11は、学習用データ111等のデータを記憶する。学習用データ111には、図4Aに示すように、楽曲IDに対応付けて、学習用の楽曲データが予め記憶されている。学習用の楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)規格による、音の高さ、音の強さ等の情報が符号化された楽曲の演奏情報でもよい。
端末20は、受付部21、取得部22、第1メロディ生成部23、第2メロディ生成部24、楽曲生成部25、及び出力部26を有する。これら各部は、端末20にインストールされた1以上のプログラムが、端末20のCPUに実行させる処理により実現される。
次に、図5を参照し、実施形態に係る情報処理システム1の処理について説明する。図5は、実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。
次に、図6を参照し、第1の実施形態の概要について説明する。図6は、第1の実施形態の実行フェーズについて説明する図である。
従来のGANs等のデータ生成手法では、例えば、犬の画像や人の画像等、1つの種別の被写体を含む画像を生成させる場合、十分な品質のデータを生成できる。しかしながら、犬、人、及び山等の複数の種別の被写体を含む画像が生成されるように学習させる場合、当該複数の種別のうち、いずれか1つの種別の被写体を含む画像ばかりを生成する場合がある。そのため、1フレーズ等の所定のデータに基づいてGANs等で楽曲を生成させる場合、「Aメロ」、「Bメロ」、及び「サビ」のいずれか1つの種別らしいパートのみで構成された楽曲ばかりが生成されることが懸念される。
次に、図7を参照し、第1の実施形態における、図5のステップS1の、機械学習により学習済みモデルのセットを生成する処理(学習フェーズ)について説明する。図7は、第1の実施形態に係る学習フェーズの処理の一例について説明するフローチャートである。
次に、図8を参照し、図7のステップS10の、フレーズの種別を分類するための学習済みモデル502を生成する処理について説明する。図8は、第1の実施形態に係るフレーズの種別を分類するための学習済みモデル502を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル502により、実行フェーズにおいて、例えば、端末20は、自動作曲する楽曲の元となる所定のフレーズの種別を判定することができる。
次に、図9を参照し、図7のステップS11の、各種別のフレーズからパートを作成するための学習済みモデル504を生成する処理について説明する。図9は、第1の実施形態に係る各種別のフレーズからパートを作成するための学習済みモデル504を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル504により、実行フェーズにおいて、例えば、端末20は、自動作曲する楽曲の元となる所定のフレーズから、当該所定のフレーズを含むパートであって、当該所定のフレーズと同一の種別であるパートを作成することができる。
次に、図10を参照し、図7のステップS12の、一の種別のパートから他の種別のパートを作成するための学習済みモデル506の生成処理について説明する。図10は、第1の実施形態に係る一の種別のパートから他の種別のパートを作成するための学習済みモデル506を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル506により、実行フェーズにおいて、例えば、端末20は、所定のパートから、当該所定のパートとは異なる種別のパートを生成することができる。
次に、図11を参照し、第1の実施形態における、図5のステップS3の、学習済みモデルのセットを用いて、楽曲を自動で作成する処理(実行フェーズ)について説明する。図11は、第1の実施形態に係る実行フェーズの処理の一例について説明するフローチャートである。以下の処理は、例えば、ユーザから所定の操作を受け付けた場合等に実行される。
第1の実施形態では、実行フェーズにおいて、所定のフレーズの種別を判定した後、判定した種別のパートを作成するようにする例について説明した。第2の実施形態では、実行フェーズにおいて、所定のフレーズからパートを作成した後、当該パートの種別を判定するようにする例について説明する。
次に、図13を参照し、第2の実施形態における、図5のステップS1の、機械学習により学習済みモデルのセットを生成する処理(学習フェーズ)について説明する。図13は、第2の実施形態に係る学習フェーズの処理の一例について説明するフローチャートである。
次に、図14を参照し、図13のステップS21の、パートの種別を分類するための学習済みモデル1104を生成する処理について説明する。図14は、第2の実施形態に係るパートの種別を分類するための学習済みモデル1104を生成する処理の一例について説明するフローチャートである。なお、当該学習済みモデル1104により、実行フェーズにおいて、例えば、端末20は、自動作曲する楽曲の元となる所定のフレーズに基づいて作成されたパートの種別を判定することができる。
次に、図15を参照し、第2の実施形態における、図5のステップS3の、学習済みモデルのセットを用いて、楽曲を自動で作成する処理(実行フェーズ)について説明する。図15は、第2の実施形態に係る実行フェーズの処理の一例について説明するフローチャートである。
サーバ10、及び端末20の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。端末20の各機能部の少なくとも一部を、サーバ10に設けた構成としてもよい。この場合、例えば、第1メロディ生成部23、第2メロディ生成部24、及び楽曲生成部25等をサーバ10に設け、サーバ10が、ユーザの鼻歌等のデータを端末20から取得し、上述した実行フェーズの処理を実行して楽曲を作成し、作成した楽曲を端末20に配信するようにしてもよい。また、サーバ10の各機能部の少なくとも一部を、端末20に設けた構成としてもよい。サーバ10、及び端末20は、一体の装置として構成されてもよい。
上述した実施形態によれば、より多様な楽曲を自動で作成できる。また、音楽の知識が無くても作曲ができるため、例えば、より多くの人に音楽の面白さを知ってもらうきっかけにもなる。
(付記1)
電子機器に、
所定の情報に応じて、楽曲の構成要素に対応する区間長を有し、構成要素の種別が特定されているメロディを生成する第1メロディ生成処理と、
学習用の楽曲に含まれる、第1種別の構成要素に対応する区間長を有するメロディと、前記第1種別とは異なる第2種別の構成要素に対応する区間長を有するメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、少なくとも、前記第1メロディ生成処理により生成された前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成する第2メロディ生成処理と、
所定の構成情報により規定される各構成要素の種別の出現順序に応じて、前記第1種別の構成要素のメロディ、及び前記第2種別の構成要素のメロディを配置し、楽曲を生成する処理と、を実行させるプログラム。
(付記2)
前記第1の学習済みモデルは、GANs(Generative Adversarial Networks)、またはVAE(Variational AutoEncoder)を用いて生成されたモデルである、
付記1に記載のプログラム。
(付記3)
前記第1メロディ生成処理は、学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部と、当該構成要素のメロディとの組を学習データとする機械学習により生成された第2の学習済みモデルを用いて、前記所定の情報に応じたメロディを生成する、
付記1または2に記載のプログラム。
(付記4)
学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部または当該構成要素のメロディと、当該構成要素の種別との組を学習データとする機械学習により生成された第3の学習済みモデルを用いて、前記所定の情報に応じたメロディ、または前記第1メロディ生成処理により生成されたメロディの種別を判断する処理を実行させる、
付記1から3のいずれか一項に記載のプログラム。
(付記5)
前記所定の情報は、ユーザの音声に基づく情報、及び乱数に基づく情報である、
付記1から4のいずれか一項に記載のプログラム。
(付記6)
電子機器が、
所定の情報に応じて、楽曲の構成要素に対応する区間長を有し、構成要素の種別が特定されているメロディを生成する第1メロディ生成処理と、
学習用の楽曲に含まれる、第1種別の構成要素に対応する区間長を有するメロディと、前記第1種別とは異なる第2種別の構成要素に対応する区間長を有するメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、少なくとも、前記第1メロディ生成処理により生成された前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成する第2メロディ生成処理と、
所定の構成情報により規定される各構成要素の種別の出現順序に応じて、前記第1種別の構成要素のメロディ、及び前記第2種別の構成要素のメロディを配置し、楽曲を生成する処理と、を実行する情報処理方法。
(付記7)
所定の情報に応じて、楽曲の構成要素に対応する区間長を有し、構成要素の種別が特定されているメロディを生成する第1メロディ生成部と、
学習用の楽曲に含まれる、第1種別の構成要素に対応する区間長を有するメロディと、前記第1種別とは異なる第2種別の構成要素に対応する区間長を有するメロディとの組を学習データとする機械学習により生成された第1の学習済みモデルを用いて、少なくとも、前記第1メロディ生成部により生成された前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成する第2メロディ生成部と、
所定の構成情報により規定される各構成要素の種別の出現順序に応じて、前記第1種別の構成要素のメロディ、及び前記第2種別の構成要素のメロディを配置し、楽曲を生成する楽曲生成部と、を有する電子機器。
(付記8)
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成可能な学習済みモデルを生成する生成部を有する電子機器。
(付記9)
電子機器が、
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成可能な学習済みモデルを生成する、情報処理方法。
(付記10)
電子機器に、
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成可能な学習済みモデルを生成させる、プログラム。
(付記11)
学習用の楽曲に含まれる第1種別の構成要素のメロディと、第2種別の構成要素のメロディとの組を学習データとする機械学習により生成され、前記第1種別の構成要素のメロディに基づいて前記第2種別の構成要素のメロディを生成するための学習済みモデル。
10 サーバ
11 記憶部
111 学習用データ
12 生成部
13 出力部
20 端末
21 受付部
22 取得部
23 第1メロディ生成部
24 第2メロディ生成部
25 楽曲生成部
26 出力部
Claims (10)
- 電子機器に、
所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成処理と、
所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択処理と、
選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成処理と、
所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する処理と、
を実行させるプログラム。 - 前記第1の学習済みモデルは、GANs(Generative Adversarial Networks)、またはVAE(Variational AutoEncoder)を用いて生成されたモデルである、
請求項1に記載のプログラム。 - 前記第1メロディ生成処理は、学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部と、当該構成要素のメロディとの組を学習データとする機械学習により生成された第2の学習済みモデルを用いて、前記所定の情報に応じたメロディを生成する、
請求項1または2に記載のプログラム。 - 学習用の楽曲に含まれる所定の種別の構成要素のメロディの一部または当該構成要素のメロディと、当該構成要素の種別との組を学習データとする機械学習により生成された第3の学習済みモデルを用いて、前記所定の情報に応じたメロディ、または前記第1メロディ生成処理により生成されたメロディの種別を判断する処理を実行させる、
請求項1から3のいずれか一項に記載のプログラム。 - 前記所定の情報は、ユーザの音声に基づく情報、及び乱数に基づく情報である、
請求項1から4のいずれか一項に記載のプログラム。 - 電子機器が、
所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成処理と、
所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択処理と、
選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成処理と、
所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する処理と、を実行する情報処理方法。 - 所定の情報の入力に応じて、楽曲を構成する複数の種別の中から種別は第1種別と決定するとともに、第1メロディを出力する第1メロディ生成部と、
所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択部であって、前記第1種別の決定に基づいて、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1の学習済みモデルを複数の学習済みモデルの中から選択する選択部と、
選択された前記第1の学習済みモデルに前記第1メロディを入力し、前記第1の学習済みモデルが第2種別の第2メロディを出力する第2メロディ生成部と、
所定の構成情報により規定される前記所定のテンプレートの各構成要素の種別の出現順序に応じて、前記第1メロディ及び前記第2メロディを配置し、楽曲を生成する楽曲生成部と、を有する電子機器。 - 電子機器に、
所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、第1メロディに対応する第1種別情報の入力に基づいて、複数の学習済みモデルの中から、第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1学習済みモデルと、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第3種別のメロディを出力する第2学習済みモデルと、を選択する選択処理と、
前記第1学習済みモデル及び前記第2学習済みモデルに前記第1メロディを夫々入力し、入力に応じて前記第1学習済みモデル及び前記第2学習済みモデルが夫々出力する第2メロディ及び第3メロディを含む楽曲を生成する処理と、
を実行させるプログラム。 - 電子機器が、
所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、第1メロディに対応する第1種別情報の入力に基づいて、複数の学習済みモデルの中から、第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1学習済みモデルと、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第3種別のメロディを出力する第2学習済みモデルと、を選択する選択処理と、
前記第1学習済みモデル及び前記第2学習済みモデルに前記第1メロディを夫々入力し、入力に応じて前記第1学習済みモデル及び前記第2学習済みモデルが夫々出力する第2メロディ及び第3メロディを含む楽曲を生成する処理と、
を実行する情報処理方法。 - 所定のテンプレートにより規定されている各種別に応じて学習されている学習済みモデルを夫々選択する選択処理であって、第1メロディに対応する第1種別情報の入力に基づいて、複数の学習済みモデルの中から、第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第2種別のメロディを出力する第1学習済みモデルと、前記第1種別のメロディの入力に応じて前記所定のテンプレートで規定されている第3種別のメロディを出力する第2学習済みモデルと、を選択する選択処理と、
前記第1学習済みモデル及び前記第2学習済みモデルに前記第1メロディを夫々入力し、入力に応じて前記第1学習済みモデル及び前記第2学習済みモデルが夫々出力する第2メロディ及び第3メロディを含む楽曲を生成する処理と、
を実行する電子機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018120234A JP7298115B2 (ja) | 2018-06-25 | 2018-06-25 | プログラム、情報処理方法、及び電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018120234A JP7298115B2 (ja) | 2018-06-25 | 2018-06-25 | プログラム、情報処理方法、及び電子機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020003535A JP2020003535A (ja) | 2020-01-09 |
JP7298115B2 true JP7298115B2 (ja) | 2023-06-27 |
Family
ID=69099668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120234A Active JP7298115B2 (ja) | 2018-06-25 | 2018-06-25 | プログラム、情報処理方法、及び電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7298115B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4145439A4 (en) * | 2020-05-01 | 2023-10-11 | Sony Group Corporation | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING DEVICE AND PROGRAM |
JP2022021890A (ja) * | 2020-07-22 | 2022-02-03 | 株式会社Tmik | 音楽処理システム、音楽処理プログラム、及び音楽処理方法 |
JP7033365B2 (ja) * | 2020-07-22 | 2022-03-10 | 株式会社Tmik | 音楽処理システム、音楽処理プログラム、及び音楽処理方法 |
JPWO2022113907A1 (ja) * | 2020-11-25 | 2022-06-02 | ||
KR102313549B1 (ko) * | 2020-12-29 | 2021-10-15 | 주식회사 업보트엔터 | 음원 생성 방법 및 음원 생성 시스템 |
CN113643564B (zh) * | 2021-07-27 | 2022-08-26 | 中国科学院深圳先进技术研究院 | 一种停车数据修复方法、装置、计算机设备以及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032079A (ja) | 2000-07-18 | 2002-01-31 | Yamaha Corp | 自動作曲装置及び方法並びに記憶媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2759110B2 (ja) * | 1996-11-05 | 1998-05-28 | カシオ計算機株式会社 | 自動作曲機 |
KR20180032755A (ko) * | 2016-09-23 | 2018-04-02 | 송완 | 기계 학습을 통한 자동 음악 콘텐츠 제작시스템 |
-
2018
- 2018-06-25 JP JP2018120234A patent/JP7298115B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032079A (ja) | 2000-07-18 | 2002-01-31 | Yamaha Corp | 自動作曲装置及び方法並びに記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2020003535A (ja) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7298115B2 (ja) | プログラム、情報処理方法、及び電子機器 | |
US11562722B2 (en) | Cognitive music engine using unsupervised learning | |
US11430418B2 (en) | Automatically managing the musical tastes and preferences of system users based on user feedback and autonomous analysis of music automatically composed and generated by an automated music composition and generation system | |
US10657934B1 (en) | Enhancements for musical composition applications | |
JP6004358B1 (ja) | 音声合成装置および音声合成方法 | |
JP2018537727A5 (ja) | ||
US20140278433A1 (en) | Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon | |
US11842719B2 (en) | Sound processing method, sound processing apparatus, and recording medium | |
WO2019176954A1 (en) | Machine learning method, electronic apparatus, electronic musical instrument, model generator for part selection, and method of part determination | |
CN113920969A (zh) | 信息处理方法、装置、电子设备及存储介质 | |
WO2023249554A1 (en) | Computing system and method for music generation | |
KR20240020082A (ko) | 딥러닝 기반 가창 음성 합성 장치 및 이를 이용한 가창 음성 합성 방법 | |
Featherstone et al. | Using character valence in computer generated music to produce variation aligned to a storyline |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7298115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |