JP2011175006A - 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム - Google Patents

情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム Download PDF

Info

Publication number
JP2011175006A
JP2011175006A JP2010037468A JP2010037468A JP2011175006A JP 2011175006 A JP2011175006 A JP 2011175006A JP 2010037468 A JP2010037468 A JP 2010037468A JP 2010037468 A JP2010037468 A JP 2010037468A JP 2011175006 A JP2011175006 A JP 2011175006A
Authority
JP
Japan
Prior art keywords
data
music
lyrics
attribute
attribute data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010037468A
Other languages
English (en)
Inventor
Nobuya Otani
伸弥 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010037468A priority Critical patent/JP2011175006A/ja
Publication of JP2011175006A publication Critical patent/JP2011175006A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】ユーザが歌詞以外のパラメータを入力せずとも、歌詞に合った適切な楽曲を自動的に作曲することを可能とすること。
【解決手段】複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶部と、ユーザにより入力される文字列を取得する文字列取得部と、取得される文字列から言語特徴量を算出する特徴量算出部と、前記演算モデルに従って、前記特徴量算出部により算出される言語特徴量から、作曲すべき楽曲の属性データを導出するモデル演算部と、前記モデル演算部により導出される属性データを用いて、前記文字列取得部により取得される文字列を歌詞とする楽曲を生成する作曲部と、を備える情報処理装置を提供する。
【選択図】図6

Description

本発明は、情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラムに関する。
従来、リズム又はテンポなどの入力パラメータに応じて楽曲を自動的に生成する自動作曲システムが存在する。また、上記パラメータに加えてユーザに歌詞を入力させることにより、入力された歌詞に含まれる単語の韻律情報に応じた楽曲を生成するシステムも存在する(下記非特許文献1参照)。また、自動作曲とはやや異なるものの、歌詞データと歌詞のワイプ開始タイミングとに基づいてカラオケのガイドメロディを適切なタイミングで再生しようとする技術も存在する(下記特許文献1参照)。
深山覚,中妻啓,米林裕一郎,酒向慎司,西本卓也,小野順貴,嵯峨山茂樹, "Orpheus:歌詞の韻律に基づいた自動作曲システム", 研究報告-音楽情報科学(MUS), 2008年7月, vol.2008 No.78, pp.179-184
特開2008−257206号公報
しかしながら、ユーザにより入力される歌詞のみに基づいて、歌詞に合った適切な楽曲を自動的に作曲するシステムは存在しない。例えば、上記非特許文献1に記載されたシステムでは、ジャンル、テンポ又はリズムなどをユーザが設定することが求められるが、普段作曲をしないユーザにとって、これらパラメータを自ら適切な値に設定することは容易でない。また、パラメータ値をランダムに決定することで、ユーザによるパラメータの設定を省略することも可能だが、パラメータ値をランダムに決定する場合には、もはや歌詞に合った適切な楽曲を得ることは期待できない。
そこで、本発明は、ユーザが歌詞以外のパラメータを入力せずとも、歌詞に合った適切な楽曲を自動的に作曲することを可能とする、新規かつ改良された情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラムを提供しようとするものである。
本発明のある実施形態によれば、複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶部と、ユーザにより入力される文字列を取得する文字列取得部と、上記文字列取得部により取得される文字列から言語特徴量を算出する特徴量算出部と、上記記憶部により記憶されている上記演算モデルに従って、上記特徴量算出部により算出される言語特徴量から、作曲すべき楽曲の属性データを導出するモデル演算部と、上記モデル演算部により導出される属性データを用いて、上記文字列取得部により取得される文字列を歌詞とする楽曲を生成する作曲部と、を備える情報処理装置が提供される。
かかる構成によれば、楽曲の歌詞を表す歌詞データから算出される言語特徴量と楽曲の属性を表す属性データとの組を教師データとして機械学習により獲得された演算モデルに従って、ユーザにより歌詞として入力される文字列の言語特徴量から楽曲の属性データが導出され、当該属性データを用いて、入力文字列を歌詞とする楽曲が生成される。
また、上記記憶部は、上記モデル演算部により導出される第1の属性データと作曲パラメータとして使用される第2の属性データとの間の関係を記述する関係記述データをさらに記憶し、上記作曲部は、上記記憶部により記憶されている上記関係記述データに従って、上記第1の属性データから上記第2の属性データを決定するパラメータ決定部と、上記パラメータ決定部により決定される上記第2の属性データを用いて、上記文字列取得部により取得される文字列を歌詞とする楽曲を生成する楽曲生成部と、を有してもよい。
また、上記関係記述データは、2種類以上の上記第2の属性データの間の関係をも記述するデータであってもよい。
また、上記第1の属性データは、楽曲に関する1つ以上の名義属性についてのデータを含み、上記第2の属性データは、上記1つ以上の名義属性と関係する作曲パラメータについてのデータを含んでもよい。
また、上記言語特徴量は、上記歌詞データを単語集合とみなした場合の各単語の数を含んでもよい。
また、上記作曲部は、楽曲の小節数、テンポ、リズム、メロディ進行及びコード進行のうち少なくとも1つを含む上記属性データを用いて、上記文字列取得部により取得される文字列を歌詞とする楽曲を生成してもよい。
また、本発明の別の実施形態によれば、複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶媒体を備える情報処理装置を用いて、ユーザにより入力される文字列を取得する取得ステップと、取得された文字列から言語特徴量を算出する算出ステップと、上記記憶媒体により記憶されている上記演算モデルに従って、上記算出ステップにおいて算出された言語特徴量から、作曲すべき楽曲の属性データを導出する導出ステップと、導出された属性データを用いて、上記取得ステップにおいて取得された文字列を歌詞とする楽曲を生成する作曲ステップと、を含む、自動作曲方法が提供される。
また、本発明の別の実施形態によれば、複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶媒体を備える情報処理装置を制御するコンピュータを、ユーザにより入力される文字列を取得する文字列取得部と、上記文字列取得部により取得される文字列から言語特徴量を算出する特徴量算出部と、上記記憶媒体により記憶されている上記演算モデルに従って、上記特徴量算出部により算出される言語特徴量から、作曲すべき楽曲の属性データを導出するモデル演算部と、上記モデル演算部により導出される属性データを用いて、上記文字列取得部により取得される文字列を歌詞とする楽曲を生成する作曲部と、として機能させるための、プログラムが提供される。
また、本発明の別の実施形態によれば、楽曲の歌詞を表す歌詞データ及び当該楽曲の属性を表す属性データを取得するデータ取得部と、上記データ取得部により取得される上記歌詞データから言語特徴量を算出する特徴量算出部と、複数の楽曲について、各楽曲の上記属性データと上記言語特徴量との組を教師データとし、上記言語特徴量から上記属性データを導出するための演算モデルを学習する学習部と、を備え、上記属性データにより表される楽曲の属性は、楽曲の生成のために使用される作曲パラメータに関連する属性である、学習装置が提供される。
かかる構成によれば、楽曲の歌詞を表す歌詞データから算出される言語特徴量と楽曲の属性を表す属性データとの組を教師データとして、歌詞についての言語特徴量から楽曲の作曲パラメータに関連する属性データを導出するための演算モデルが、機械学習により獲得される。
また、上記属性データにより表される楽曲の属性は、上記作曲パラメータの決定の基礎となる1つ以上の名義属性を含んでもよい。
また、上記言語特徴量は、上記歌詞データを単語集合とみなした場合の各単語の数を含んでもよい。
また、上記属性データは、楽曲の小節数、テンポ、リズム、メロディ進行及びコード進行のうち少なくとも1つを含んでもよい。
また、本発明の別の実施形態によれば、情報処理装置による演算モデルの学習方法であって、楽曲の歌詞を表す歌詞データ及び当該楽曲の属性を表す属性データを取得する取得ステップと、取得された上記歌詞データから言語特徴量を算出する算出ステップと、複数の楽曲について、各楽曲の上記属性データと上記言語特徴量との組を教師データとし、上記言語特徴量から上記属性データを導出するための演算モデルを学習するステップと、を含み、上記属性データにより表される楽曲の属性は、楽曲の生成のために使用される作曲パラメータに関連する属性である、学習方法が提供される。
また、本発明の別の実施形態によれば、学習装置を制御するコンピュータを、楽曲の歌詞を表す歌詞データ及び当該楽曲の属性を表す属性データを取得するデータ取得部と、上記データ取得部により取得される上記歌詞データから言語特徴量を算出する特徴量算出部と、複数の楽曲について、各楽曲の上記属性データと上記言語特徴量との組を教師データとし、上記言語特徴量から上記属性データを導出するための演算モデルを学習する学習部と、として機能させるための、プログラムであって、上記属性データにより表される楽曲の属性は、楽曲の生成のために使用される作曲パラメータに関連する属性である、プログラムが提供される。
以上説明したように、本発明に係る情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラムによればユーザが歌詞以外のパラメータを入力せずとも、歌詞に合った適切な楽曲を自動的に作曲することを可能とすることができる。
第1の実施形態に係る学習装置の構成の一例を示すブロック図である。 既知の楽曲の楽曲データについて説明するための説明図である。 言語特徴量の一例について説明するための説明図である。 第1の実施形態に係る学習処理における教師データについて説明するための説明図である。 第1の実施形態に係る学習処理の流れの一例を示すフローチャートである。 第1の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第1の実施形態に係る作曲処理の流れの一例を示すフローチャートである。 第2の実施形態に係る学習処理における教師データについて説明するための説明図である。 第2の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 関係記述データの概要を説明するための説明図である。 関係記述データの具体的な例を説明するための説明図である。 第2の実施形態に係る作曲部の詳細な構成の一例を示すブロック図である。 第2の実施形態に係る作曲処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。
また、以下の順序にしたがって当該「発明を実施するための形態」を説明する。
1.第1の実施形態
1−1.学習装置の構成例
1−2.学習処理の流れ
1−3.情報処理装置(作曲装置)の構成例
1−4.作曲処理の流れ
1−5.第1の実施形態のまとめ
2.第2の実施形態
2−1.学習処理の説明
2−2.情報処理装置(作曲装置)の構成例
2−3.作曲処理の流れ
2−4.第2の実施形態のまとめ
<1.第1の実施形態>
本発明は、歌詞の言語特徴量から楽曲の生成に使用される属性データを導出するための演算モデルを学習する学習装置という1つの側面を有する。また、本発明は、学習された演算モデルに従って導出される属性データを用いて作曲をする情報処理装置という他の側面を有する。本発明の第1の実施形態の1つの特徴は、学習装置により学習され、情報処理装置により使用される演算モデルが、作曲のために使用されるパラメータ(以下、作曲パラメータという)を直接的に導出するモデルであるという点である。本節では、図2〜図8を用いて、このような第1の実施形態に係る学習装置及び情報処理装置について、説明する。
[1−1.学習装置の構成例]
図1は、本発明の第1の実施形態に係る学習装置100の構成の一例を示すブロック図である。図1を参照すると、学習装置100は、楽曲データ記憶部110、データ取得部120、特徴量算出部130、学習部140、及びモデル記憶部150を備える。
(楽曲データ記憶部)
楽曲データ記憶部110は、ハードディスク又は半導体メモリなどの記憶媒体を用いて、既知の複数の楽曲についての楽曲データを予め記憶している。本明細書において、楽曲データとは、楽曲の歌詞を表す歌詞データと当該楽曲の属性を表す属性データとの組をいう。
図2は、楽曲データ記憶部110に記憶される楽曲データについて説明するための説明図である。図2の上段には、学習の基礎とされる既知の楽曲群が示されている。このうち、例えば第1の楽曲から楽曲データM01、第2の楽曲から楽曲データM02、…、が抽出される。楽曲データM01には、第1の楽曲の歌詞を表すテキストデータである歌詞データW01、及び第1の楽曲の属性を表す属性データAT01が含まれる。同様に、楽曲データM02には、第2の楽曲の歌詞を表すテキストデータである歌詞データW02、及び第2の楽曲の属性を表す属性データAT02が含まれる。本実施形態において、各属性データは、楽曲の小節数、テンポ、リズム、メロディ進行及びコード進行などの属性についての属性値を含む。これら属性は、自動作曲のための入力パラメータである作曲パラメータに相当し得る。楽曲データを準備する際、各属性データの属性値は、人手で付与されてもよく、又は、公知のコンテンツ解析技術を用いて付与されてもよい。既知の複数の楽曲についての歌詞データと属性データとの組を含むこのような楽曲データは、楽曲データ記憶部110にデータベースとして予め蓄積される。
なお、楽曲データ記憶部110は、学習装置100の内部に設けられる代わりに、学習装置100の外部に設けられてもよい。
(データ取得部)
データ取得部120は、学習装置100による学習処理に際して、楽曲データ記憶部110に記憶されている複数の楽曲についての上述した楽曲データを取得する。そして、データ取得部120は、取得した楽曲データを、次に説明する特徴量算出部130へ出力する。
(特徴量算出部)
特徴量算出部130は、データ取得部120から入力される一群の楽曲データに含まれる各歌詞データから、各楽曲の歌詞についての言語特徴量を算出する。そして、特徴量算出部130は、データ取得部120から入力される一群の楽曲データについての言語特徴量と属性データとの組を、学習部140へ出力する。
図3は、本実施形態において特徴量算出部130により算出される言語特徴量の一例について説明するための説明図である。図3を参照すると、言語特徴量は、各歌詞データを単語集合(BOW:Bag Of Words)とみなした場合の各単語の数を含む。さらに、言語特徴量は、各歌詞データについての品詞ヒストグラム(例えば、名詞の数、動詞の数、形容詞の数などを含む統計値)、及びその他の言語学的な特徴量を含んでもよい。その他の言語学的な特徴量には、文字数、単語数、文字の種類(漢字、かな、又はアルファベットなど)ごとの割合、bigram(2単語ごとのヒストグラム)又はtrigram(3単語ごとのヒストグラム)などが含まれ得る。従って、各楽曲の歌詞データから算出される言語特徴量は、単語A〜単語Nについての単語数、品詞A〜品詞Mについての品詞数、及びその他の特徴量を要素とするベクトルにより表され得る。
(学習部)
学習部140は、機械学習によって、歌詞データから算出される言語特徴量から楽曲の属性データを導出するための演算モデルを学習する。その際、学習部140は、特徴量算出部130から入力される複数の楽曲についての属性データと言語特徴量との組を教師データとする。学習部140による機械学習は、例えば、SVM(Support Vector Machine)、ニューラルネットワーク又はブースティングなどの公知の教師あり学習アルゴリズムを用いて実行され得る。
図4は、学習部140による学習処理の入力データである教師データについて説明するための説明図である。図4を参照すると、教師データは、楽曲データM01〜MXXのそれぞれについての言語特徴量と属性データとの組である。このうち、言語特徴量(α、β、…)は、歌詞データから算出される図3に例示した単語集合、品詞ヒストグラム、及びその他の特徴量を含む。言語特徴量(α、β、…)は、学習部140による学習処理の結果として得られる演算モデルの入力に対応する。一方、属性データは、予め楽曲データにおいて付与された正解の属性値として、長さ(小節数など)、テンポ(1分当たりの拍数など)、リズム(何分の何拍子か)、メロディ進行(前奏、Aメロ、Bメロ、サビなどの配列パターン)及びコード進行(コードの配列パターン)などについての値を含む。これら属性データは、学習部140による学習処理の結果として得られる演算モデルの出力に対応する。学習部140は、このような複数の楽曲についての言語特徴量と正解の属性データとの組を教師データとして用いて機会学習を実行することにより、歌詞データの言語特徴量から楽曲の属性データを導出するための演算モデルを獲得する。
なお、学習部140により学習される演算モデルは、典型的には、図4に例示した各属性の属性値を導出するための、言語特徴量を入力とする関数(又は演算処理)の集合である。学習部140は、例えば、1つの属性の属性値を導出するための関数についての機械学習を属性の数だけ繰り返すことにより、関数の集合である演算モデルを獲得してもよい。
(モデル記憶部)
モデル記憶部150は、ハードディスク又は半導体メモリなどの記憶媒体を用いて、学習部140による機械学習の結果として獲得される演算モデルを記憶する。かかる演算モデルは、例えば、後述する情報処理装置200による作曲処理にあたって、ユーザにより入力される歌詞の言語特徴量から作曲パラメータを導出するために使用される。
なお、楽曲の歌詞の言語特徴量と作曲に関する属性データとの間の関係(即ち、演算モデル)を機械学習によって獲得する上述した手法の利点の1つは、人間により認識されにくい歌詞の特徴をも作曲のために参酌できることである。例えば、明るい印象を与える曲と暗い印象を与える曲とを分類するモデルを、発明者らが歌詞の言語特徴量に基づいて機械学習によって構築した結果、以下の言語特徴量が分類に有意に寄与する特徴量として得られた(以下に掲げたのは有意な特徴量の一部である)。
a)単語(文字)“!”の数
b)漢字の割合
c)平仮名の割合
d)単語“これから”の数
e)単語“道”の数
f)片仮名の割合
g)単語“心”の数
h)単語“幸せ”の数
i)単語“誰”の数
このうち、a)、d)、e)、g)、h)及びi)は、歌詞データを単語集合とみなした場合の各単語の単語数である。例えば、これらのうち歌詞中の“幸せ”の数によって明るい曲と暗い曲とを分類することは一般に想起しやすい。しかし、歌詞中の“!”の数も上記分類に有意に寄与することは、機械学習によらなければ知ることは難しい。このような機械学習の結果から、例えば、歌詞中の“!”の数に応じて、作曲の際のコード進行の選択(メジャーコードを基調とするかマイナーコードを基調とするか、など)を制御することにより、自動作曲に対するユーザの満足度は向上し得る。一方、上記特徴量のうち、b)、c)及びf)は、日本語に特有の特徴量である。異なる言語で記述される歌詞に基づく作曲をターゲットとする場合には、その言語の歌詞を有する楽曲についての教師データを機械学習の入力とすることで、他の有意な結果を得ることができるであろう。
[1−2.学習処理の流れ]
図5は、本実施形態に係る学習装置100による学習処理の流れの一例を示すフローチャートである。図5を参照すると、まず、データ取得部120は、複数の既知の楽曲についての楽曲データ、即ち歌詞データと属性データとの組を、楽曲データ記憶部110から取得する(ステップS102)。次に、特徴量算出部130は、データ取得部120により取得された楽曲データに含まれる各楽曲の歌詞データについて言語特徴量を算出する(ステップS104)。次に、学習部140は、特徴量算出部130により算出された言語特徴量とデータ取得部120により取得された既知の属性データとの組を教師データとして、機械学習により、言語特徴量から属性データを導出するための演算モデルを学習する(ステップS106)。次に、モデル記憶部150は、学習部140による機会学習の結果として獲得された演算モデルを記憶する(ステップS108)。
[1−3.情報処理装置(作曲装置)の構成例]
図6は、学習装置100により学習された演算モデルを用いた作曲処理を行う、本実施形態に係る情報処理装置200の構成の一例を示すブロック図である。図6を参照すると、情報処理装置200は、ユーザインタフェース210、文字列取得部220、特徴量算出部230、モデル記憶部240、モデル演算部250、及び作曲部260を備える。なお、情報処理装置200は、学習装置100と一体の装置であってもよい。その場合には、モデル記憶部240は、上述したモデル記憶部150と同一の要素であり得る。
(ユーザインタフェース)
ユーザインタフェース210は、情報処理装置200により作曲される楽曲の歌詞を入力するためのインタフェースを、ユーザに提供する。また、ユーザインタフェース210は、情報処理装置200により作曲された楽曲を再生するための音声出力インタフェースを追加的に提供してもよい。従って、ユーザインタフェース210は、例えば、タッチパネル、キーパッド又はキーボードなどの文字入力手段、CRT(Cathode Ray Tube)、液晶ディスプレイ又はOLED(Organic Light Emitting Diode)などの表示手段、並びに音声出力回路及びスピーカなどの音声出力手段を含み得る。
(文字列取得部)
文字列取得部220は、ユーザインタフェース210を介してユーザにより入力される文字列を取得する。かかる文字列は、情報処理装置200が作曲すべき楽曲の歌詞として扱われる。文字列取得部220は、ユーザインタフェース210を介して取得した文字列を、特徴量算出部230へ出力する。
(特徴量算出部)
特徴量算出部230は、文字列取得部220から入力される文字列から、当該文字列についての言語特徴量を算出する。例えば、英語の楽曲のための歌詞として、“I am on the top of the world”という文字列が入力されたものとする。その場合には、特徴量算出部230により算出される言語特徴量のうちの単語集合は、(“I”,“am”,“on”,“the”,“top”,“of”,“world”)=(1,1,1,2,1,1,1)となる。また、品詞ヒストグラムは、例えば、(名詞数,代名詞数,前置詞数,冠詞数,助動詞数,動詞数,形容詞数)=(2,1,2,2,1,0,0)となる。また、その他の言語特徴量として、文字数=21、単語数=8などが算出される。特徴量算出部230は、このように算出した言語特徴量を、モデル演算部250へ出力する。
(モデル記憶部)
モデル記憶部240は、ハードディスク又は半導体メモリなどの記憶媒体を用いて、上述した学習装置100による学習処理の結果として獲得された演算モデルを記憶している。即ち、モデル記憶部240に記憶されている演算モデルは、歌詞データの言語特徴量から楽曲の属性データを導出するための演算モデルである。モデル記憶部240は、情報処理装置200による作曲処理に際して、記憶している演算モデルをモデル演算部250へ出力する。なお、モデル記憶部240は、例えば、歌詞に用いられる言語の種類ごとに異なる複数の演算モデルを記憶していてもよい。
(モデル演算部)
モデル演算部250は、モデル記憶部240により記憶されている演算モデルに従って、特徴量算出部230により算出される言語特徴量から、作曲すべき楽曲の属性データを導出する。より具体的には、モデル演算部250は、特徴量算出部230から入力される単語集合の単語数、品詞ヒストグラム、及びその他の特徴量を含む言語特徴量から、上述した演算モデルに従って、楽曲の長さ、テンポ、リズム、メロディ進行及びコード進行などの属性値を含む属性データを導出する。そして、モデル演算部250は、導出した属性データを、作曲部260へ出力する。
(作曲部)
作曲部260は、モデル演算部250により導出される属性データを作曲パラメータとして用いて、文字列取得部220により取得される文字列を歌詞とする楽曲を生成する。作曲パラメータに基づく作曲部260による楽曲生成処理は、例えば、上記非特許文献1に記載されたシステムにおける処理と同様であってよい。作曲部260は、例えば、作曲パラメータにより指定された長さ、テンポ、リズム、メロディ進行及びコード進行を有する楽曲を生成し、生成した楽曲を表現するMIDI形式又はMP3形式などのデータファイルを出力する。作曲部260は、例えば、生成した楽曲をユーザインタフェース210により再生させてもよい。その代わりに、作曲部260は、例えば、生成した楽曲を記述したデータファイルを記憶媒体に保存してもよい。
[1−4.作曲処理の流れ]
図7は、本実施形態に係る情報処理装置200による作曲処理の流れの一例を示すフローチャートである。図7を参照すると、まず、文字列取得部220は、ユーザから入力される歌詞としての入力文字列を取得する(ステップS202)。次に、特徴量算出部230は、文字列取得部220により取得された入力文字列の言語特徴量を算出する(ステップS204)。次に、モデル演算部250は、モデル記憶部240に記憶されている学習済みの演算モデルに従って、特徴量算出部230により算出された言語特徴量から、作曲パラメータとしての楽曲の属性データを導出する(ステップS206)。次に、作曲部260は、モデル演算部250により導出された属性データを作曲パラメータとして用いて、入力文字列を歌詞とする楽曲を生成する(ステップS208)。
[1−5.第1の実施形態のまとめ]
ここまで、図1〜図7を用いて、本発明の第1の実施形態に係る学習装置100及び情報処理装置200について詳細に説明した。学習装置100によれば、楽曲の歌詞を表す歌詞データから算出される言語特徴量と楽曲の属性を表す属性データとの組を教師データとして、歌詞についての言語特徴量から作曲パラメータを導出するための演算モデルが機械学習により獲得される。それにより、一般に想起しづらい歌詞の有意な特徴に基づいてユーザを満足させ得る効果的な楽曲を自動的に生成することが可能となる。また、情報処理装置200によれば、ユーザにより入力される文字列の言語特徴量から上述した演算モデルに従って導出される作曲パラメータを用いて、当該入力文字列を歌詞とする楽曲が生成される。それにより、ユーザが歌詞以外のパラメータを入力せずとも、歌詞に合った適切な楽曲を自動的に作曲することが可能となる。
また、上記言語特徴量は、歌詞データを単語集合とみなした場合の各単語の数を含んでよい。また、上記作曲パラメータとは、楽曲の長さ(小節数)、テンポ、リズム、メロディ進行及びコード進行などであってよい。これら言語特徴量と作曲パラメータとの間には上に例示した有意な相関が存在し得るため、これら言語特徴量と作曲パラメータとの間の相関に基づく演算モデルを構築することにより、歌詞の言語特徴量から適切な作曲パラメータを導出することが可能となる。
なお、学習装置100及び情報処理装置200は、それぞれ、例えばPC(Personal Computer)、携帯端末、ゲーム端末又は音楽再生装置などの端末装置を用いて実現されてもよい。その代わりに、学習装置100及び情報処理装置200は、それぞれ、端末装置からの要求に応じて処理を行うサーバとして実現されてもよい。
<2.第2の実施形態>
上述した第1の実施形態では、作曲パラメータが、学習される演算モデルに従って、歌詞の言語特徴量から直接的に導出された。これに対し、本節で説明する第2の実施形態では、作曲パラメータは、演算モデルに基づく過程と、人間による作曲のノウハウを反映したヒューリスティクスに基づく過程とに分けて、段階的に導出される。作曲パラメータの導出の過程に人間による作曲のノウハウを反映させることで、より適切な作曲パラメータを用いた楽曲の生成が可能となる。
[2−1.学習処理の説明]
本発明の第2の実施形態に係る学習装置の構成は、第1の実施形態に係る学習装置100の構成と同様であってよい。但し、本実施形態において、機械学習の教師データとして用いられる楽曲の属性データは、第1の実施形態と異なり、人間にも理解可能なように抽象化された、楽曲に関する1つ以上の名義属性についてのデータを含む。このような抽象化された名義属性は、本実施形態において、作曲パラメータそのものではなく、作曲パラメータの値を決定するため使用される。そのため、かかる名義属性を、本明細書では「中間属性」という。
図8は、第2の実施形態に係る学習処理における教師データについて説明するための説明図である。図8を参照すると、教師データは、楽曲データM01〜MXXのそれぞれについての言語特徴量と属性データとの組である。このうち、言語特徴量(α、β、…)は、歌詞データから算出される図3に例示した単語集合、品詞ヒストグラム、及びその他の特徴量を含む。言語特徴量(α、β、…)は、演算モデルの入力に対応する。一方、属性データは、予め楽曲データにおいて付与される属性値を含む。但し、図4に例示した属性データとは異なり、本実施形態では、教師データのうちの楽曲の属性データは、中間属性についての属性値を含む。図8の例において、中間属性は、明るさ(“明るい”又は“暗い”)、テーマ(“恋愛”、“青春”など)及び軽快さ(“素軽い”、“ゆったり”など)である。さらに、教師データは、楽曲の属性データとして作曲パラメータの一部を含んでもよい。図8の例において、教師データは、作曲パラメータの一部であるジャンル(“バラード”、“ロック”など)を含む。これら属性データは、演算モデルの出力に対応する。第2の実施形態では、このような言語特徴量と(正解の)属性データとの組を教師データとする機会学習により、歌詞データの言語特徴量から、少なくとも中間属性について(及び任意に作曲パラメータの一部について)の属性データを導出するための演算モデルが獲得される。
[2−2.情報処理装置(作曲装置)の構成例]
図9は、上述した演算モデルを用いた作曲処理を行う、本実施形態に係る情報処理装置400の構成の一例を示すブロック図である。図9を参照すると、情報処理装置400は、ユーザインタフェース210、文字列取得部220、特徴量算出部230、記憶部440、モデル演算部450、及び作曲部460を備える。
(記憶部)
記憶部440は、ハードディスク又は半導体メモリなどの記憶媒体を用いて、上述した学習処理の結果として獲得された演算モデル352を記憶している。演算モデル352は、歌詞データの言語特徴量から楽曲の少なくとも中間属性についての属性データを導出するための演算モデルである。記憶部440は、情報処理装置400による作曲処理に際して、演算モデル352をモデル演算部450へ出力する。
さらに、記憶部440は、演算モデル352に従ってモデル演算部450により導出される中間属性についての属性データ(以下、中間属性データという)と作曲パラメータとして使用される属性データとの間の関係を記述する関係記述データ354を記憶している。関係記述データ354は、人間による作曲のノウハウを反映させたヒューリスティクスを表現するデータである。関係記述データ354は、予めユーザにより作成され、記憶部440に格納される。関係記述データ354は、例えば、中間属性データと作曲パラメータとを対応付ける単純なマッピングテーブルを用いて定義されてもよい。その代わりに、関係記述データ354は、例えば、ベイジアンネットワークを用いて定義されてもよい。
図10は、関係記述データ354の概要を説明するための説明図である。図10において、関係記述データ354により記述される属性間の関係が、破線矢印で示されている。このうち、関係R11は、中間属性「明るさ」と作曲パラメータ「コード進行」との間に相関があることを示している。例えば、歌詞の言語特徴量から「明るさ」=「明るい」という属性値が導かれた楽曲について、作曲のノウハウに基づき、そのコード進行のパターンとしてメジャーコードを基調とするコード進行が選択され得る。また、関係R12は、中間属性「軽快さ」と作曲パラメータ「テンポ」との間に相関があることを示している。例えば、歌詞の言語特徴量から「軽快さ」=「素軽い」という属性値が導かれた楽曲について、作曲のノウハウに基づき、より速いテンポが選択され得る。このように、関係記述データ354は、演算モデル352に従って導出される中間属性データと作曲パラメータとの間の関係を記述する
さらに、関係記述データ354は、作曲パラメータ間の関係をも記述してよい。例えば図10において、関係R21は、作曲パラメータ「ジャンル」と作曲パラメータ「メロディ進行」との間に相関があることを示している。また、関係R22は、作曲パラメータ「メロディ進行」と作曲パラメータ「コード進行」との間に相関があることを示している。
関係記述データ354は、このような中間属性データと作曲パラメータとの間の関係、及び作曲パラメータ間の関係を、一方の属性値が与えられた場合に他方の属性値が決定され得るように記述する。その具体的な手法の一例として、図11は、ベイジアンネットワークを用いて定義される関係記述データ354の具体的な例を示している。
図11では、図10に例示した属性間の関係のうちの関係R11を定義する、ベイジアンネットワークによる因果構造(DAG:Directed Acyclic Graph)及び条件付き確率表(CPT:Conditional Probability Table)の例を示している。図11のDAG(上段)は、中間属性「明るさ」と作曲パラメータ「コード進行」との間に相関があることを表している。CPT(下段)は、作曲パラメータ「コード進行」の各属性値の単純確率と、中間属性「明るさ」及び作曲パラメータ「コード進行」を確率変数(前者:原因、後者:結果)とみなした場合の条件付き確率と、を表している。例えば、コード進行「パターン1」が選択される単純確率は0.2である。また、歌詞の内容が「明るい」場合に、コード進行「パターン1」が選択される条件付き確率は、0.3である。歌詞の内容が「暗い」場合に、コード進行「パターン1」が選択される条件付き確率は、0.1である。
このような関係記述データ354を作曲のノウハウに基づいて予め定義しておくことにより、情報処理装置400は、学習の結果として獲得される演算モデルに従って導出される中間属性データから、より適切な作曲パラメータを決定することができる。
(モデル演算部)
モデル演算部450は、モデル記憶部440により記憶されている演算モデル352に従って、特徴量算出部230により算出される言語特徴量から、図8に例示した作曲すべき楽曲の属性データを導出する。より具体的には、モデル演算部450は、特徴量算出部230から入力される単語集合の単語数、品詞ヒストグラム、及びその他の特徴量を含む言語特徴量から、上述した演算モデルに従って、作曲パラメータの一部及び中間属性データを導出する。そして、モデル演算部250は、導出した属性データを、作曲部460へ出力する。
(作曲部)
作曲部460は、モデル記憶部440により記憶されている関係記述データ354に従って、モデル演算部450により導出される中間属性データから作曲パラメータを決定する。そして、作曲部460は、文字列取得部220により取得される文字列を歌詞とする楽曲を、作曲パラメータを用いて生成する。
図12は、作曲部460の詳細な構成の一例を示すブロック図である。図12を参照すると、作曲部460は、パラメータ決定部462及び楽曲生成部464を有する。パラメータ決定部462は、モデル記憶部440により記憶されている関係記述データ354に従って、中間属性データから作曲パラメータを決定する。例えば、パラメータ決定部462は、ベイジアンネットワークにおいて中間属性データの値を与えた場合に最も生起確率が高くなるパラメータ値を、作曲パラメータの値として決定する。さらに、関係記述データ354が作曲パラメータ間の関係をも記述している場合には、パラメータ決定部462は、1つ又は複数の作曲パラメータの値に応じて他の作曲パラメータの値を決定してもよい。楽曲生成部464は、モデル演算部450により導出される作曲パラメータ及びパラメータ決定部462により決定される作曲パラメータを用いて、文字列取得部220により取得される文字列を歌詞とする楽曲を生成する。楽曲生成部464による楽曲生成処理は、例えば、上記非特許文献1に記載されたシステムにおける処理と同様であってよい。楽曲生成部464は、例えば、作曲パラメータにより指定されたジャンル、長さ、テンポ、リズム、メロディ進行及びコード進行を有する楽曲を生成する。そして、楽曲生成部464は、生成した楽曲を表現するMIDI形式又はMP3形式などのデータファイルを出力する。
作曲部460は、例えば、楽曲生成部464により生成された楽曲をユーザインタフェース210により再生させてもよい。その代わりに、作曲部460は、例えば、楽曲生成部464により生成された楽曲を表現するデータファイルを記憶媒体に保存してもよい。
[2−3.作曲処理の流れ]
図13は、本実施形態に係る情報処理装置400による作曲処理の流れの一例を示すフローチャートである。図13を参照すると、まず、文字列取得部220は、ユーザから入力される歌詞としての入力文字列を取得する(ステップS402)。次に、特徴量算出部230は、文字列取得部220により取得された入力文字列の言語特徴量を算出する(ステップS404)。次に、モデル演算部450は、モデル記憶部440に記憶されている学習済みの演算モデルに従って、特徴量算出部230により算出された言語特徴量から、中間属性データを導出する(ステップS406)。次に、作曲部460のパラメータ決定部462は、モデル記憶部440により記憶されている関係記述データ354に従って、中間属性データから作曲パラメータを決定する(ステップS408)。次に、作曲部460の楽曲生成部464は、作曲パラメータを用いて、入力文字列を歌詞とする楽曲を生成する(ステップS410)。
[2−4.第2の実施形態のまとめ]
ここまで、図8〜図13を用いて、本発明の第2の実施形態について詳細に説明した。本実施形態に係る学習処理によれば、楽曲の歌詞を表す歌詞データから算出される言語特徴量と作曲パラメータの決定の基礎となる中間属性データとの組を教師データとして、歌詞についての言語特徴量から中間属性データを導出するための演算モデルが機械学習により獲得される。それにより、作曲のノウハウを反映させたヒューリスティクスを演算モデルに従って導出される中間属性に適用して作曲パラメータを決定することが容易となる。また、情報処理装置400によれば、作曲パラメータの導出が、機械学習の結果としての演算モデルに基づく過程と、人間による作曲のノウハウを反映させたヒューリスティクスに基づく過程とに分けて、段階的に行われる。それにより、歌詞に合った適切な楽曲が、作曲のノウハウをも反映した形で自動的に作曲される。
なお、当然ながら、情報処理装置400もまた、端末装置を用いて実現されてもよく、その代わりに端末装置からの要求に応じて処理を行うサーバとして実現されてもよい。
なお、本明細書において説明した学習装置100、情報処理装置200及び400による一連の処理は、典型的には、ソフトウェアを用いて実現される。一連の処理を実現するソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPU(Central Processing Unit)などのプロセッサにより実行される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 学習装置
120 データ取得部
130 特徴量算出部
140 学習部
152 演算モデル
200,400 情報処理装置
220 文字列取得部
230 特徴量算出部
240,440 記憶部
250,450 モデル演算部
352 演算モデル
354 関係記述データ
260,460 作曲部
462 パラメータ決定部
464 楽曲生成部

Claims (14)

  1. 複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶部と;
    ユーザにより入力される文字列を取得する文字列取得部と;
    前記文字列取得部により取得される文字列から言語特徴量を算出する特徴量算出部と;
    前記記憶部により記憶されている前記演算モデルに従って、前記特徴量算出部により算出される言語特徴量から、作曲すべき楽曲の属性データを導出するモデル演算部と;
    前記モデル演算部により導出される属性データを用いて、前記文字列取得部により取得される文字列を歌詞とする楽曲を生成する作曲部と;
    を備える情報処理装置。
  2. 前記記憶部は、前記モデル演算部により導出される第1の属性データと作曲パラメータとして使用される第2の属性データとの間の関係を記述する関係記述データをさらに記憶し、
    前記作曲部は、
    前記記憶部により記憶されている前記関係記述データに従って、前記第1の属性データから前記第2の属性データを決定するパラメータ決定部と、
    前記パラメータ決定部により決定される前記第2の属性データを用いて、前記文字列取得部により取得される文字列を歌詞とする楽曲を生成する楽曲生成部と、
    を有する、
    請求項1に記載の情報処理装置。
  3. 前記関係記述データは、2種類以上の前記第2の属性データの間の関係をも記述するデータである、請求項2に記載の情報処理装置。
  4. 前記第1の属性データは、楽曲に関する1つ以上の名義属性についてのデータを含み、
    前記第2の属性データは、前記1つ以上の名義属性と関係する作曲パラメータについてのデータを含む、
    請求項2又は請求項3に記載の情報処理装置。
  5. 前記言語特徴量は、前記歌詞データを単語集合とみなした場合の各単語の数を含む、請求項1に記載の情報処理装置。
  6. 前記作曲部は、楽曲の小節数、テンポ、リズム、メロディ進行及びコード進行のうち少なくとも1つを含む前記属性データを用いて、前記文字列取得部により取得される文字列を歌詞とする楽曲を生成する、請求項1に記載の情報処理装置。
  7. 複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶媒体を備える情報処理装置を用いて:
    ユーザにより入力される文字列を取得する取得ステップと;
    取得された文字列から言語特徴量を算出する算出ステップと;
    前記記憶媒体により記憶されている前記演算モデルに従って、前記算出ステップにおいて算出された言語特徴量から、作曲すべき楽曲の属性データを導出する導出ステップと;
    導出された属性データを用いて、前記取得ステップにおいて取得された文字列を歌詞とする楽曲を生成する作曲ステップと;
    を含む、自動作曲方法。
  8. 複数の楽曲について各楽曲の歌詞を表す歌詞データから算出される言語特徴量と当該楽曲の属性を表す属性データとを教師データとすることにより学習された演算モデルであって、歌詞データの言語特徴量から楽曲の属性データを導出するための当該演算モデルを記憶している記憶媒体を備える情報処理装置を制御するコンピュータを:
    ユーザにより入力される文字列を取得する文字列取得部と;
    前記文字列取得部により取得される文字列から言語特徴量を算出する特徴量算出部と;
    前記記憶媒体により記憶されている前記演算モデルに従って、前記特徴量算出部により算出される言語特徴量から、作曲すべき楽曲の属性データを導出するモデル演算部と;
    前記モデル演算部により導出される属性データを用いて、前記文字列取得部により取得される文字列を歌詞とする楽曲を生成する作曲部と;
    として機能させるための、プログラム。
  9. 楽曲の歌詞を表す歌詞データ及び当該楽曲の属性を表す属性データを取得するデータ取得部と;
    前記データ取得部により取得される前記歌詞データから言語特徴量を算出する特徴量算出部と;
    複数の楽曲について、各楽曲の前記属性データと前記言語特徴量との組を教師データとし、前記言語特徴量から前記属性データを導出するための演算モデルを学習する学習部と;
    を備え、
    前記属性データにより表される楽曲の属性は、楽曲の生成のために使用される作曲パラメータに関連する属性である、
    学習装置。
  10. 前記属性データにより表される楽曲の属性は、前記作曲パラメータの決定の基礎となる1つ以上の名義属性を含む、請求項9に記載の情報処理装置。
  11. 前記言語特徴量は、前記歌詞データを単語集合とみなした場合の各単語の数を含む、請求項9又は請求項10に記載の情報処理装置。
  12. 前記属性データは、楽曲の小節数、テンポ、リズム、メロディ進行及びコード進行のうち少なくとも1つを含む、請求項9に記載の情報処理装置。
  13. 情報処理装置による演算モデルの学習方法であって:
    楽曲の歌詞を表す歌詞データ及び当該楽曲の属性を表す属性データを取得する取得ステップと;
    取得された前記歌詞データから言語特徴量を算出する算出ステップと;
    複数の楽曲について、各楽曲の前記属性データと前記言語特徴量との組を教師データとし、前記言語特徴量から前記属性データを導出するための演算モデルを学習するステップと;
    を含み、
    前記属性データにより表される楽曲の属性は、楽曲の生成のために使用される作曲パラメータに関連する属性である、
    学習方法。
  14. 学習装置を制御するコンピュータを:
    楽曲の歌詞を表す歌詞データ及び当該楽曲の属性を表す属性データを取得するデータ取得部と;
    前記データ取得部により取得される前記歌詞データから言語特徴量を算出する特徴量算出部と;
    複数の楽曲について、各楽曲の前記属性データと前記言語特徴量との組を教師データとし、前記言語特徴量から前記属性データを導出するための演算モデルを学習する学習部と;
    として機能させるためのプログラムであって、
    前記属性データにより表される楽曲の属性は、楽曲の生成のために使用される作曲パラメータに関連する属性である、
    プログラム。
JP2010037468A 2010-02-23 2010-02-23 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム Withdrawn JP2011175006A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010037468A JP2011175006A (ja) 2010-02-23 2010-02-23 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010037468A JP2011175006A (ja) 2010-02-23 2010-02-23 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2011175006A true JP2011175006A (ja) 2011-09-08

Family

ID=44687937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010037468A Withdrawn JP2011175006A (ja) 2010-02-23 2010-02-23 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2011175006A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152337A (ja) * 2012-01-25 2013-08-08 Yamaha Corp 音符列設定装置
JP2015079130A (ja) * 2013-10-17 2015-04-23 ヤマハ株式会社 楽音情報生成装置および楽音情報生成方法
CN109448684A (zh) * 2018-11-12 2019-03-08 量子云未来(北京)信息科技有限公司 一种智能编曲方法和系统
WO2020080239A1 (ja) 2018-10-19 2020-04-23 ソニー株式会社 情報処理方法、情報処理装置及び情報処理プログラム
WO2020080268A1 (ja) 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2021106694A1 (ja) * 2019-11-26 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2021145213A1 (ja) 2020-01-14 2021-07-22 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN113268952A (zh) * 2021-04-26 2021-08-17 网易(杭州)网络有限公司 文本生成方法、装置和电子设备
KR102492074B1 (ko) * 2022-03-02 2023-01-26 손다영 인공지능을 이용한 음악 작곡 방법
WO2024075422A1 (ja) * 2022-10-06 2024-04-11 ヤマハ株式会社 楽曲生成方法、およびプログラム
JP7552443B2 (ja) 2021-03-04 2024-09-18 コニカミノルタ株式会社 情報処理方法、プログラム、および情報処理装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152337A (ja) * 2012-01-25 2013-08-08 Yamaha Corp 音符列設定装置
JP2015079130A (ja) * 2013-10-17 2015-04-23 ヤマハ株式会社 楽音情報生成装置および楽音情報生成方法
DE112019005226T5 (de) 2018-10-19 2021-07-08 Sony Corporation Datenverarabeitungsverfahren, Datenverarbeitungsvorrichtung und Datenverarbeitungsprogramm
WO2020080239A1 (ja) 2018-10-19 2020-04-23 ソニー株式会社 情報処理方法、情報処理装置及び情報処理プログラム
WO2020080268A1 (ja) 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US11869467B2 (en) 2018-10-19 2024-01-09 Sony Corporation Information processing method, information processing apparatus, and information processing program
US11880748B2 (en) 2018-10-19 2024-01-23 Sony Corporation Information processing apparatus, information processing method, and information processing program
CN109448684A (zh) * 2018-11-12 2019-03-08 量子云未来(北京)信息科技有限公司 一种智能编曲方法和系统
CN109448684B (zh) * 2018-11-12 2023-11-17 合肥科拉斯特网络科技有限公司 一种智能编曲方法和系统
WO2021106694A1 (ja) * 2019-11-26 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN114730551A (zh) * 2019-11-26 2022-07-08 索尼集团公司 信息处理设备、信息处理方法和信息处理程序
WO2021145213A1 (ja) 2020-01-14 2021-07-22 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
EP4092666A1 (en) 2020-01-14 2022-11-23 Sony Group Corporation Information processing device, information processing method, and program
JP7552443B2 (ja) 2021-03-04 2024-09-18 コニカミノルタ株式会社 情報処理方法、プログラム、および情報処理装置
CN113268952A (zh) * 2021-04-26 2021-08-17 网易(杭州)网络有限公司 文本生成方法、装置和电子设备
CN113268952B (zh) * 2021-04-26 2024-03-01 网易(杭州)网络有限公司 文本生成方法、装置和电子设备
WO2023167496A1 (ko) * 2022-03-02 2023-09-07 손다영 인공지능을 이용한 음악 작곡 방법
KR102492074B1 (ko) * 2022-03-02 2023-01-26 손다영 인공지능을 이용한 음악 작곡 방법
WO2024075422A1 (ja) * 2022-10-06 2024-04-11 ヤマハ株式会社 楽曲生成方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP2011175006A (ja) 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム
US10657934B1 (en) Enhancements for musical composition applications
Herremans et al. Generating structured music for bagana using quality metrics based on Markov models
Collins et al. Developing and evaluating computational models of musical style
US7696426B2 (en) Recombinant music composition algorithm and method of using the same
CN109346045A (zh) 基于长短时神经网络的多声部音乐生成方法及装置
Granroth-Wilding et al. Harmonic analysis of music using combinatory categorial grammar
Canazza et al. Caro 2.0: an interactive system for expressive music rendering
Pudaruth et al. Automated generation of song lyrics using CFGs
Katz Harmonic syntax of the twelve-bar blues form: A corpus study
García Salas et al. Automatic music composition with simple probabilistic generative grammars
Manaris et al. Harmonic navigator: a gesture-driven, corpus-based approach to music analysis, composition, and performance
JP3996125B2 (ja) 文章生成装置及び生成方法
Whorley The construction and evaluation of statistical models of melody and harmony
KR100817744B1 (ko) 창의적 컨텐츠 생성 방법 및 시스템
JP2004077645A (ja) 歌詞生成装置および歌詞生成機能を実現させるためのプログラム
Madhumani et al. Automatic neural lyrics and melody composition
JP3801005B2 (ja) 作詞作曲装置及び作詞作曲プログラム
Kitahara et al. JamSketch: a drawing-based real-time evolutionary improvisation support system
Hastuti et al. Gamelan composer: a rule-based interactive melody generator for Gamelan music
Paiement et al. Predictive models for music
Anton et al. Byzantine Music Composition Using Markov Models.
Choi et al. Teaching Chorale Generation Model to Avoid Parallel Motions
Eibensteiner et al. Temporal-scope grammars for polyphonic music generation
Herremans et al. Generating structured music using quality metrics based on Markov models

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130507