JP6596843B2 - 楽曲生成装置および楽曲生成方法 - Google Patents

楽曲生成装置および楽曲生成方法 Download PDF

Info

Publication number
JP6596843B2
JP6596843B2 JP2015040565A JP2015040565A JP6596843B2 JP 6596843 B2 JP6596843 B2 JP 6596843B2 JP 2015040565 A JP2015040565 A JP 2015040565A JP 2015040565 A JP2015040565 A JP 2015040565A JP 6596843 B2 JP6596843 B2 JP 6596843B2
Authority
JP
Japan
Prior art keywords
music
user
data
singing
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015040565A
Other languages
English (en)
Other versions
JP2016161774A (ja
Inventor
智量 中山
健 松澤
治 大島
秀紀 劔持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015040565A priority Critical patent/JP6596843B2/ja
Publication of JP2016161774A publication Critical patent/JP2016161774A/ja
Application granted granted Critical
Publication of JP6596843B2 publication Critical patent/JP6596843B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、楽曲を生成する技術に関する。
楽曲を自動的に生成する技術(自動作曲技術)が従来から提案されている。例えば特許文献1には、複数の候補から選択された音高の時系列を、複数の候補から選択された発音区間の時系列に付与(譜割)することで楽曲の旋律を生成する技術が開示されている。
特開2013−45082号公報
特許文献1の技術によれば、音楽的に自然で多様な旋律の1個の楽曲を生成することが可能であるが、当該楽曲が利用者の意図や嗜好に合致しない可能性もある。以上の事情を考慮して、本発明は、利用者の意図や嗜好に合致した楽曲の提供の可能性を増加させることを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る楽曲生成装置は、利用者からの指示に応じて相異なる複数の楽曲の楽曲データを生成する楽曲生成手段と、楽曲生成手段が楽曲データを生成した複数の楽曲を利用者に提示する楽曲提示手段とを具備する。以上の態様では、利用者からの指示に応じて生成された複数の楽曲の楽曲データが生成され、楽曲データの再生候補として複数の楽曲が利用者に提示される。したがって、1個の楽曲を生成する構成と比較して、利用者の意図や嗜好に合致した楽曲の提供を利用者に提供できる可能性を増加させることが可能である。
本発明の好適な態様において、楽曲生成手段は、利用者が指定した共通の歌詞で楽曲を歌唱する歌唱音声の歌唱データを複数の楽曲の各々について生成する音声合成手段を含み、歌唱音声を含む楽曲の楽曲データを生成する。以上の態様では、利用者が指定した共通の歌詞で相異なる複数の楽曲を利用者に提示できるという利点がある。また、利用者が指定した声質の歌唱音声の歌唱データを音声合成手段が生成する構成によれば、利用者の意図や嗜好に合致した声質の歌唱音声の楽曲を提供できるという利点がある。他方、利用者が声質を指定しない場合に、歌唱音声の歌唱データの生成履歴に応じて選択された声質の歌唱音声の歌唱データを音声合成手段が生成する構成によれば、利用者による声質の選択が必須である場合と比較して、利用者が声質を選択する負荷を軽減しながら、歌唱データの生成履歴に応じた適切な声質を選択できるという利点がある。
本発明の好適な態様において、楽曲生成手段は、利用者が指定したジャンルの伴奏音の伴奏データを複数の楽曲の各々について生成する伴奏生成手段を含み、伴奏音を含む楽曲の楽曲データを生成する。以上の態様では、利用者が指定したジャンルの伴奏音を含む複数の楽曲が生成されるから、利用者の意図や嗜好に合致した伴奏音の楽曲を提供することが可能である。他方、利用者がジャンルを指定しない場合に、伴奏データの生成履歴に応じて選択されたジャンルの伴奏音の伴奏データを伴奏生成手段が生成する構成によれば、利用者によるジャンルの選択が必須である場合と比較して、利用者がジャンルを選択する負荷を軽減しながら、伴奏データの生成履歴に応じた適切なジャンルを選択できるという利点がある。
本発明の好適な態様において、楽曲提示手段は、複数の楽曲の提示の順番を変更可能である。以上の態様では、複数の楽曲の提示の順番が変更されるから、複数の楽曲を多様な観点で優先的に利用者に提示できるという利点がある。例えば、楽曲提示手段は、楽曲生成手段による楽曲データの生成履歴、利用者に関する位置情報、および、複数の楽曲を提示する時刻、の少なくともひとつに応じた順番で複数の楽曲を提示する。また、前述の音声合成手段を具備する構成では、楽曲提示手段は、利用者による歌詞の指定速度に応じた順番で複数の楽曲を当該利用者に提示する。
本発明の好適な態様において、楽曲生成手段は、時間軸上の複数の単位区間の各々について、相異なる複数の楽曲の楽曲データを生成し、楽曲提示手段は、複数の単位区間の各々について、楽曲生成手段が楽曲データを生成した複数の楽曲を利用者に提示する。以上の態様では、単位区間毎に複数の楽曲データが生成されるから、各単位区間について選択された楽曲を複数の単位区間にわたり時系列に配列した1個の楽曲を構成することが可能である。
以上の各態様に係る楽曲生成装置は、専用の電子回路で実現されるほか、CPU(Central Processing Unit)等の汎用の演算処理装置とプログラムとの協働によっても実現される。本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、例えば、本発明のプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。
本発明の第1実施形態に係る楽曲生成システムの構成図である。 端末装置の構成図である。 楽曲提示画面の模式図である。 管理装置および処理装置の構成図である。 楽曲生成部の構成図である。 楽曲生成システムの全体的な動作の説明図である。 第3実施形態における楽曲提示画面の模式図である。 第3実施形態の変形例における楽曲提示画面の模式図である。
<第1実施形態>
図1は、第1実施形態に係る楽曲生成システム10の構成図である。第1実施形態の楽曲生成システム10は、本発明の楽曲生成装置の例示であり、端末装置12の利用者Uからの指示に応じて相異なる複数(N個)の楽曲の楽曲データDを生成する。各楽曲データDは、楽曲の歌唱パート(典型的には主旋律)を特定の歌唱者が歌唱した歌唱音声と、当該楽曲の伴奏パートを例えば楽器で演奏した伴奏音との混合音の時間波形を表す音楽ファイルである。端末装置12は、例えば携帯電話機またはスマートフォン等の可搬型の通信端末またはパーソナルコンピュータ等の可搬型あるいは据置型の通信端末である。なお、楽曲生成システム10は実際には複数の端末装置12と通信するが、図1では任意の1個の端末装置12のみが便宜的に図示されている。
図1に例示される通り、第1実施形態の楽曲生成システム10は、管理装置30と処理装置40とを具備するコンピュータシステムで実現される。管理装置30および処理装置40の各々は、例えば移動通信網やインターネット等を含む通信網14に接続されたサーバ(典型的にはウェブサーバ)である。管理装置30は通信網14を介して端末装置12と通信し、処理装置40は通信網14を介して管理装置30と通信する。なお、図1では、管理装置30と処理装置40とを便宜的に別体として図示したが、管理装置30と処理装置40とを単体の装置として構成することも可能である。
図2は、端末装置12の構成図である。図2に例示される通り、第1実施形態の端末装置12は、制御装置20と記憶装置21と通信装置22と操作装置23と表示装置24と放音装置25とを具備する。制御装置20は、端末装置12の動作を統括的に制御する。通信装置22は、管理装置30との間で通信網14を介した通信を実行する。操作装置23は、利用者Uからの指示を受付ける入力機器であり、例えば利用者Uによる操作を検知する複数の操作子や操作面に対する利用者Uの接触を検知するタッチパネルで構成される。
表示装置24は、制御装置20から指示された画像を表示する。具体的には、楽曲生成システム10が楽曲データDを生成したN個の楽曲を利用者Uに提示する図3の画面(以下「楽曲提示画面」という)が表示装置24に表示される。利用者Uは、操作装置23を適宜に操作することで、楽曲提示画面に提示されたN個の楽曲のうち所望の楽曲を選択することが可能である。図2の放音装置25(例えばスピーカやヘッドホン)は、制御装置20から指示された音響を放射する。具体的には、楽曲提示画面に提示されたN個の楽曲のうち利用者Uが操作装置23に対する操作で選択した楽曲(以下「選択曲」という)の楽曲データDが示す音響が放音装置25から放射される。
利用者Uは、操作装置23を適宜に操作することで、楽曲生成システム10が生成すべき楽曲の条件を指定する。具体的には、利用者Uは、楽曲の歌詞Lと複数の楽曲属性とを指定することが可能である。歌詞Lは、楽曲の歌唱パートの発音内容を表現する文字列であり、利用者Uにより任意に指定される。楽曲属性は、楽曲の特徴および特色を意味する。第1実施形態では、楽曲の歌唱音声の声質と楽曲のジャンルおよび曲調とを楽曲属性として例示する。声質は、楽曲の歌詞Lを歌唱する歌唱音声の音響特性である。ジャンルは、楽曲(特に伴奏音)の音楽的な分類を意味し、例えば「ロック」「バラード」「ダンス」「ジャズ」等の複数の候補から選択される。曲調は、楽曲から感知される情調や情感(楽曲の雰囲気)を意味し、「明るい」「悲しい」「優しい」等の複数の候補から選択される。
端末装置12の制御装置20は、操作装置23に対する利用者Uからの指示に応じた指示情報Xを生成して通信装置22から楽曲生成システム10の管理装置30に送信する。指示情報Xは、楽曲生成システム10が生成すべき楽曲の条件を指示する情報であり、利用者Uが指定した歌詞Lと楽曲属性を指定する1個以上の属性情報x(xA,xB,xC)とを包含する。属性情報xAは利用者Uが指定した声質を指示し、属性情報xBは利用者Uが指定したジャンルを指示し、属性情報xCは利用者Uが指定した曲調を指示する。なお、利用者Uは、複数種の楽曲属性(声質,ジャンル,曲調)の各々の指定を省略することも可能である。すなわち、複数の楽曲属性のうちの1種類のみを指定することや、複数の楽曲属性の全部の指定を省略することが可能である。
図1の楽曲生成システム10は、端末装置12から送信される指示情報X(すなわち、利用者Uからの指示)に応じて相異なるN個の楽曲の楽曲データDを生成する。すなわち、1個の指示情報XからN個の楽曲データDが生成される。具体的には、楽曲生成システム10の処理装置40は、指示情報Xに応じた複数の変数を適用した自動作曲処理でN個の楽曲の楽曲データDを生成し、管理装置30は、処理装置40による自動作曲処理と端末装置12に対するN個の楽曲の提示とを管理する。
図4は、管理装置30および処理装置40の構成図である。なお、図4では通信網14の図示は便宜的に省略されている。図4に例示される通り、第1実施形態の管理装置30は、制御装置32と記憶装置34と通信装置36とを具備する。通信装置36は、通信網14を介して端末装置12および処理装置40の各々と通信する。なお、管理装置30と処理装置40とが通信網14を介さずに直接的に通信する構成も採用され得る。記憶装置34は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置32が実行するプログラムや制御装置32が使用する各種のデータを記憶する。制御装置32は、管理装置30の動作を統括的に制御する。第1実施形態の制御装置32は、記憶装置34に記憶されたプログラムを実行することで情報管理部62および楽曲提示部64として機能する。
情報管理部62は、通信装置36が端末装置12から受信した指示情報Xに応じた制御情報Zを、相異なるN個の楽曲の各々について生成する。すなわち、端末装置12から送信された共通の指示情報Xから相異なるN個の制御情報Zが生成される。各制御情報Zは、処理装置40による自動作曲処理に適用される変数を指示する制御ファイルであり、例えばXML(Extensible Markup Language)形式で記述される。第1実施形態の制御情報Zは、指示情報Xで指定された歌詞Lと複数の楽曲属性の各々の属性情報z(zA,zB,zC)とを包含する。
制御情報Zの歌詞Lは、端末装置12の利用者Uが指定した文字列であり、N個の制御情報Zにわたり共通する。他方、属性情報zAは歌唱音声の声質を指示し、属性情報zBは楽曲のジャンルを指示し、属性情報zCは楽曲の曲調を指示する。各属性情報zの数値はN個の制御情報Zの各々で個別に設定されて相違し得る。制御情報Zの各属性情報zの生成方法は、端末装置12の利用者Uが指定した楽曲属性の種類に応じて相違する。利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合(指定例1)と、複数の楽曲属性の何れかを歌詞Lとともに利用者Uが指定した場合(指定例2〜指定例4)とについて属性情報zの生成の具体例を以下に詳述する。
[指定例1]利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合
管理装置30の記憶装置34は、歌唱音声の生成に利用可能な複数の声質の各々について、当該声質の歌唱音声の楽曲が過去に生成された履歴(以下「生成履歴」という)HAを記憶する。具体的には、任意の1種類の声質の生成履歴HAは、例えば当該声質の歌唱音声(後述の歌唱データDA)が過去の所定期間(例えば直近の所定長の期間)内に生成された回数である。例えば、利用者Uの端末装置12から過去に送信された指示情報Xで当該声質が指定された回数(すなわち利用者U自身が嗜好する声質の傾向)や、任意の複数の端末装置12から過去に送信された指示情報Xで当該声質が指定された回数(すなわち多数の利用者が嗜好する声質の傾向)が生成履歴HAとして記憶される。利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合、情報管理部62は、複数の声質のうち生成履歴HAが示す回数が最多である声質を選択し、当該声質を指示する属性情報zAを生成する。すなわち、利用者U自身または多数の利用者が過去に多用した声質が属性情報zAで指示される。
また、記憶装置34は、自動作曲処理で生成可能な楽曲の複数のジャンルの各々について、当該ジャンルの楽曲が過去に生成された履歴(以下「生成履歴」という)HBを記憶する。具体的には、任意の1種類のジャンルの生成履歴HBは、例えば当該ジャンルの楽曲(後述の伴奏データDB)が過去の所定期間内に生成された回数である。例えば、利用者Uの端末装置12から過去に送信された指示情報Xで当該ジャンルが指定された回数(すなわち利用者U自身が嗜好するジャンルの傾向)や、任意の複数の端末装置12から過去に送信された指示情報Xで当該ジャンルが指定された回数(すなわち多数の利用者が嗜好するジャンルの傾向)が生成履歴HBとして記憶される。利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合、情報管理部62は、複数のジャンルのうち生成履歴HBが示す回数の降順で所定数のジャンル(過去に多用されたジャンル)を選択し、所定数のジャンルからランダムに選択した1個のジャンル(以下「選択ジャンル」という)を指示する属性情報zBを生成する。また、情報管理部62は、選択ジャンルに相応しい複数の曲調の何れかをランダムに選択し、当該曲調を指示する属性情報zCを生成する。例えば、選択ジャンルが「ロック」である場合には「明るい」「激しい」等の複数の候補からランダムに選択された曲調が属性情報zCで指示され、選択ジャンルが「バラード」である場合には「優しい」「悲しい」等の複数の候補からランダムに選択された曲調が属性情報zCで指示される。以上の例示の通り、指定例1では、利用者Uによる楽曲属性の指定が不要であるから、利用者Uが所望の楽曲属性を思案する負担を軽減して簡便に楽曲を生成できるという利点がある。
[指定例2]利用者Uが歌詞Lおよび声質(属性情報xA)のみを指定した場合
利用者Uが楽曲のジャンルおよび曲調を指定せずに歌詞Lおよび声質のみを指定した場合、情報管理部62は、指示情報Xの属性情報xAで指定された声質を制御情報Zの属性情報zAでも同様に指示する。すなわち、利用者Uが指定した声質が属性情報zAで指示される。なお、利用者Uが指定した声質について複数の候補がある場合、情報管理部62は、複数の候補の何れかを、前述の例示と同様に生成履歴HA(利用者U自身または多数の利用者による声質の選択傾向)に応じて選択する。また、情報管理部62は、指定例1と同様の方法で楽曲のジャンルおよび曲調を選択して属性情報zBおよび属性情報zCを設定する。
以上に例示した指定例2では、利用者Uが指定した声質が属性情報zAで指示されるとともに声質以外の楽曲属性の属性情報z(zB,zC)は情報管理部62で補足されるから、声質以外の楽曲属性を指定する利用者Uの負担を軽減しながら、利用者Uの所望の声質の歌唱音声の楽曲を生成できるという利点がある。
[指定例3]利用者Uが歌詞Lおよびジャンル(属性情報xB)のみを指定した場合
利用者Uが声質および曲調を指定せずに歌詞Lおよびジャンルのみを指定した場合、情報管理部62は、指示情報Xの属性情報xBで指示されたジャンルを制御情報Zの属性情報zBでも同様に指示する。すなわち、利用者Uが指定したジャンルが属性情報zBで指示される。
また、情報管理部62は、記憶装置34に記憶された声質毎の生成履歴HAを参照することで、指示情報Xの属性情報xBで指示されたジャンルの楽曲の生成にて過去に多用された声質(例えば当該ジャンルの楽曲の生成で使用された回数が最多である声質)を選択し、当該声質を指示する属性情報zAを生成する。属性情報zCが指示する曲調の選択は指定例1と同様である。
以上に例示した指定例3では、利用者Uが指定したジャンルが属性情報zBで指示されるとともにジャンル以外の楽曲属性の属性情報z(zA,zC)は情報管理部62で補足されるから、ジャンル以外の楽曲属性を指定する利用者Uの負担を軽減しながら、利用者Uの所望のジャンルの楽曲を生成できるという利点がある。
[指定例4]利用者Uが歌詞Lおよび曲調(属性情報xC)のみを指定した場合
利用者Uが声質およびジャンルを指定せずに歌詞Lおよび曲調のみを指定した場合、情報管理部62は、指示情報Xの属性情報xCで指定された曲調を制御情報Zの属性情報zCでも同様に指定する。すなわち、利用者Uが指定した曲調が属性情報zCで指定される。
また、情報管理部62は、属性情報zCが指定する曲調に相応しい複数のジャンルのうち過去に多用されたジャンル(例えば過去の楽曲の生成で使用された回数が最多であるジャンル)を選択し、制御情報Zの属性情報zBで当該ジャンルを指定する。例えば、属性情報zCが指定する曲調が「激しい」である場合、「ロック」に対応する複数のジャンルの何れかが選択され、曲調が「優しい」である場合、「バラード」に対応する複数のジャンルの何れかが選択される。属性情報zAが指定する声質の選択は指定例1と同様である。
以上に例示した指定例4では、利用者Uが指定した曲調が属性情報zCで指定されるとともに曲調以外の楽曲属性の属性情報z(zA,zB)は情報管理部62で補足されるから、曲調以外の楽曲属性を指定する利用者Uの負担を軽減しながら、利用者Uの所望の曲調の楽曲を生成できるという利点がある。
以上に例示した手順(指定例1〜指定例4)で情報管理部62が生成したN個の制御情報Zが通信装置36から処理装置40に送信される。前述の通り、制御情報Zで指定される各楽曲属性はランダムに選択され得るから、歌詞LはN個の制御情報Zにわたり共通する一方、属性情報zが指定する楽曲属性(声質,ジャンル,曲調)は制御情報Z毎に相違し得る。すなわち、管理装置30の情報管理部62がN個の制御情報Zを送信することで、歌詞Lは共通するが楽曲属性は相違するN個の楽曲の生成が処理装置40に対して指示される。
図4に例示される通り、処理装置40は、制御装置42と記憶装置44と通信装置46とを具備する。通信装置46は、通信網14を介して(または直接的に)管理装置30と通信する。記憶装置44は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置42が実行するプログラムや制御装置42が使用する各種のデータを記憶する。制御装置42は、処理装置40の動作を統括的に制御する。第1実施形態の制御装置42は、記憶装置44に記憶されたプログラムを実行することで楽曲生成部66として機能する。
図5は、楽曲生成部66の構成図である。楽曲生成部66は、通信装置46が管理装置30から受信したN個の制御情報Zの各々を適用した自動作曲処理で、相異なる制御情報Zに対応するN個の楽曲の楽曲データDを生成する。すなわち、楽曲生成部66は、複数の楽曲の楽曲データを生成する要素(楽曲生成手段)の一例である。図5に例示される通り、第1実施形態の楽曲生成部66は、旋律生成部72と音声合成部74と伴奏生成部76と音響処理部78とを包含する。
旋律生成部72は、制御情報Zで指示されるN個の楽曲の各々について旋律(メロディ)Mを生成する。旋律Mは、歌唱パートを構成する複数の音符の時系列であり、例えばMIDI(Musical Instrument Digital Interface)形式に準拠した時系列データで記述される。旋律Mを構成する各音符については音高と発音期間(例えば開始点および継続長)とが指定される。第1実施形態の旋律生成部72は、N個の制御情報Zの各々について、当該制御情報Zの属性情報zCで指示される曲調の旋律Mを生成する。旋律Mの生成には公知の技術が任意に採用され得るが、例えば特許文献1に開示された方法が好適である。具体的には、相異なる複数の音高列(音高の時系列)が曲調毎に用意され、属性情報zCが指定する曲調に対応する複数の音高列からランダムに選択された音高列の各音高を複数の発音区間の各々に順次に付与(譜割)することで旋律Mが生成される。したがって、N個の楽曲の相互間で旋律Mは相違し得る。
音声合成部74は、旋律生成部72が生成したN個の旋律Mの各々について、制御情報Zの属性情報zAで指定される声質により当該制御情報Zの歌詞Lを旋律Mで歌唱した歌唱音声の歌唱データDAを生成する。すなわち、音声合成部74は、歌唱音声の歌唱データを複数の楽曲の各々について生成する要素(音声合成手段)の一例である。第1実施形態の歌唱データDAは、歌唱音声の波形を表現する。
第1実施形態では、相異なる声質に対応する複数の音声ライブラリPが記憶装置44に記憶される。任意の1種類の声質に対応する音声ライブラリPは、当該声質の音声から採取された複数の音声素片(例えば単体音素または音素連鎖)で構成される。音声合成部74は、音声ライブラリPの音声素片を順次に接続する素片接続型の音声合成処理でN個の楽曲の各々の歌唱データDAを生成する。
具体的には、音声合成部74は、記憶装置44の複数の音声ライブラリPのうち属性情報zAで指定された声質の音声ライブラリPを選択し、歌詞Lに対応する音声素片を当該音声ライブラリPから順次に選択する。そして、音声合成部74は、旋律Mを構成する各音符の音高および発音期間に各音声素片を調整したうえで時間軸上で相互に連結することで歌唱音声の歌唱データDAを生成する。以上の説明から理解される通り、制御情報Zの属性情報zA(指示情報Xの属性情報xA)は、複数の音声ライブラリPの何れかを指定する情報とも換言され得る。なお、音声合成処理の内容は以上の例示(素片接続型)に限定されない。例えばHMM(Hidden Markov Model)等の状態遷移モデルを利用した音声合成処理で歌唱データDAを生成することも可能である。
図5の伴奏生成部76は、制御情報Zで指示されるN個の楽曲の各々について伴奏データDBを生成する。すなわち、伴奏生成部76は、伴奏音の伴奏データを複数の楽曲の各々について生成する要素(伴奏生成手段)の一例である。第1実施形態の伴奏データDBは楽曲の伴奏音の波形を表現する。記憶装置44には、相異なる複数のジャンルの各々について、当該ジャンルの伴奏音の時間波形を表現する複数の候補データが記憶される。第1実施形態の伴奏生成部76は、N個の制御情報Zの各々について、当該制御情報Zの属性情報zBで指示されるジャンルの複数の候補データの何れかを例えばランダムに伴奏データDBとして選択する。すなわち、N個の楽曲の各々について個別に伴奏データDBが生成される。
図5の音響処理部78は、音声合成部74が生成した歌唱データDAと伴奏生成部76が生成した伴奏データDBとに応じた楽曲データDをN個の楽曲の各々について生成する。すなわち、歌唱データDAで表現される歌唱音声と伴奏データDBで表現される伴奏音との混合音を表す楽曲データDが生成される。具体的には、音響処理部78は、管理装置30から受信したN個の制御情報Zの各々について、当該制御情報Z(属性情報zA,属性情報zC)に応じて生成された歌唱データDAの歌唱音声と、当該制御情報Z(属性情報zB)に応じて生成された伴奏データDBの伴奏音との混合音を表現する楽曲データDを生成する。処理装置40が生成したN個の楽曲の楽曲データDは、通信装置46から管理装置30に転送されて記憶装置34に格納される。以上の説明から理解される通り、処理装置40の楽曲生成部66は、利用者Uからの指示(指示情報X)に応じた自動作曲処理により相異なるN個の楽曲の楽曲データDを生成する要素として包括的に表現される。
図4に例示された管理装置30の楽曲提示部64は、処理装置40(楽曲生成部66)が楽曲データDを生成したN個の楽曲を利用者Uに提示する。すなわち、楽曲提示部64は、複数の楽曲を利用者に提示する要素(楽曲提示手段)の一例である。具体的には、楽曲提示部64は、図2の楽曲提示画面を表現する画像データGを生成して通信装置36から端末装置12に送信することで、端末装置12の表示装置24に楽曲提示画面を表示させる。図2に例示される通り、楽曲提示画面は領域A1と領域A2とを包含する画像である。領域A1には、利用者Uが指定した歌詞Lが表示される。
領域A2は、相異なる楽曲に対応するN個の単位領域AUを包含する。任意の1個の楽曲の単位領域AUは、当該楽曲の楽曲番号(利用者Uが各楽曲を区別するための符号)と、当該楽曲のジャンルおよび曲調と、利用者Uによる操作を受付ける操作画像C1とを包含する。利用者Uは、操作装置23を利用して所望の楽曲の操作画像C1を操作することで、当該楽曲を選択して楽曲データDの再生を指示することが可能である。以上の説明から理解される通り、管理装置30の楽曲提示部64は、楽曲データDの再生候補としてN個の楽曲を利用者Uに提示する要素として機能する。楽曲提示部64は、記憶装置34に記憶されたN個の楽曲の楽曲データDのうち利用者Uが選択した選択曲の楽曲データDを通信装置36から端末装置12に送信する。端末装置12の制御装置20は、通信装置22が管理装置30から受信した楽曲データDを放音装置25に供給することで当該楽曲データDに応じた音響を放音装置25に再生させる。
図6は、第1実施形態の動作の説明図である。端末装置12の利用者Uが操作装置23の操作で楽曲の歌詞Lおよび楽曲属性(声質,ジャンル,曲調)を指定すると(SA1)、制御装置20は、利用者Uからの指示に応じた指示情報Xを通信装置22から管理装置30に送信する(SA2)。利用者Uが指定した歌詞Lと利用者が指定した楽曲属性の属性情報x(xA,xB,xC)とが指示情報Xには包含される。
端末装置12から送信された指示情報Xを通信装置36が受信すると、管理装置30の情報管理部62は、相異なる楽曲に対応するN個の制御情報Zを指示情報Xから生成する(SA3)。各制御情報Zは、N個の制御情報Zにわたり共通する歌詞Lと、指示情報Xに応じて制御情報Z毎に個別に設定された属性情報z(zA,zB,zC)とを包含する。情報管理部62は、N個の制御情報Zを通信装置36から処理装置40に順次に送信する(SA4)。
管理装置30から送信されたN個の制御情報Zを通信装置46が受信すると、処理装置40の楽曲生成部66は、N個の制御情報Zの各々について楽曲データDを生成する(SA5)。具体的には、前述の通り、属性情報zCで指定される曲調の旋律Mで歌詞Lを歌唱した属性情報zAの声質の歌唱音声と、属性情報zBで指定されるジャンルの伴奏音との混合音の楽曲データDが生成される。
他方、管理装置30の制御装置32は、N個の楽曲データDの生成が完了したか否か(すなわち自動作曲処理の進捗)を処理装置40に対して定期的に照会する(SA6)。N個の楽曲データDの生成が完了すると、処理装置40の制御装置42は、管理装置30からの照会に対する応答としてN個の楽曲データDを通信装置46から管理装置30に送信する(SA7)。管理装置30の楽曲提示部64は、処理装置40が生成したN個の楽曲データDを記憶装置34に記憶し(SA8)、N個の楽曲を提示するための楽曲提示画面の画像データGを生成して端末装置12に送信することでN個の楽曲を利用者Uに提示する(SA9)。端末装置12の制御装置32は、通信装置22が管理装置30から受信した画像データGで表現される図2の楽曲提示画面を表示装置24に表示させる(SA10)。
操作装置23に対する操作で利用者Uが任意の1個の楽曲(選択曲)を指定すると、端末装置12の制御装置20は、選択曲の指定を含む情報要求Rを通信装置22から管理装置30に送信する(SA11)。通信装置36が情報要求Rを受信すると、管理装置30の楽曲提示部64は、情報要求Rで指定された選択曲の楽曲データDを記憶装置34から取得し、当該楽曲データDを通信装置36から要求元の端末装置12に送信する(SA12)。端末装置12の制御装置32は、通信装置22が管理装置30から受信した楽曲データDを放音装置25に供給することで選択曲を再生させる(SA13)。すなわち、利用者が指定した歌詞Lを発音した歌唱音声が伴奏音に並行して再生される。
以上に説明した通り、第1実施形態では、利用者Uからの指示に応じた自動作曲処理で相異なるN個の楽曲の楽曲データDが生成され、楽曲データDの再生候補(利用者Uによる選択候補)としてN個の楽曲が利用者Uに提示される。したがって、1個の楽曲を生成する特許文献1の技術と比較して、利用者Uの意図や嗜好に合致した楽曲を利用者Uに提供できる可能性を増加させることが可能である。
第1実施形態では、利用者Uが指定した共通の歌詞Lの歌唱音声を包含するN個の楽曲が生成されるから、利用者Uが指定した共通の歌詞で楽曲属性(声質,ジャンル,曲調)を相違させたN個の楽曲を利用者に提示できるという利点がある。第1実施形態では特に、利用者Uが指定した声質の歌唱音声が生成されるから、利用者の意図や嗜好に合致した声質の歌唱音声の楽曲を提供することが可能である。他方、利用者Uが声質を指定しない場合(例えば指定例1)には歌唱音声の生成履歴HAに応じた声質の歌唱音声が生成されるから、利用者Uによる声質の選択が必須である構成と比較して利用者Uの負荷を軽減しながら、生成履歴HAに応じた適切な声質を選択できるという利点がある。
また、第1実施形態では、利用者Uが指定したジャンルの伴奏音を包含するN個の楽曲が生成されるから、利用者の意図や嗜好に合致した伴奏音の楽曲を提供することが可能である。他方、利用者がジャンルを指定しない場合には生成履歴HBに応じたジャンルの伴奏音が生成されるから、利用者Uによるジャンルの選択が必須である構成と比較して利用者Uの負荷を軽減しながら、生成履歴HBに応じた適切なジャンルを選択できるという利点がある。
<第2実施形態>
本発明の第2実施形態を以下に説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態で使用した符号を流用して各々の詳細な説明を適宜に省略する。
第2実施形態の楽曲提示部64は、楽曲提示画面に提示されるN個の楽曲の提示の順番(すなわち楽曲提示画面における楽曲毎の単位領域AUの配列の順番)を変更可能である。具体的には、操作装置23に対する操作で利用者Uが複数の選択肢から選択した各種の情報に応じた順番で楽曲提示部64はN個の楽曲を提示する。第2実施形態では、楽曲生成履歴と位置情報と利用者情報と提示時刻と歌詞指定速度とを含む複数の情報の何れかを利用者Uが選択し得る場合を想定する。
(1)楽曲生成履歴
楽曲生成履歴に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、楽曲生成部66が過去に楽曲データDを生成した履歴に応じてN個の楽曲の提示順を決定する。具体的には、記憶装置34に記憶された生成履歴HBが示す回数が多い楽曲(すなわち、利用者U自身または多数の利用者Uにより過去に選択された頻度が高いジャンルの楽曲)ほど上位に位置するようにN個の楽曲の提示順が決定される。例えば、利用者Uが過去に「ロック」のジャンルを指定した頻度が高い場合には「ロック」のジャンルの楽曲が上位に提示される。また、所定期間内(例えば直近の1週間以内)に多数の利用者が選択したジャンルの楽曲を上位に提示することも可能である。
(2)位置情報
位置情報に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、例えばGPS(Global Positioning System)を利用した位置検出機能で生成された利用者Uの位置情報(経路,緯度)を端末装置12から取得し、当該位置情報に応じてN個の楽曲の提示順を決定する。具体的には、利用者Uが選択可能な複数のジャンルの各々について地理的な位置との相関が事前に設定され、利用者Uの位置との相関が高いジャンルの楽曲ほど上位に位置するようにN個の楽曲の提示順が決定される。例えば、利用者Uが南米に位置する場合には「サンバ」のジャンルの楽曲が上位に提示され、利用者Uが欧州に位置する場合には「カントリー」のジャンルの楽曲が上位に提示される。なお、利用者Uの位置を特定する方法は以上の例示(GPS)に限定されない。例えば、端末装置12のIP(Internet Protocol)アドレスから利用者Uの概略的な位置を推定する構成も採用され得る。
(3)利用者情報
利用者情報に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、記憶装置34に事前に記憶された利用者情報に応じてN個の楽曲の提示順を決定する。利用者情報は、例えば利用者Uの出身地(例えば国籍)または居住地等の位置に関する位置情報を包含する。楽曲提示部64は、前述の例示と同様に、利用者情報に登録された位置情報が示す位置との相関が高いジャンルの楽曲ほど上位に位置するようにN個の楽曲の提示順を決定する。
(4)提示時刻
提示時刻に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、楽曲提示画面を利用者Uに提示する時刻(提示時刻)に応じてN個の楽曲の提示順を決定する。具体的には、提示時刻が午前の時間帯に包含される場合には「明るい」の曲調の楽曲が上位に位置し、提示時刻が日中午後の時間帯に包含される場合には「激しい」の曲調の楽曲が上位に位置し、提示時刻が夜間の時間帯に包含される場合には「穏やか」の曲調の楽曲が上位に位置するように、N個の楽曲の提示順が決定される。
(5)歌詞指定速度
歌詞指定速度に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、操作装置23に対する操作で利用者Uが歌詞Lを指定する速度(歌詞指定速度)に応じてN個の楽曲の提示順を決定する。歌詞指定速度は、所定の時間内において利用者Uが入力した歌詞Lの文字数(例えばキーボードに対するタイピング速度)であり、端末装置12にて測定されたうえで楽曲提示部64に通知される。歌詞指定速度が高い利用者Uはテンポの速い楽曲を所望する可能性が高いという傾向が推定される。以上の傾向を考慮して、楽曲提示部64は、歌詞指定速度が高い場合にはテンポが速い楽曲が上位に位置し、歌詞指定速度が低い場合にはテンポが遅い楽曲が上位に位置するように、N個の楽曲の提示順を決定する。ただし、以上の例示とは逆に、歌詞指定速度が高い場合にはテンポが低い楽曲を上位に位置させることも可能である。
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、N個の楽曲を提示する順番が適宜に変更されるから、N個の楽曲を多様な観点で優先的に利用者Uに提示できるという利点がある。なお、N個の楽曲の提示順に反映される情報は以上の例示(楽曲生成履歴,位置情報,利用者情報,提示時刻,歌詞指定速度)に限定されない。
<第3実施形態>
図7は、第3実施形態における楽曲提示画面の説明図である。図7に例示される通り、第3実施形態の楽曲提示画面は、時間軸上の相異なる区間(以下「単位区間」という)に対応する複数の単位領域Bを包含する。単位区間は、例えば所定個の小節に相当する時間長の区間である。任意の1個の単位区間に対応する単位領域Bは、領域B1と領域B2とを包含する。図7に例示される通り、利用者Uが指定した歌詞Lは単位区間毎に複数の部分(文字列)λに区分され、任意の1個の単位区間に対応する単位領域Bの領域B1には、歌詞Lのうち当該単位区間に対応する部分λが表示される。なお、歌詞Lを複数の部分λに区分する方法は任意である。例えば、利用者Uが各部分λを個別に指定する方法や、相前後する部分λの境界を利用者Uが指定する方法が採用される。また、所定の文字数を単位として歌詞Lを区分することや、形態素解析等の公知の自然言語処理で特定された意味的な纏まりを単位として歌詞Lを区分することも可能である。
第3実施形態の処理装置40の楽曲生成部66は、時間軸上の複数の単位区間の各々について相異なるN個の楽曲の楽曲データDを生成する。具体的には、楽曲生成部66は、第1実施形態と同様にN個の楽曲の楽曲データDを生成する処理を、複数の単位区間の各々について順次に実行することで、単位区間毎にN個の楽曲データDを生成する。ただし、任意の1個の単位区間における歌唱データDAの生成(音声合成処理)には、歌詞Lのうち当該単位区間に対応する部分が適用される。なお、図8では単位区間毎の楽曲の総数Nが複数の単位区間にわたり共通する場合を例示するが、楽曲の総数Nを単位区間毎に相違させることも可能である。
図7に例示される通り、楽曲提示画面のうち任意の1個の単位区間に対応する単位領域Bの領域B2には、当該単位区間について楽曲生成部66が生成したN個の楽曲の各々を表象する楽曲画像C2が表示される。利用者Uは、操作装置23を利用して単位区間毎にN個の楽曲のうち所望の楽曲の楽曲画像C2を操作することで、当該楽曲の楽曲データDの再生を指示することが可能である。管理装置30の楽曲提示部64は、単位区間毎に記憶装置34に記憶されたN個の楽曲の楽曲データDのうち利用者Uによる選択曲の楽曲データDを通信装置36から端末装置12に送信することで放音装置25に再生させる。すなわち、単位区間毎の選択曲を複数の単位区間にわたり配列した1個の楽曲が構成される。以上の説明から理解される通り、第3実施形態の楽曲生成部66は、複数の単位区間の各々について、当該単位区間における楽曲データDの再生候補としてN個の楽曲を利用者Uに提示する要素として機能する。
第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、単位区間毎にN個の楽曲の楽曲データDが生成されるから、各単位区間の選択曲を複数の単位区間にわたり時系列に連結した1個の楽曲を構成することが可能である。
なお、単位区間毎のN個の楽曲の提示順の選定には第2実施形態と同様の方法が採用され得る。また、歌詞Lのうち各単位区間の部分λの内容に応じて当該単位区間のN個の楽曲の提示順を決定することも可能である。具体的には、歌詞Lのうち任意の1個の単位区間の部分λの意味や情感に相関するジャンルまたは曲調の楽曲を上位に提示する構成が好適である。例えば、図8に例示される通り、歌詞Lの部分λが「晴れです。」である単位区間については、当該部分λの意味または情感に相関する「明るい」の曲調の楽曲が「寂しい」の曲調の楽曲と比較して上位に提示され、歌詞Lの部分λが「雨です。」である単位区間については、当該部分λの意味または情感に相関する「寂しい」の曲調の楽曲が「明るい」の曲調の楽曲と比較して上位に提示される。以上の構成によれば、歌詞Lの各部分λに調和する曲調の楽曲を利用者Uが選択し易いという利点がある。
<変形例>
以上に例示した各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)制御情報Zで指示される楽曲属性の種類は前述の例示(声質,ジャンル,曲調)に限定されない。例えば、楽曲のテンポを制御情報Zの属性情報zで指示することも可能である。楽曲生成部66は、属性情報zで指示されたテンポの楽曲の楽曲データDを生成する。利用者Uがテンポを指定した場合には当該テンポが属性情報zにて指示され、利用者Uがテンポを指定しない場合には、属性情報zBが指定するジャンルに応じたテンポが属性情報zにて指示される。すなわち、楽曲のジャンル毎に好適なテンポが事前に決定され、属性情報zBが指定するジャンルに対応するテンポが選択される。例えば、楽曲が「ロック」のジャンルである場合には「バラード」と比較して速いテンポが設定される。
(2)楽曲生成部66が生成した複数の楽曲の楽曲データDを、利用者Uの端末装置12以外の任意の端末装置12にて再生できる構成(以下「構成A」という)も採用され得る。具体的には、管理装置30は、楽曲生成部66が生成したN個の楽曲データDを記憶装置34に順次に蓄積し、任意の端末装置12から要求された楽曲データDを要求元の端末装置12に送信する。
(3)情報管理部62が楽曲のジャンルを決定する方法は以上の例示(指定例1,2,4)に限定されない。例えば、前述の構成Aでは、複数のジャンルのうち多数の端末装置12からの要求に応じて再生された回数が多い楽曲のジャンル(再生回数ランキングで上位に位置する楽曲のジャンル)を選択する構成が採用され得る。また、複数のジャンルのうち指示情報Xに応じて楽曲の楽曲データDを利用者Uに提供する時刻(例えば前述の提示時刻)に応じてジャンルを決定することも可能である。例えば、提示時刻が日中の時間帯に包含される場合には「ロック」のジャンルが選択され、提示時刻が夜間の時間帯に包含される場合には「バラード」のジャンルが選択される。
(4)前述の各形態では、管理装置30と処理装置40とを具備する楽曲生成システム10を楽曲生成装置の一形態として例示したが、管理装置30と処理装置40とが一体に構成された装置を楽曲生成装置として利用することも可能である。また、管理装置30および処理装置40の一方または双方を、相互に別体で構成された複数の装置で実現することも可能である。
(5)前述の各形態では、複数の声質のうち生成履歴HAが示す回数が最多である声質を選択したが、生成履歴HAに応じて声質を選択する方法は以上の例示に限定されない。例えば、生成履歴HAが示す回数が最少である1種類の声質を選択する構成や、当該回数の降順または昇順で選択された複数の声質の音声ライブラリPにわたり各音声素片を合成して歌唱データDAを生成する構成も採用され得る。また、前述の各形態では、複数のジャンルのうち生成履歴HBが示す回数の降順で上位に位置するジャンルを選択したが、生成履歴HBに応じてジャンルを選択する方法は以上の例示に限定されない。例えば、生成履歴HBが示す回数の昇順で上位に位置するジャンルを選択することも可能である。
(6)前述の各形態における生成履歴HAおよび生成履歴HBには過去の楽曲データDの生成が累積的に反映されるが、生成履歴HAおよび生成履歴HBとしての有意性が確保される程度の充分な回数にわたり楽曲データDの生成が実行されていない初期的な段階(例えば初期出荷段階)では、例えば全国にわたる多数の利用者が過去に指定した結果の平均的な履歴やその時代の流行を反映した履歴を生成履歴HAおよび生成履歴HBとして設定することが可能である。
(7)前述の各形態では、楽曲の歌唱音声と伴奏音との混合音の時間波形を表す楽曲データDを例示したが、楽曲データDの形式は任意である。例えば、楽曲の複数の音符の各々について発音内容(歌詞)と音高と発音期間とを指定する音声合成用のファイル(例えばVSQ形式のファイル)と、楽曲の伴奏音の各音符の発音を時系列に指定する自動演奏用のファイル(例えばMIDI形式のファイル)とを含む楽曲データDを楽曲生成部66が生成することも可能である。
(8)前述の各形態では、楽曲データDの再生候補としてN個の楽曲を利用者Uに提示したが、N個の楽曲を提示する目的(楽曲データDの用途)は楽曲データDの再生に限定されない。例えば、楽曲データDの配信候補(再生候補であることまでは必要とされない)としてN個の楽曲を提示する構成や、楽曲データDを他形式(例えばwav形式)に変換して利用者Uに配信する場合の変換候補としてN個の楽曲を提示する構成も採用され得る。以上の説明から理解される通り、前述の各形態における楽曲提示部64は、楽曲生成部66が楽曲データDを生成したN個の楽曲を利用者Uに提示する要素として包括的に表現される。
10……楽曲生成システム(楽曲生成装置)、12……端末装置、14……通信網、20……制御装置、21……記憶装置、22……通信装置、23……操作装置、24……表示装置、25……放音装置、30……管理装置、32……制御装置、34……記憶装置、36……通信装置、40……処理装置、42……制御装置、44……記憶装置、46……通信装置、62……情報管理部、64……楽曲提示部、66……楽曲生成部、72……旋律生成部、74……音声合成部、76……伴奏生成部、78……音響処理部。

Claims (4)

  1. 利用者が指定した共通の歌詞で楽曲を歌唱する歌唱音声を表す歌唱データを相異なる複数の楽曲の各々について生成する音声合成手段と、
    前記複数の楽曲を利用者に提示する楽曲提示手段とを具備し、
    前記音声合成手段は、前記利用者が指定した声質の前記歌唱音声の歌唱データを生成する一方、前記利用者が声質を指定しない場合に、歌唱音声の歌唱データの生成履歴に応じて選択された声質の前記歌唱音声の歌唱データを生成する
    楽曲生成装置。
  2. 利用者が指定したジャンルの伴奏音の伴奏データを相異なる複数の楽曲の各々について生成する一方、前記利用者がジャンルを指定しない場合に、伴奏データの生成履歴に応じて選択されたジャンルの伴奏音の伴奏データを生成する伴奏生成手段と、
    前記複数の楽曲を利用者に提示する楽曲提示手段と
    を具備する楽曲生成装置。
  3. 利用者が指定した共通の歌詞で楽曲を歌唱する歌唱音声を表す歌唱データを相異なる複数の楽曲の各々について生成し、
    前記複数の楽曲を利用者に提示し、
    前記歌唱データの生成においては、前記利用者が指定した声質の前記歌唱音声の歌唱データを生成する一方、前記利用者が声質を指定しない場合に、歌唱音声の歌唱データの生成履歴に応じて選択された声質の前記歌唱音声の歌唱データを生成する
    コンピュータにより実現される楽曲生成方法。
  4. 利用者が指定したジャンルの伴奏音の伴奏データを相異なる複数の楽曲の各々について生成する一方、前記利用者がジャンルを指定しない場合に、伴奏データの生成履歴に応じて選択されたジャンルの伴奏音の伴奏データを生成し、
    前記複数の楽曲を利用者に提示する
    コンピュータにより実現される楽曲生成方法。
JP2015040565A 2015-03-02 2015-03-02 楽曲生成装置および楽曲生成方法 Active JP6596843B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015040565A JP6596843B2 (ja) 2015-03-02 2015-03-02 楽曲生成装置および楽曲生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015040565A JP6596843B2 (ja) 2015-03-02 2015-03-02 楽曲生成装置および楽曲生成方法

Publications (2)

Publication Number Publication Date
JP2016161774A JP2016161774A (ja) 2016-09-05
JP6596843B2 true JP6596843B2 (ja) 2019-10-30

Family

ID=56846843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015040565A Active JP6596843B2 (ja) 2015-03-02 2015-03-02 楽曲生成装置および楽曲生成方法

Country Status (1)

Country Link
JP (1) JP6596843B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6977323B2 (ja) * 2017-06-14 2021-12-08 ヤマハ株式会社 歌唱音声の出力方法、音声応答システム、及びプログラム
WO2020054064A1 (ja) * 2018-09-14 2020-03-19 Dmet Products株式会社 楽曲編集システム、及び楽曲編集方法
CN112331234A (zh) * 2020-10-27 2021-02-05 北京百度网讯科技有限公司 歌曲多媒体的合成方法、装置、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3407623B2 (ja) * 1997-10-22 2003-05-19 ヤマハ株式会社 和音進行作成支援装置及び和音進行作成支援プログラムを記録した記録媒体
JP2000105595A (ja) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd 歌唱装置及び記録媒体
JP4147885B2 (ja) * 2001-10-05 2008-09-10 ヤマハ株式会社 演奏データ加工処理装置
JP4332728B2 (ja) * 2004-04-23 2009-09-16 ソニー株式会社 楽曲編成装置および楽曲編成方法
JP2010128304A (ja) * 2008-11-28 2010-06-10 Daiichikosho Co Ltd 地域別選曲候補提示システム
JP2013195699A (ja) * 2012-03-19 2013-09-30 Yamaha Corp 歌唱合成装置および歌唱合成プログラム
JP2014013340A (ja) * 2012-07-05 2014-01-23 Pioneer Electronic Corp 作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体およびメロディ検索装置
JP2014170146A (ja) * 2013-03-05 2014-09-18 Univ Of Tokyo 日本語歌詞からの多重唱の自動作曲方法及び装置

Also Published As

Publication number Publication date
JP2016161774A (ja) 2016-09-05

Similar Documents

Publication Publication Date Title
US6528715B1 (en) Music search by interactive graphical specification with audio feedback
EP3047478B1 (en) Combining audio samples by automatically adjusting sample characteristics
EP3047479B1 (en) Automatically expanding sets of audio samples
KR100658869B1 (ko) 음악생성장치 및 그 운용방법
CN106708894B (zh) 电子书配置背景音乐的方法和装置
AU2016330618A1 (en) Machines, systems and processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptors
JP2005010461A (ja) アルペジオパターン設定装置およびプログラム
JP5974436B2 (ja) 楽曲生成装置
JP6452229B2 (ja) カラオケ効果音設定システム
JP6596843B2 (ja) 楽曲生成装置および楽曲生成方法
JP6260191B2 (ja) 電子楽器、プログラム及び発音音高選択方法
JP2001331175A (ja) 副旋律生成装置及び方法並びに記憶媒体
JP6492933B2 (ja) 制御装置、合成歌唱音生成装置およびプログラム
JP5509536B2 (ja) 音声データ処理装置およびプログラム
JP2009258292A (ja) 音声データ処理装置およびプログラム
JP6288197B2 (ja) 評価装置及びプログラム
JP6102076B2 (ja) 評価装置
WO2021106512A1 (ja) 楽曲生成方法および楽曲生成システム
KR102269591B1 (ko) 자동작곡장치 및 그 방법
JP2013195699A (ja) 歌唱合成装置および歌唱合成プログラム
KR102240872B1 (ko) 주변 환경 기반의 자동 작곡 방법 및 그 장치
JP7161301B2 (ja) カラオケシステム
JP6074835B2 (ja) 楽曲練習支援装置
JP2018151548A (ja) 発音装置及びループ区間設定方法
Drymonitis et al. DATA MINING/LIVE SCORING-A LIVE ACOUSTIC ALGORITHMIC COMPOSITION BASED ON TWITTER

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6596843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151