JP2017156495A - 歌詞生成装置および歌詞生成方法 - Google Patents

歌詞生成装置および歌詞生成方法 Download PDF

Info

Publication number
JP2017156495A
JP2017156495A JP2016038787A JP2016038787A JP2017156495A JP 2017156495 A JP2017156495 A JP 2017156495A JP 2016038787 A JP2016038787 A JP 2016038787A JP 2016038787 A JP2016038787 A JP 2016038787A JP 2017156495 A JP2017156495 A JP 2017156495A
Authority
JP
Japan
Prior art keywords
data
lyrics
melody
lyric
fragment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016038787A
Other languages
English (en)
Other versions
JP6693176B2 (ja
Inventor
山本 和彦
Kazuhiko Yamamoto
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016038787A priority Critical patent/JP6693176B2/ja
Publication of JP2017156495A publication Critical patent/JP2017156495A/ja
Application granted granted Critical
Publication of JP6693176B2 publication Critical patent/JP6693176B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】意味の有る歌詞を表す歌詞データを短時間で生成することが可能な歌詞生成装置および歌詞生成方法を提供する。【解決手段】参照部31は、複数の歌詞断片を表す歌詞断片データ群、ならびに複数の歌詞断片に対応する音高変化およびリズムの少なくとも一方を音楽要素として表す音楽要素データ群を含む歌詞生成データベースを参照する。メロディ受付部32は、メロディデータの入力を受け付ける。生成部3は、参照された歌詞生成データベースに基づいて、入力されたユーザメロディデータに対応するように歌詞生成データベースから複数の歌詞断片データを抽出することにより歌詞データを生成する。【選択図】図2

Description

本発明は、歌詞を生成する歌詞生成装置および歌詞生成方法に関する。
音声合成技術により歌唱音を合成する装置およびアプリケーションソフトが広く用いられている。非特許文献1記載のポケットミク(登録商標)においては、模擬的に設けられた鍵盤にスタイラスを接触させることによって音高を指定することができる。また、ボタンの操作によって「あ」、「い」、「う」、「え」および「お」のうち1つの文字を指定することができる。指定された音高および文字に基づいて歌唱音が合成され、その歌唱音が出力される。
"歌うキーボードポケット・ミク|大人の科学.net"、[online]、株式会社学研プラス、[平成28年2月23日検索]、インターネット<URL:http://otonanokagaku.net/nsx39/>
上記のような歌唱音の合成を行う場合、ユーザは、歌のメロディ(旋律)を表すメロディデータを即興的に入力することは可能である。一方、意味の有る歌詞を表す歌詞データを即興的に入力することは容易でない。上記のポケットミクでは、入力可能な文字が制限されており、意味の有る歌詞を入力することはできない。意味の有る歌詞を有する歌唱音を出力する場合、通常では、予め用意された歌詞データに基づいて歌唱音が合成される。
本発明の目的は、意味の有る歌詞を表す歌詞データを短時間で生成することが可能な歌詞生成装置および歌詞生成方法を提供することである。
本発明に係る歌詞生成装置は、時系列的に配置された複数の音の高さおよび長さを表すメロディデータの入力を受け付けるメロディ受付手段と、複数の歌詞断片を表す歌詞断片データ群、ならびに複数の歌詞断片に対応する音高変化およびリズムの少なくとも一方を音楽要素として表す音楽要素データ群を含むデータベースを参照する参照手段と、参照されるデータベースに基づいて、入力されたメロディデータに対応するようにデータベースから複数の歌詞断片データを抽出することにより歌詞データを生成する生成手段とを備える。
この歌詞生成装置においては、データベース内の歌詞断片データ群から複数の歌詞断片データが抽出されることにより、入力されたメロディデータに対応する歌詞データが生成される。この場合、生成される歌詞はデータベース内の歌詞断片の組み合わせからなるので、歌詞に意味が付与される。また、データベースにおいて各歌詞断片データに音楽要素が対応付けられているので、その音楽要素に基づいて、入力されたメロディデータに適合する歌詞断片データをデータベースから抽出することができる。さらに、ユーザがキーボード等を操作して歌詞データを入力する必要がないので、歌詞データの生成に要する時間を大幅に短縮することができる。したがって、意味の有る歌詞を表す歌詞データを短時間で生成することができる。
データベースは、歌詞断片データ群における各歌詞断片から他の歌詞断片への遷移確率を表す遷移情報をさらに含んでもよい。この場合、各歌詞断片から他の歌詞断片への遷移確率に基づいて歌詞断片データが抽出されるので、複数の歌詞断片のつながりに一定の規則性が生じる。それにより、これらの歌詞断片によって構成される歌詞に文章的な意味を付与することができる。
メロディ受付手段は、一定区間のメロディデータの入力を受け付け、生成手段は、入力されたメロディデータに基づいて歌詞データを更新し、歌詞生成装置は、入力されたメロディデータおよび生成された歌詞データに基づいて一定区間の歌唱音データを繰り返し合成する歌唱音データ合成手段と、合成された歌唱音データに基づいて一定区間の歌唱音を繰り返し出力する出力手段とをさらに備えてもよい。この場合、入力されたメロディデータに対応する歌唱音が繰り返し出力される。メロディデータが変更されると、変更後のメロディデータに基づいて歌詞データおよび歌唱音データが更新される。これにより、ユーザは、入力したメロディデータに対応する歌唱音を略リアルタイムで聴くことができ、直感的かつ即興的な楽曲創作を楽しむことができる。
本発明に係る歌詞生成方法は、時系列的に配置された複数の音の高さおよび長さを表すメロディデータの入力を受け付けるステップと、複数の歌詞断片を表す歌詞断片データ群、ならびに複数の歌詞断片に対応する音高変化およびリズムの少なくとも一方を音楽要素として表す音楽要素データ群を含むデータベースを参照するステップと、参照されるデータベースに基づいて、入力されたメロディデータに対応するようにデータベースから複数の歌詞断片データを抽出することにより歌詞データを生成するステップとを備える。
歌詞生成プログラムは、時系列的に配置された複数の音の高さおよび長さを表すメロディデータの入力を受け付けるステップと、複数の歌詞断片を表す歌詞断片データ群、ならびに複数の歌詞断片に対応する音高変化およびリズムの少なくとも一方を音楽要素として表す音楽要素データ群を含むデータベースを参照するステップと、参照されるデータベースに基づいて、入力されたメロディデータに対応するようにデータベースから複数の歌詞断片データを抽出することにより歌詞データを生成するステップとを、コンピュータに実行させる。
この歌詞生成方法および歌詞生成プログラムによれば、生成される歌詞はデータベース内の歌詞断片の組み合わせからなるので、歌詞に意味が付与される。また、ユーザがキーボード等を操作して歌詞データを入力する必要がないので、歌詞データの生成に要する時間を大幅に短縮することができる。したがって、意味の有る歌詞を表す歌詞データを短時間で生成することができる。
本発明によれば、意味の有る歌詞を表す歌詞データを短時間で生成することが可能となる。
本発明の実施の形態に係る歌詞生成装置を含む電子音楽装置の構成を示すブロック図である。 歌詞生成装置の機能的な構成を示すブロック図である。 歌詞生成データベースについて説明するための図である。 歌詞データの生成例について説明するための図である。 ユーザメロディデータの入力と生成される歌詞データとの関係について説明するための図である。 歌詞生成処理の一例を示すフローチャートである。
以下、本発明の実施の形態に係る歌詞生成装置および歌詞生成方法について図面を用いて詳細に説明する。
(1)電子音楽装置の構成
図1は本発明の実施の形態に係る歌詞生成装置を含む電子音楽装置の構成を示すブロック図である。図1の電子音楽装置1は、演奏操作子2、設定操作子4および表示部6を備える。演奏操作子2、設定操作子4および表示部6はバス19に接続される。演奏操作子2は、例えば、キーパッドまたは鍵盤等からなる。ユーザが演奏操作子2を操作することにより、メロディデータが入力される。メロディデータは、時系列的に配置された複数の音の高さ(音高)および長さ(音価)を表し、例えばMIDI(Musical Instrument Digital Interface)データからなる。以下、ユーザにより入力されるメロディデータをユーザメロディデータと呼ぶ。設定操作子4は、例えばオンオフ操作されるスイッチからなり、各種設定を行うために用いられる。表示部6は、例えば液晶ディスプレイを含み、演奏または設定等に関する各種情報を表示する。表示部6がタッチパネルディスプレイにより構成されてもよい。
電子音楽装置1は、RAM(ランダムアクセスメモリ)9、ROM(リードオンリメモリ)10、CPU(中央演算処理装置)11、タイマ12、記憶装置13、通信I/F(インタフェース)14および音声出力部16をさらに備える。RAM9、ROM10、CPU11、記憶装置13および音声出力部16はバス19に接続され、タイマ12はCPU11に接続される。外部記憶装置15等の外部機器が通信I/F14を介してバス19に接続されてもよい。RAM9、ROM10、CPU11およびタイマ12がコンピュータを構成する。
RAM9は、例えば揮発性メモリからなり、CPU11の作業領域として用いられるとともに、各種データを一時的に記憶する。ROM10は、例えば不揮発性メモリからなり、システムプログラム、歌詞生成プログラム等のコンピュータプログラムを記憶する。CPU11は、ROM10に記憶された歌詞生成プログラムをRAM9上で実行することにより後述する歌詞生成処理を行う。また、CPU11は、音声合成技術により歌唱音データを生成する。タイマ12は、時間情報をCPU11に与える。
記憶装置13は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。記憶装置13には、ユーザメロディデータが記憶されるとともに、歌唱音の合成に用いられる音声素片データ群が記憶される。音声素片データ群は、種々の音声素片のサンプリング波形を表す複数の音声素片データを含む。上記の歌詞生成プログラムが記憶装置13に記憶されてもよい。外部記憶装置15は、記憶装置13と同様に、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。ユーザメロディデータ、音声素片データ群および歌詞生成プログラムが外部記憶装置15に記憶されてもよい。
通信I/F14は、通信網(インターネット)INTに接続される。通信網INTには、歌詞生成データベースを記憶するサーバ50が接続されている。後述のように、CPU11は、通信網INTを介してサーバ50に記憶された歌詞生成データベースを参照する。歌詞生成データベースの詳細については後述する。
歌詞生成プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM10または記憶装置13にインストールされてもよい。また、通信網INTに接続されたサーバ(サーバ50または他のサーバ)から配信された歌詞生成プログラムが記憶装置13にインストールされてもよい。同様に、音声素片データ群が、記憶媒体から取得されてもよく、通信網INTに接続されたサーバから取得されてもよい。
音声出力部16は、デジタルアナログ(D/A)変換回路、増幅器およびスピーカを含み、合成された歌唱音データに基づく歌唱音を出力する。電子音楽装置1において、主として演奏操作子2、RAM9、ROM10およびCPU11が歌詞生成装置100を構成する。
(2)電子音楽装置の機能的な構成
図2は歌詞生成装置100の機能的な構成を示すブロック図である。図2に示すように、歌詞生成装置100は、参照部31、メロディ受付部32、生成部33、歌唱音データ合成部34および出力制御部35を含む。参照部31は、後述の歌詞生成データベースを参照する。メロディ受付部32は、図1の演奏操作子2によるユーザメロディデータの入力を受け付ける。生成部33は、参照された歌詞生成データベースに基づいて、入力されたユーザメロディデータに対応するように歌詞生成データベースから複数の歌詞断片データを順に抽出することにより歌詞データを生成する。
歌唱音データ合成部34は、ユーザメロディデータおよび生成された歌詞データに基づいて、音声合成技術により歌唱音データを合成する。具体的には、音声素片データ群から歌詞データに対応する複数の音声素片データが抽出され、ユーザメロディデータに対応するように各音声素片データの音高および時間長が調整される。それらの複数の音声素片データが連結されることにより、歌唱音データが合成される。出力制御部38は、合成された歌唱音データに基づく歌唱音の出力を制御する。
図1のCPU11がROM10または記憶装置13に記憶された歌詞生成プログラムを実行することにより、参照部31、メロディ受付部32、生成部33、歌唱音データ合成部34、および出力制御部35が実現される。これらの機能部は、電子回路等のハードウエアにより実現されてもよい。
(3)歌詞生成データベース
図3は、歌詞生成データベースについて説明するための図である。本例において、歌詞生成データベースDBは、複数の楽曲Mの歌詞データMaおよびメロディデータMbから生成される。歌詞データMaは楽曲の歌詞を表す。メロディデータMbは楽曲の歌唱パートのメロディを表し、例えばMIDIデータからなる。
例えば、各歌詞データMaにより表される各楽曲の歌詞が複数の断片(以下、歌詞断片と呼ぶ。)に分割される。歌詞断片は、例えば形態素である。形態素は、言語上で意味をなす最小の単位であり、形態素解析によって求められる。また、各メロディデータMbにより表される各楽曲のメロディが、複数の歌詞断片にそれぞれ対応する複数の断片(以下、メロディ断片と呼ぶ。)に分割される。各メロディ断片のテンポは正規化される。正規化後のメロディ断片は、対応する歌詞断片の発音の音高変化(イントネーション)およびリズムとみなされる。
歌詞生成データベースDBは、歌詞断片データ群G1、メロディ断片データ群G2および遷移情報TDを含む。歌詞断片データ群G1は、複数の歌詞断片を表す複数の歌詞断片データWFを含む。メロディ断片データ群G2は、正規化後の複数のメロディ断片を表す複数のメロディ断片データMFを含む。各歌詞断片を表す歌詞断片データWFは、その歌詞断片のメロディを表すメロディ断片データMFと対応している。また、各歌詞断片データWFには、対応するメロディ断片データMFから抽出されるメロディの特徴が音楽要素として対応付けられる。音楽要素は、音高変化およびリズムの少なくとも一方を含む。音楽要素として、音量変化等の他の音楽的な要素が用いられてもよい。また、楽曲における各歌詞断片の位置が、位置情報PDとして各歌詞断片データWFと関連付けられる。位置情報PDは、例えば、楽曲のフレーズの先頭、中間または最後等を表す。
各歌詞断片データWFに対応する音楽要素は、メロディ断片データMFから抽出されるのではなく、別途用意されてもよい。この場合、歌詞断片の発音のリズムの定義として、例えば、形態素に含まれる複数の有声音がそれぞれ拍とみなされ、複数の有声音のうちアクセントとなる有声音が強拍、その他の有声音が弱拍とみなされる。例えば、「vocaloid」(登録商標)という歌詞要素は、6つの有声音を有し、1つ目の有声音および4つ目の有声音がアクセントとなるので、強拍、弱拍、弱拍、強拍、弱拍および弱拍からなる6拍のリズムで表される。
遷移情報TDは、歌詞断片データ群G1における各歌詞断片から他の歌詞断片への遷移確率を表す。遷移情報TDとしては、例えば、音楽要素を観測変数とし、各歌詞要素および位置情報を潜在変数とした隠れマルコフモデルが用いられる。この場合、同じ歌詞断片は、同じ潜在変数として用いられる。また、隠れマルコフモデルの代わりに、ニューラルネットワーク等の他のモデルが用いられてもよい。
(4)歌詞生成
上記の歌詞生成データベースDBを参照して歌詞データが生成される。図4は、歌詞データの生成例について説明するための図である。図4の上部には、ユーザメロディデータの一例が示される。図4の上部において、横軸は時間位置を示し、縦軸は音高を示す。
ユーザメロディデータは、順に配置された音符(ノート)N1,N2,・・・,N10を含む。ユーザメロディデータは、複数の音符列に分割される。例えば、隣り合う2つの音符の間隔(休符の長さ)が一定値以上である場合、その2つの音符の間に音符列の境界が設定される。図4のユーザメロディデータは、音符N1〜N4を含む音符列D1、音符N5〜N7を含む音符列D2および音符N8〜N10を含む音符列D3に分割される。
まず、図3の歌詞生成データベースDB内の歌詞断片データ群G1から、最初の音符列D1に割り当てられるべき歌詞断片データWFが歌詞断片データWF1として抽出される。具体的には、音符列D1の音楽要素が抽出され、抽出された音楽要素と一致または類似する音楽要素に対応する歌詞断片データWFが歌詞断片データ群G1内で検索される。この場合、音楽要素として、音高変化、リズムおよび音量変化のうちいずれか1つのみが用いられてもよく、これらのうち2つまたは3つが組み合わされて用いられてもよい。検索により得られた歌詞断片データWFのうち、音符列D1の音楽要素との一致度が最も高い音楽要素に対応する歌詞断片データWFが、歌詞断片データWF1として歌詞断片データ群G1から抽出される。
また、位置情報PDを参照して、音符列D1と共通の位置(例えば、フレーズの先頭)にある複数の歌詞断片データWFが予め候補として特定され、特定された複数の歌詞断片データWFのうち、音符列D1の音楽要素との一致度が最も高い音楽要素に対応する歌詞断片データWFが歌詞断片データWF1として抽出されてもよい。あるいは、複数の歌詞断片データWFが候補としてユーザに提示され、それら複数の歌詞断片データWFのうち、音符列D1に割り当てられるべき1つの歌詞断片データWFが歌詞断片データWF1としてユーザにより選択されてもよい。この場合、候補の歌詞断片データWFには、例えば、音符列D1の音楽要素と一定以上の類似性を有する音楽要素に対応する歌詞断片データWFが該当する。
続いて、遷移情報TDに基づいて、歌詞生成データベースDB内の歌詞断片データ群G1から次の音符列D2に割り当てられるべき歌詞断片データWFが歌詞断片データWF2として抽出される。具体的には、音符列D2の音楽要素が抽出され、抽出された音楽要素と一致または類似する音楽要素に対応する歌詞断片データWFが歌詞断片データ群G1内で検索される。検索により得られた歌詞断片データWFのうち、音符列D2の音楽要素との一致度および歌詞断片データWF1からの遷移確率に基づいて、1つの歌詞断片データWFが選択される。例えば、検索により得られた歌詞断片データWFのうち、歌詞断片データWF1からの遷移確率が最も高い歌詞断片データWFが選択される。あるいは、検索により得られた各歌詞断片データWFに関して、音楽要素の一致度および遷移確率の各々に対する評価値が算出され、算出された評価値の合計が最も高い歌詞断片データWFが選択されてもよい。選択された歌詞断片データWFが歌詞断片データWF2として歌詞断片データ群G1から抽出される。
同様にして、遷移情報TDに基づいて、歌詞生成データベースDB内の歌詞断片データ群G1から次の音符列D3に割り当てられるべき歌詞断片データWFが歌詞断片データWF3として抽出される。具体的には、音符列D3の音楽要素が抽出され、抽出された音楽要素と一致または類似する音楽要素に対応する歌詞断片データWFが歌詞断片データ群G1内で検索される。検索により得られた歌詞断片データWFのうち、音符列D3の音楽要素との一致度および歌詞断片データWF2からの遷移確率に基づいて、1つの歌詞断片データWFが選択される。選択された歌詞断片データWFが歌詞断片データWF3として歌詞断片データ群G1から抽出される。
音符列D2,D3に割り当てられるべき歌詞断片データWF2,WF3の抽出の際にも、候補として複数の歌詞断片データWFがユーザに提示され、そのうちの1つの歌詞断片データWFがユーザにより選択されてもよい。また、位置情報PDを参照して、対象の音符列と共通の位置にある歌詞断片データWFが予め候補として特定されてもよい。このようにして、ユーザメロディデータの各音符列に割り当てられる歌詞断片データWF1〜WF3が、歌詞生成データベースDBから順次抽出される。抽出された複数の歌詞断片データWF1〜WF3が連結されることにより、ユーザメロディデータに対応する歌詞データが生成される。生成された歌詞データにより表される歌詞が図1の表示部6により表示されてもよい。また、入力されたユーザメロディデータにより表されるメロディ(音符)が歌詞とともに表示されてもよい。
(5)リアルタイム入力
本例では、ユーザが、制作すべき楽曲の少なくとも一部の区間を指定する。以下、指定された区間を指定区間と呼ぶ。指定区間は、例えば1または複数の小節である。指定区間のメロディデータの入力がリアルタイムで繰り返し受け付けられる。具体的には、指定区間の長さ(例えば小節数)およびユーザにより指定されたテンポに基づいて、1回の受付期間の長さ(時間長)が決まる。ユーザが所定の操作(例えばスタートボタンの押下)を行うことにより最初の受付期間が開始され、1回の受付期間が終了すると、次の受付期間が開始される。受付期間にユーザが図2の演奏操作子2を操作して演奏を行うと、その演奏内容がユーザメロディデータとして入力される。1回の受付期間の終了毎に、ユーザメロディデータに基づいて、歌詞データの生成および歌唱音データの合成が行われる。合成された歌唱音データに基づいて、次の受付期間に歌唱音が出力される。受付期間には、ドラム音またはメトロノーム音等のビートを表す音(以下、ビート音と呼ぶ。)が出力されてもよい。また、予めコードが入力され、そのコードに基づいて自動生成された伴奏音が出力されてもよい。
図5は、ユーザメロディデータの入力と生成される歌詞データとの関係について説明するための図である。図5には、3回の受付期間L1,L2,L3における歌唱音、歌詞断片データおよびユーザメロディデータが示される。図5において、横軸は時間を表し、ユーザメロディデータの縦軸は音高を表す。最初の受付期間L1においては、歌詞データおよび歌唱音データが生成されていないので、歌唱音が出力されない。
受付期間L1に、ユーザメロディデータとして、音符N11,N12,・・・,N19が入力される。受付期間L1が終了すると、音符N11〜N13、音符N14〜N16、および音符N17〜N19にそれぞれ割り当てられるべき歌詞断片データWF11,WF12,WF13が抽出される。抽出された歌詞断片データWF11〜WF13から歌詞データが生成され、ユーザメロディデータ(音符N11〜N19)および生成された歌詞データに基づいて歌唱音データが合成される。
受付期間L2には、受付期間L1の終了時点で合成された歌唱音データに基づいて歌唱音VP1が出力される。また、受付期間L2において、ユーザメロディデータとして、音符N16と音符N17との間に音符N20が追加される。受付期間L2が終了すると、ユーザメロディデータに基づいて歌詞断片データが再度抽出され、歌詞データが更新される。具体的には、音符N11〜N13、音符N14,N15、音符N16,N20,N17および音符N18,N19にそれぞれ割り当てられるべき歌詞断片データWF11,WF14,WF15,WF16が抽出される。この場合、ユーザメロディデータが変更されているため、受付期間L1の終了時点とは部分的に異なる歌詞断片データが抽出される。抽出された歌詞断片データWF11,WF14〜WF16から歌詞データが生成され、ユーザメロディデータ(音符N11〜N20)および生成された歌詞データに基づいて歌唱音データが合成される。
受付期間L3には、受付期間L2の終了時点で合成された歌唱音データに基づいて歌唱音VP2が出力される。また、受付期間L3において、メロディデータとして、音符N17の音高が変更される。受付期間L3が終了すると、ユーザメロディデータの変更に応じて、音符N11〜N13、音符N14,N15および音符N16,N20,N17〜N20に割り当てられるべき歌詞断片データWF11,WF14,WF17がそれぞれ抽出される。抽出された歌詞断片データWF11,WF14,WF17から歌詞データが生成され、ユーザメロディデータ(音符N11〜N20)および生成された歌詞データに基づいて歌唱音データが合成される。
このように、ユーザメロディデータが変更されると、それに伴い歌詞データおよび歌唱音データも変更され、変更後の歌唱音データに基づく歌唱音が略リアルタイムで出力される。これにより、ユーザは、直感的かつ即興的な楽曲制作を楽しむことができる。
なお、本例のように、指定区間の歌唱音が繰り返し出力されるループ出力が行われる場合には、指定区間の最初の音符列に割り当てられるべき歌詞断片データは、指定区間の最後の音符列に割り当てられるべき歌詞断片データからの遷移確率に基づいて決定されてもよい。具体的には、受付期間L1の終了時点において、歌詞断片データWF11が、歌詞断片データWF13からの遷移確率に基づいて決定されてもよい。
(6)歌詞生成処理
図6は、図2の各機能部による歌詞生成処理の一例を示すフローチャートである。図6の歌詞生成処理は、図1のCPU11がROM10または記憶装置13に記憶された歌詞生成プログラムを実行することに行われる。
まず、メロディ受付部32は、開始操作が行われたか否かを判定する(ステップS1)。例えば、図1の設定操作子4としてスタートボタンおよびストップボタンが設けられる。ユーザは、開始操作としてスタートボタンを操作し、停止操作としてストップボタンを操作する。開始操作が行われるまで、メロディ受付部32はステップS1を繰り返す。開始操作が行われると、メロディ受付部32は、図1のタイマ12を起動するとともに(ステップS2)、ユーザメロディデータの受付を開始する(ステップS3)。また、本例では、出力制御部35がビート音の出力を開始する(ステップS4)。
次に、メロディ受付部32は、停止操作が行われたか否かを判定する(ステップS5)。停止操作が行われていない場合、メロディ受付部32が、タイマ12からの時間情報に基づいて、現在の受付期間の終了時点(指定区間の終了時点)が到来したか否かを判定する(ステップS6)。受付期間の終了時点が到来していない場合、メロディ受付部32はステップS5に戻る。受付期間の終了時点が到来すると、タイマ12がリセットされるとともに、参照部31が、図1の通信網INTを介して歌詞生成データベースDBを参照する(ステップS7)。次に、生成部33が、ユーザメロディデータの各音符列に割り当てられるべき歌詞断片データWFを歌詞生成データベースDBから抽出する(ステップS8)。具体的には、図4の例のように、各音符列の音楽要素が抽出され、抽出された音楽要素と一致または類似する音楽要素に対応する歌詞断片データWFが歌詞生成データベースDBの歌詞断片データ群G1内で検索される。検索の結果に基づいて、ユーザメロディデータに適合する歌詞断片データWFが歌詞断片データ群G1から抽出される。生成部33は、抽出された歌詞断片データWFを連結することにより歌詞データを生成する(ステップS9)。
次に、歌唱音データ合成部34が、ユーザメロディデータおよび生成された歌詞データに基づいて歌唱音データを合成する(ステップS10)。次に、出力制御部35が、合成された歌唱音データに基づく歌唱音の出力を開始し(ステップS11)、ステップS5に戻る。なお、ステップS7〜S11の処理は、受付期間の終了時点で開始されるのではなく、受付期間の終了時点よりも一定時間前の時点で開始されてもよい。この場合、歌唱音データの合成に遅延が生じても、歌唱音の出力が途切れることが防止され、次の受付期間に歌唱音を適切に出力することができる。
ステップS5で停止操作が行われると、メロディ受付部32は、タイマ12を停止するとともに(ステップS12)、メロディデータの受付を停止する(ステップS13)。また、出力制御部35が、ビート音および歌唱音の出力を停止する(ステップS14)。これにより、歌詞生成処理が終了する。
(7)実施の形態の効果
本実施の形態に係る歌詞生成装置100においては、歌詞生成データベースDB内の歌詞断片データ群G1から複数の歌詞断片データWFが順に抽出されることにより、入力されたメロディデータに対応する歌詞データが生成される。この場合、生成される歌詞は、歌詞生成データベースDB内の歌詞断片の組み合わせからなるので、歌詞に意味が付与される。また、歌詞生成データベースDBにおいて各歌詞断片データWFに音楽要素が対応付けられているので、その音楽要素に基づいて、入力されたメロディデータに適合する歌詞断片データWFを歌詞生成データベースDBから抽出することができる。さらに、ユーザがキーボード等を操作して歌詞データを入力する必要がないので、歌詞データの生成に要する時間を大幅に短縮することができる。したがって、意味の有る歌詞を表す歌詞データを短時間で生成することができる。
また、本実施の形態では、各歌詞断片から他の歌詞断片への遷移確率に基づいて歌詞断片データWFが抽出される。これにより、複数の歌詞断片のつながりに一定の規則性が生じる。それにより、これらの複数の歌詞断片によって構成される歌詞に文章的な意味を付与することができる。
また、本実施の形態では、メロディデータの一の音符列に割り当てられる歌詞断片が決定されると、その音符列からの遷移確率に基づいて次の音符列に割り当てられる歌詞断片が選択される。これにより、互いに近接した複数の音符の集合である音符列毎に歌詞断片が割り当てられるので、歌詞断片の途中でメロディが途切れる等の不自然な歌詞断片の割り当てが生じない。したがって、メロディデータと歌詞データとの適合性を高めることができる。
また、本実施の形態では、複数の楽曲の歌詞データおよびメロディデータから歌詞断片データ群G1およびメロディ断片データ群G2が生成される。この場合、既存の歌詞データおよびメロディデータを用いて歌詞データを生成することができ、効率良く質の高い歌詞データを生成することができる。
また、本実施の形態では、一定区間のメロディデータの入力が繰り返し受け付けられるとともに、入力されたメロディデータに基づいて歌詞データおよび歌唱音データが随時更新される。これにより、ユーザは、入力したメロディデータに対応する歌唱音を略リアルタイムで聴くことができる。したがって、効率良くメロディデータおよび歌詞データを生成することができるとともに、直感的かつ即興的な楽曲制作を楽しむことができる。
(8)他の実施の形態
(a)過去に生成された歌詞データにおける歌詞断片間の遷移確率が、過去情報として記憶されてもよい。例えば、歌詞データが更新される毎に、過去情報が更新される。この場合、歌詞生成データベースDBから歌詞断片データWFが抽出される際に、遷移情報に加えて過去情報が参照される。これにより、過去に生成された歌詞データと今後生成される歌詞データとの相関性を高めることができる。それにより、1つの曲を複数の区間に分けて歌詞データを生成する場合に、その複数の区間の全体にわたって文章的につながりの有る歌詞データを生成することができる。
(b)上記実施の形態では、外部装置であるサーバ50に記憶された歌詞生成データベースDBが参照されるが、歌詞生成データベースDBが記憶装置13または外部記憶装置15に記憶されてもよい。また、上記実施の形態では、入力されたユーザメロディデータおよび生成された歌詞データから歌唱音データが合成されるが、歌唱音データが合成されることなく、歌詞データが単独で出力されてもよい。
(c)遷移確率が用いられることなく、ユーザメロディデータの音楽要素と一致または類似する音楽要素に対応する歌詞断片データが組み合わされることにより、歌詞データが生成されてもよい。この場合、複数の歌詞断片間のつながりに意外性が生じることがあり、歌詞に面白みが付与される。
(d)図1の音声出力部16は、歌詞生成装置100に搭載されてもよく、歌詞生成装置100の外部装置として設けられてもよい。歌詞生成装置100は、電子音楽装置1に限らず、パーソナルコンピュータ、スマートデバイス(smart device)、ゲーム機器等の電子機器に適用されてもよい。
(9)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
上記実施の形態では、歌詞生成装置100が歌詞生成装置の例であり、メロディ受付部32がメロディ受付手段の例であり、参照部31が参照手段の例であり、歌詞生成データベースDBがデータベースの例であり、生成部33が生成手段の例であり、歌唱音データ合成部34が歌唱音データ合成手段の例であり、出力制御部38が出力手段の例である。
本発明は、歌詞の生成に用いられる種々の装置に有効に利用可能である。
1…電子音楽装置,2…演奏操作子,4…設定操作子,6…表示部,9…RAM,10…ROM,11…CPU,12…タイマ,13…記憶装置,16…音声出力部,19…バス,50…サーバ,31…参照部,32…メロディ受付部,33…生成部,34…歌唱音データ合成部,35…出力制御部,100…歌詞生成装置,INT…通信網

Claims (4)

  1. 時系列的に配置された複数の音の高さおよび長さを表すメロディデータの入力を受け付けるメロディ受付手段と、
    複数の歌詞断片を表す歌詞断片データ群、ならびに前記複数の歌詞断片に対応する音高変化およびリズムの少なくとも一方を音楽要素として表す音楽要素データ群を含むデータベースを参照する参照手段と、
    参照されるデータベースに基づいて、入力されたメロディデータに対応するようにデータベースから複数の歌詞断片データを抽出することにより歌詞データを生成する生成手段とを備える、歌詞生成装置。
  2. 前記データベースは、前記歌詞断片データ群における各歌詞断片から他の歌詞断片への遷移確率を表す遷移情報をさらに含む、請求項1記載の歌詞生成装置。
  3. 前記メロディ受付手段は、一定区間のメロディデータの入力を受け付け、
    前記生成手段は、入力されたメロディデータに基づいて歌詞データを更新し、
    入力されたメロディデータおよび生成された歌詞データに基づいて前記一定区間の歌唱音データを繰り返し合成する歌唱音データ合成手段と、
    合成された歌唱音データに基づいて前記一定区間の歌唱音を繰り返し出力する出力手段とをさらに備える、請求項1または2記載の歌詞生成装置。
  4. 時系列的に配置された複数の音の高さおよび長さを表すメロディデータの入力を受け付けるステップと、
    複数の歌詞断片を表す歌詞断片データ群、ならびに前記複数の歌詞断片に対応する音高変化およびリズムの少なくとも一方を音楽要素として表す音楽要素データ群を含むデータベースを参照するステップと、
    参照されるデータベースに基づいて、入力されたメロディデータに対応するようにデータベースから複数の歌詞断片データを抽出することにより歌詞データを生成するステップとを備える、歌詞生成方法。
JP2016038787A 2016-03-01 2016-03-01 歌詞生成装置および歌詞生成方法 Active JP6693176B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016038787A JP6693176B2 (ja) 2016-03-01 2016-03-01 歌詞生成装置および歌詞生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016038787A JP6693176B2 (ja) 2016-03-01 2016-03-01 歌詞生成装置および歌詞生成方法

Publications (2)

Publication Number Publication Date
JP2017156495A true JP2017156495A (ja) 2017-09-07
JP6693176B2 JP6693176B2 (ja) 2020-05-13

Family

ID=59808660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016038787A Active JP6693176B2 (ja) 2016-03-01 2016-03-01 歌詞生成装置および歌詞生成方法

Country Status (1)

Country Link
JP (1) JP6693176B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684501A (zh) * 2018-11-26 2019-04-26 平安科技(深圳)有限公司 歌词信息生成方法及其装置
CN112235645A (zh) * 2020-10-10 2021-01-15 维沃移动通信有限公司 多媒体内容播放方法及装置
CN112309435A (zh) * 2020-10-30 2021-02-02 北京有竹居网络技术有限公司 一种主旋律的生成方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256160A (ja) * 1991-02-08 1992-09-10 Fujitsu Ltd 作詞支援方式
JPH1097529A (ja) * 1996-05-29 1998-04-14 Yamaha Corp 作詞支援装置、作詞支援方法および記憶媒体
JPH11282832A (ja) * 1998-03-30 1999-10-15 Hitachi Ltd 文書処理装置及び方法
JP2001306067A (ja) * 2000-04-25 2001-11-02 Yamaha Corp 歌詞作成装置及び歌詞作成方法並びに歌詞作成プログラムを記録した記録媒体
JP2002261873A (ja) * 2001-02-27 2002-09-13 Yamaha Corp 通信装置及び記憶媒体
JP2002278548A (ja) * 2001-03-14 2002-09-27 Yamaha Corp 作詞作曲装置及びプログラム
JP2003195866A (ja) * 2001-12-25 2003-07-09 Yamaha Corp 通信ネットワークを介して自動作詞・作曲された音楽媒体を提供するシステム及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256160A (ja) * 1991-02-08 1992-09-10 Fujitsu Ltd 作詞支援方式
JPH1097529A (ja) * 1996-05-29 1998-04-14 Yamaha Corp 作詞支援装置、作詞支援方法および記憶媒体
JPH11282832A (ja) * 1998-03-30 1999-10-15 Hitachi Ltd 文書処理装置及び方法
JP2001306067A (ja) * 2000-04-25 2001-11-02 Yamaha Corp 歌詞作成装置及び歌詞作成方法並びに歌詞作成プログラムを記録した記録媒体
JP2002261873A (ja) * 2001-02-27 2002-09-13 Yamaha Corp 通信装置及び記憶媒体
JP2002278548A (ja) * 2001-03-14 2002-09-27 Yamaha Corp 作詞作曲装置及びプログラム
JP2003195866A (ja) * 2001-12-25 2003-07-09 Yamaha Corp 通信ネットワークを介して自動作詞・作曲された音楽媒体を提供するシステム及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684501A (zh) * 2018-11-26 2019-04-26 平安科技(深圳)有限公司 歌词信息生成方法及其装置
CN109684501B (zh) * 2018-11-26 2023-08-22 平安科技(深圳)有限公司 歌词信息生成方法及其装置
CN112235645A (zh) * 2020-10-10 2021-01-15 维沃移动通信有限公司 多媒体内容播放方法及装置
CN112309435A (zh) * 2020-10-30 2021-02-02 北京有竹居网络技术有限公司 一种主旋律的生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP6693176B2 (ja) 2020-05-13

Similar Documents

Publication Publication Date Title
US10002604B2 (en) Voice synthesizing method and voice synthesizing apparatus
US9728173B2 (en) Automatic arrangement of automatic accompaniment with accent position taken into consideration
JP2018537727A (ja) 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス
JP5949607B2 (ja) 音声合成装置
US20210295819A1 (en) Electronic musical instrument and control method for electronic musical instrument
JP2011048335A (ja) 歌声合成システム、歌声合成方法及び歌声合成装置
JP7380809B2 (ja) 電子機器、電子楽器、方法及びプログラム
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
JP6693176B2 (ja) 歌詞生成装置および歌詞生成方法
CN113874932A (zh) 电子乐器、电子乐器的控制方法及存储介质
JP6760450B2 (ja) 自動アレンジ方法
JP4929604B2 (ja) 歌データ入力プログラム
JP6565528B2 (ja) 自動アレンジ装置及びプログラム
WO2015159475A1 (ja) 情報処理装置および情報処理方法
JP2016142967A (ja) 伴奏教習装置および伴奏教習プログラム
JP6496998B2 (ja) 演奏情報編集装置および演奏情報編集プログラム
JP6693596B2 (ja) 自動伴奏データ生成方法及び装置
JP6341050B2 (ja) 演奏支援装置
JP2015060200A (ja) 演奏データファイル調整装置、方法、およびプログラム
JP2002041074A (ja) ボーカルデータ生成装置および歌唱装置
JP2002182675A (ja) 音声合成装置、ボーカルデータ生成装置および歌唱装置
WO2023171522A1 (ja) 音響生成方法、音響生成システムおよびプログラム
JP2002032079A (ja) 自動作曲装置及び方法並びに記憶媒体
WO2022202199A1 (ja) コード推定装置、訓練装置、コード推定方法および訓練方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R151 Written notification of patent or utility model registration

Ref document number: 6693176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151