JP4139878B2 - Music data generation system, music data generation device, and music data generation method - Google Patents

Music data generation system, music data generation device, and music data generation method Download PDF

Info

Publication number
JP4139878B2
JP4139878B2 JP2003097483A JP2003097483A JP4139878B2 JP 4139878 B2 JP4139878 B2 JP 4139878B2 JP 2003097483 A JP2003097483 A JP 2003097483A JP 2003097483 A JP2003097483 A JP 2003097483A JP 4139878 B2 JP4139878 B2 JP 4139878B2
Authority
JP
Japan
Prior art keywords
chord
music data
melody
note
approach
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003097483A
Other languages
Japanese (ja)
Other versions
JP2004302318A (en
Inventor
益造 柳田
雅展 三浦
秀文 小西
誠司 黒川
昭博 青井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Doshisha
Original Assignee
Doshisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Doshisha filed Critical Doshisha
Priority to JP2003097483A priority Critical patent/JP4139878B2/en
Publication of JP2004302318A publication Critical patent/JP2004302318A/en
Application granted granted Critical
Publication of JP4139878B2 publication Critical patent/JP4139878B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、和音付けされた音楽を生成するシステムに関し、より具体的には、入力された旋律のアプローチノートを考慮して音楽を生成するシステムに関するものである。
【0002】
【従来の技術】
現在、ユーザの作曲活動を支援するものとして、例えば、シンガーソングライターなるソフトが市販されている。このソフトは、ポップス系の音楽を対象としたソフトで、パーソナルコンピュータなどを介して旋律の入力を受け付け、その構成音を解析することによって旋律に対応した和音を生成するようにしたものである。
【0003】
【発明が解決しようとする課題】
ところが、このシンガーソングライターなるソフトには、音楽によく出現する経過音、倚音、刺繍音、係留音、先行音、逸音などのアプローチノートを識別する機能を具備していない。このため、与えられた旋律に対する和音付けが適合しないケースも生じる。通常、与えられた旋律に対する和音付けは、その旋律の中の各音が旋律本体のものでなく付加的な音のどれであるかによって和音付けの取扱いが異なってくる。従って、単純に与えられた音列から和音を生成するだけでは完全に旋律に適合した和音を生成することができない。
一方、アプローチノートを取り扱うようにした文献として、以下の特許文献1などが存在する。
【0004】
【特許文献1】
特公平7−111636号公報
【0005】
この公報に記載されたものは、和音設定音としてあげられた和音が設定可能であるかを判定する際、旋律内の音が和音構成音あるいはアプローチノートとして解釈可能であるかを考慮したものである。
【0006】
しかし、この特公平7−111636号公報のものでは、設定可能な和音候補群を求める際に、まずアプローチノートと解釈できる音を和音候補群として設定する際の考慮の対象から外すという処理を施していないため、すべての構成音に対する和音候補を求めなければならず、膨大な数の和音候補群を生成しなければならない。さらに、アプローチノートの解釈には一般に多重解釈の問題がある。例えば、同一の音であっても、前後の和音設定を考慮するとアプローチノートの解釈が異なる場合などがある。これに関して、特公平7−111636号公報の手法では、前後の和音設定などを考慮せずにアプローチノートの判定を行っているために、アプローチノートの判定に間違いを生じてしまう可能性がある。このため、アプローチノートを十分、あるいは正しく利用することはできず、旋律に対する正しい和音付けを行うことができない。
【0007】
そこで、本発明は上記課題に着目してなされたもので、与えられた旋律に対して少ない計算量のもとで正しい和音付けを行うことができるシステムなどを提供することを目的とするものである。
【0008】
【課題を解決するための手段】
すなわち、本発明は上記課題を解決するために、旋律の入力を受け付け、この旋律の中から共通和音領域内のアプローチノートを判定する。そして、この判定されたアプローチノートを除いた構成音に基づいて和音を生成し、旋律と統合して音楽データとして視聴可能に出力できるようにする。そして、このようにアプローチノートを判定する場合、和音が共通する領域(例えば、1小節)内だけではアプローチノートを断定できない場合があるため、与えられた旋律の中から想定される仮のアプローチノートを判定し、この仮のアプローチノートに基づいて生成された和音候補を生成する。そして、この仮の和音候補を含む和音進行が、あらかじめ記憶手段に記憶されている和音進行に適合しているか否かを判定し、適合していないと判定された場合は、適合していない和音が割り当てられている共通和音領域のアプローチノートの解釈を修正する。
【0009】
このように構成すれば、まずアプローチノートを除いた構成音に基づいて和音を生成するので生成する和音量を少なくすることができ、また、旋律に対応した和音を生成するようにしたので、旋律に適合した音楽データを生成することができるようになる。また、共通和音領域内だけでは決定できないアプローチノートを前後の共通和音領域に基づいて決定するようにするので、より確実にアプローチノートを決定することができ、旋律に適合した和音を生成することができるようになる。
【0012】
さらに、このようにして和音を生成する場合、アプローチノートを除いた構成音に基づいて共通和音領域内で複数の和音を生成し、その中から旋律との整合度、すなわち、旋律からアプローチノートを除いた構成音と和音構成音との重複度、を考慮した和音を抽出するようにする。
【0013】
このように構成すれば、共通和音領域内で複数の和音が生成しうる場合であっても、より旋律に適合しうる自然な音楽データを生成することができるようになる。
【0014】
【発明の実施の形態】
以下、本発明の一実施の形態について図面を参照して説明する。本実施の形態における音楽データ生成システム1は、図1に示すように、携帯電話などで構成された複数の携帯情報端末2と、この携帯情報端末2にネットワーク4を介して接続された音楽データ生成装置3とを具備してなるもので、例えば、着信メロディやメロディメールなどを生成する場合、その携帯情報端末2で旋律の入力を受け付け、音楽データ生成装置3でその旋律からアプローチノートである経過音、倚音、刺繍音、係留音、先行音、逸音を判定して残る構成音から和音付けされた音楽データを生成するようにしたものである。以下、本実施の形態の具体的構成について詳細に説明する。
【0015】
携帯情報端末2は、図2の左側のブロック図に示すように、旋律などの入力を受け付ける入力受付手段20と、インターネットなどのネットワーク4を介して音楽データ生成装置3との間でデータの送受信を行う送信手段21および受信手段22と、音楽データ生成装置3から送信されてきた音楽データなどをはじめとする種々の情報を記憶する記憶手段23と、音楽データを出力する出力手段24とを具備してなる。また、携帯情報端末2はこれ以外にも携帯情報端末2の本来の機能を果たすための各機能を有し、例えば、通常の電話機として機能するための必要な構成などを有する。
【0016】
入力受付手段20は、携帯情報端末2に具備される操作キーおよび、旋律や音楽ジャンルなどの入力を受け付けるためのアプリケーションなどによって構成される。この入力受付手段20によって旋律は、個別の音高情報や音価情報などとして受け付けられ、また、音楽ジャンルは、あらかじめ登録されているポップス、ジャズ、クラッシックなどの音楽ジャンルを選択可能にして受け付けられる。また、この入力受付手段20では、最終的に生成された音楽データを他人にメロディメールとして送信する場合、その他人のメールアドレスなどの送信先情報なども受け付ける。
【0017】
送信手段21は、ネットワーク4を介して音楽データ生成装置3に所定のデータを送信するもので、例えば、入力受付手段20を介して入力された旋律、音楽ジャンル、自己の携帯情報端末2のメールアドレスなどの送信先情報、自己の携帯情報端末2の機種情報などを送信する。また、受信手段22は、音楽データ生成装置3から送信されてきた音楽データなどを受信する。
【0018】
記憶手段23は、携帯情報端末2を動作させるために必要となる情報を記憶するもので、図3に示すように、実行プログラム領域230、音楽データ記憶領域231、端末情報記憶領域232、作業領域233などを設けてこれらに対応した情報を記憶する。このうち実行プログラム領域230には、携帯情報端末2を動作させるための実行プログラムが記憶され、具体的には、図5に示すフローチャートに対応するプログラムが記憶される。また、音楽データ記憶領域231には、音楽データ生成装置3から受信した音楽データがその音楽データに対応した識別情報とともに記憶される。さらに、端末情報記憶領域232には、自端末のメールアドレスなどの識別情報や、自端末の機種情報などが記憶される。
【0019】
出力手段24は、ディスプレイなどの表示出力手段およびスピーカなどの音声出力手段を具備してなるもので、音楽データ生成装置3から送信されてきた音楽データを表示出力し、また、その音楽データを音声出力手段によって音楽データを視聴可能に出力する。この表示出力および音声出力は互いに同期をとりながら出力するプログラムを組み込み、例えば、旋律や和音の進行状況に合わせた表示形態の変更を行う。また、着信メロディとして使用する場合は、着信の検知に伴って、その音楽データが出力する。
【0020】
一方、音楽データ生成装置3は、携帯情報端末2から送信されてきた旋律に基づき、和音付けされた音楽データを自動生成するもので、図4に示すような音楽理論知識・伴奏パターン・ファイル形式・プログラムなどを記憶する記憶手段30、マイクロプロセッサ、および、その他のデバイスなどによって、図2の右側に示すような受信手段31、旋法・調判定手段32、アプローチノート判定手段33、和音生成手段34、伴奏データ生成手段35、統合手段36、メディアデータ生成手段37、送信手段38などを具備してなる。なお、記憶手段30に記憶される情報については後述する。
【0021】
受信手段31は、ネットワーク4を介して携帯情報端末2から送信されてきたデータを受信するもので、旋律、音楽ジャンル、送信先情報や機種情報、音楽データをメロディメールとして送信する場合はその送信先情報などを受信し、これらのデータを一旦記憶手段30に記憶する。
【0022】
旋法・調判定手段32は、入力された旋律に対してその旋法や調を判定するもので、具体的には次のような処理を行う。すなわち、調の決定に際しては、まず音名の出現順にそれを調内音として含む調を抽出し、以下、新しい音名が出現するたびに調の候補を絞り込んでいく。そして、最後の音まで処理して、候補の調が一つだけ残れば、旋法未定のままそれを調とする。但し、この段階では旋法が未定であるので、実施には長短の各旋法に対して調の可能性が一つずつ残ることになり、この状態で次のようにして旋法を決定する。すなわち、旋法の決定は、最後の音が主音になるようにして決める。つまり、旋律の最後の音が「移動ド」による「ド」であれば長調、「ラ」であれば短調と決定する。それ以外の場合は、各音名の出現頻度を見て、主音・属音・下属音の出現頻度が多くなるように主音を決める。そして、調を絞り込んだ結果、候補がなくなってしまった場合は、どれか一つの音名を外すことによって、調候補が残るかどうかを調べ、残ればそれを調とする。通常、その場合は短調で、除いた音は導音(主音の半音下)に対応する。それでも調候補が残らない場合は、音名の出現頻度を調べ、上述の旋法判定と同様の判定を調判定と組み合わせて行う。この場合、旋法と調は同時に確定する。旋律の最後の音が主和音中の音になっていることを確認し、整合がとれなければ、次候補以下を順次調べる。調を絞り込んだ結果、候補が残った場合は、音名の出現頻度を調べ、候補を絞った上で、上と同様にして旋法・調を決定する。
【0023】
アプローチノート判定手段33は、旋律および調が決定された旋律に対し、旋律の各構成音がアプローチノートに該当するか否かを判定する。このアプローチノート判定手段33は、あらかじめ記憶手段30にアプローチノートに関する音楽理論知識情報を記憶しておき、この情報に基づいて各構成音が共通和音領域内でアプローチノートに該当するか否かを判定する。具体的には、下記のような判定を行いうる音楽理論知識情報を記憶手段30に記憶しておき、これに基づいてアプローチノートを判定する。なお、以下の音楽理論知識情報は、一部の音楽理論知識情報を示したものであり、これ以外にも複数の音楽理論知識情報を記憶している。
【0024】
(1)経過音の判定
3音・5音連続する場合、移動ドを“ド”とした“ドレミ”と続く3音があれば、2番目の“レ”を経過音と確定する。
【0025】
(2)刺繍音の判定
“ドレド”と続く3音がある場合は、2番目の“ド”を刺繍音と確定する。
【0026】
(3)倚音の判定
強拍で2度音程の2音については(例えば、小節の一拍目から“レド”となる場合)“レ”は倚音と解釈される可能性があるとする。
【0027】
(4)逸音の判定
跳躍進行の後に続く2度音程の2音(例えば、“ソドレ・・・”)、“ド”と“レ”のどちらかの音が逸音と解釈される可能性があるとする。
【0028】
(5)係留音の判定
ある共通和音領域において、一つ前の共通和音領域から持続する音は前の共通和音領域における和音構成音である可能性があるため、当該共通和音領域においては、係留音と解釈される可能性があるとする。
【0029】
(6)先行音の判定
ある共通和音領域において、次の共通和音領域へ持続する音は、次の共通和音領域における和音構成音である可能性があるため、当該共通和音領域においては、先行音と解釈される可能性があるとする。
【0030】
なお、上記アプローチノートの判定において、倚音・逸音・係留音・先行音の判定については、すべて「可能性がある」と解釈しているが、これらの音がアプローチノートに該当するか否かの確定については、まず、アプローチノートか否かの判定を仮定した状態で、全音に対するアプローチノートの解釈の組み合わせを列挙する。そして、その中から任意の一パターンをランダムもしくは任意に選出し、その解釈を仮のアプローチノートと解釈して次に述べる和音生成手段34で和音生成処理とともにアプローチノートを確定する。
【0031】
和音生成手段34は、上記仮のアプローチノートと解釈された構成音を除いた各旋律の構成音に基づいて和音候補群を複数列挙する。共通和音領域のデフォルトは一小節に設定されるが、ユーザはこれを任意に変更できるものとする。共通和音領域に対して設定可能な和音は、その領域に含まれる音の絶対的な長さを指標として用い、絶対時間の長い音を構成音とする和音名を列挙する。そして、この和音の生成に際しては、携帯情報端末2から送信されてきた音楽ジャンルに基づいて和音候補群が適しているか否かを判定する。
【0032】
具体的には、ある和音設定区間において“ドレミファ”が存在している場合、アプローチノートの解釈については“ド”と“ミ”、あるいは“レ”と“ファ”のどちらをアプローチノートと解釈するかをその和音設定区間で決定することができない。このため、“ド”と“ミ”をアプローチノートであるというのを解釈(a)、“レ”と“ファ”をアプローチノートであるというのを解釈(b)とし、まず、解釈(a)が妥当であるか否かを一つ手前の和音設定区間における和音候補に基づいて判定する。解釈(a)に基づくのなら、“レ”と“ファ”が和音構成音となり、“レ・ファ・ラ”を構成音とする2度マイナー(ハ長調だとDm)が和音候補にあげられる。しかし、一つ手前の和音設定区間において、V7(ハ長調だとG7)が設定されている場合、V7からDmという進行が、ある音楽ジャンルで使用されない場合、Dmは和音候補として相応しくない。すなわち、解釈(a)を採用したこと自体間違いであるとして、解釈(b)を採用する。
【0033】
そして、このようにして「可能性がある」と判定されていたアプローチノートを音楽ジャンルの和音進行を用いて確定し、次に、確定されたアプローチノートを用いて和音を生成する。この和音の生成については、先に使用した音楽ジャンル毎の和音進行は使用されず、独自に共通和音領域の旋律に対応した和音が生成される。ここで、和音の生成に際しては、共通和音領域内において複数の和音の生成が可能であるが、旋律と和音の各構成音との共通度合いを示す整合度を考慮して和音を生成する。
【0034】
そして、共通和音領域間で許容される和音の中のどれか一つを選択する。選択の基準は2次マルコフモデルに基づく音楽データベースのジャンル別統計に従う。すなわち、各時点において前後の続き具合を考慮して確率的に最も高頻度で使用される部分的な和音進行を第一候補として選択するようにする。この使用頻度については、ユーザが入力した音楽ジャンルに基づくものとする。また、先に求めた整合度も和音進行決定において考慮するものとする。データベース中の出現頻度の順に次点以下の候補を存在する場合は3つ程度まで保持しておき、後でユーザから他の和音進行の可能性を要求された場合に備える。2次マルコフモデルを用いた理由は、音楽の進行はある時点を採るとほぼその前後の和音進行に依存すると考えられるからである。ただし、開始和音は原則として主和音とし、第一音が主和音以外の音であった場合、それは装飾音であったと判定する。2つ目の和音は1次マルコフモデルに基づいて決め、3つ目以降の和音は2次マルコフモデルで決める。旋律の最後の音に着ける最終和音は主和音、その前は属和音となるようにする。
【0035】
伴奏データ生成手段35では、このように選択された和音進行に対してドラム音などの伴奏データを抽出する。伴奏パターンは音楽ジャンルによってそれぞれの特徴があるため、各音楽ジャンルの特徴的なドラム音やリズムなどの伴奏パターンを記憶手段30に保持しておき、その中から選択的に使用する。
【0036】
統合手段36は、このようにして抽出された和音や伴奏を旋律に統合して、全体として一つの音楽データにまとめる。そして、この音楽データを、送信元の携帯情報端末2で視聴可能にすべくメディアデータ生成手段37に出力する。
【0037】
メディアデータ生成手段37は、送信元の携帯情報端末2がその音楽データを出力できるファイル形式に変換する。記憶手段30には、携帯情報端末2毎に出力可能なファイル形式をそれぞれ記憶しておき、携帯情報端末2から送信されてきた機種情報を読み出して、その機種情報に対応したファイル形式にフォーマット変換する。
【0038】
送信手段38は、このように生成された音楽データを、ネットワーク4を介して送信元の携帯情報端末2に送信し、そこで視聴可能に出力させる。また、この音楽データを第三者の携帯情報端末2にメロディメールとして送信する場合は、送信先に関するメールアドレスにその音楽データを送信する。
【0039】
次に、このように構成された音楽データ生成システム1における音楽データの生成フローについて図5、図6を用いて説明する。
【0040】
まず、他人へメロディメールを送信する場合、図5の携帯情報端末2のフローに示すように、携帯情報端末2で所定のプログラムを起動して操作キーなどを用いた旋律や音楽ジャンルの入力を受け付け、また、そのメロディメール送信先のメールアドレスの入力を受け付ける(ステップS1)。そして、送信指示の入力がなされることを条件に(ステップS2)、旋律や音楽ジャンル、送信先のメールアドレスを送信し、また、この際、その携帯情報端末2のメールアドレスなどの送信先情報や機種情報なども読み出して一緒に送信する(ステップS3)。
【0041】
音楽データ生成装置3がこれの情報を受信すると(ステップT1)、まず、この受信した旋律に基づいて旋法・調を決定する(ステップT2)。この旋法・調の決定は、まず音名の出現順にそれを調内音として含む調を抽出し、以下、新しい音名が出現するたびに調の候補を絞り込んでいく。そして、最後の音まで処理して、候補の調が一つだけ残れば、旋法未定のままそれを調とする。但し、この段階では旋法が未定であるので、実施には長短の各旋法に対して調の可能性が一つずつ残ることになるが、この状態で次のようにして旋法を決定する。すなわち、旋法の決定は、最後の音が主音になるようにして決める。つまり、旋律の最後の音が「移動ド」による「ド」であれば長調、「ラ」であれば短調と決定する。それ以外の場合は、各音名の出現頻度を見て、主音・属音・下属音の出現頻度が多くなるように主音を決める。そして、調を絞り込んだ結果、候補がなくなってしまった場合は、どれか一つの音名を外すことによって、調候補が残るかどうかを調べ、残ればそれを調とする。通常、その場合は短調で、除いた音は導音(主音の半音下)に対応するが、それでも調候補が残らない場合は、音名の出現頻度を調べ、上述の旋法判定と同様の判定を調判定と組み合わせて行う。この場合、旋法と調は同時に確定する。旋律の最後の音が主和音中の音になっていることを確認し、整合がとれなければ、次候補以下を順次調べる。調を絞り込んだ結果、候補が残った場合は、音名の出現頻度を調べ、候補を絞った上で、上と同様にして旋法・調を決定する。
【0042】
そして、このように旋法・調が決定された旋律に対して、和音生成処理を行う(ステップT3)。この和音生成処理では、まず、図6に示すように、旋律のアプローチノート判定処理を行う(ステップT30)。このアプローチノートの判定処理では、まず、確定されるアプローチノートと仮定されるアプローチノートに基づいて和音候補群を生成する(ステップT31)。そして、この生成された和音候補群による和音進行が、選択された音楽ジャンルの和音進行に適合しているか否かを判定し(ステップT32)、適合していないと判断された場合は、その共通和音領域の仮定されたアプローチノートを修正してすべての共通和音領域のアプローチノートを確定する(ステップT33)。次に、このようにすべての共通和音領域のアプローチノートが確定すれば、旋律からアプローチノートを除き、残った構成音に基づいて和音を生成する(ステップT34)。この和音の生成は音楽ジャンルの和音進行とは別に行われ、共通和音領域内において複数の和音が生成される場合は、旋律との整合度を付与する(ステップT35)。そして、この整合度を用いて2次マルコフモデルに基づく音楽ジャンル別統計に従った和音を一つ選択する(ステップT36)。
【0043】
次に、この生成された和音などに付加される伴奏データを記憶手段30から読み出す(ステップT4)。この伴奏データの抽出は、送信されてきた音楽ジャンルを把握し、この音楽ジャンルに対応する伴奏データを記憶手段30から読み出して行う。
【0044】
そして、これらの旋律、和音、演奏パターンデータを統合して音楽データを生成し(ステップT5)、この音楽データを、送信元の携帯情報端末2で視聴可能にすべく、その機種情報に対応したファイル形式のメディアデータにト変換する(ステップT6)。そして、この変換された音楽データをその音楽データに対応した識別情報とともに送信元の携帯情報端末2に送信確認し(ステップT7)、また、この送信結果である音楽データとその音楽データに対応した識別情報を記憶手段30に記憶しておく(ステップT8)。
【0045】
この音楽データを受信した携帯情報端末2では(ステップS4)、その音楽データの視聴のための出力を行い(ステップS5)、そして、旋律と和音とが適合してないとユーザが判断した場合、その旨の入力を許容して(ステップS6)音楽データ生成装置3に送信する(ステップS7)。この送信に際しては、先に付与された音楽データに対応する識別情報が送信される。
【0046】
これに基づいて音楽データ生成装置3では、この識別情報に対応する音楽データが有する和音と異なる和音を有する音楽データを生成する(ステップT3〜T8)。そして、これらの視聴と修正処理を繰り返した後、ユーザが希望する音楽データが生成された場合、その音楽データをメロディメールとして第三者の携帯情報端末2などに送信する(ステップT9)。
【0047】
このように上記実施の形態では、まず旋律の中からアプローチノートを判定し、このアプローチノートを除く構成音に基づいて和音を生成するようにしたので、少ない計算量で和音を生成することができ、また、より旋律に確実に適合した音楽データを生成することができるようになる。
【0048】
また、この実施の形態では、アプローチノートであるか否かの断定ができない場合、まず、仮の形でアプローチノートを設定して和音候補群を生成し、この和音候補群が一般的な和音進行に適合していなければ、その適合していない共通和音領域のアプローチノート解釈の修正を行うようにしたので、アプローチノート判定の確実性を増すことができ、より旋律に適合した和音を生成することができるようになる。
【0049】
さらに、このように修正処理されたアプローチノートに基づき、共通和音領域の和音を複数生成し、これに加えて、音楽ジャンルの特性を考慮した和音を生成するようにしたので、共通和音領域毎の和音設定(縦割りの和音設定)と、和音進行に基づく和音設定(横割りの和音設定)とを考慮した最適な音楽データを生成することができるようになる。
【0050】
なお、本発明は上記実施の形態に限定されることなく、種々変更することができる。
【0051】
例えば、上記実施の形態では、携帯情報端末2と音楽データ生成装置3を具備する音楽データ生成システム1を説明したが、これに限らず、単一の装置で旋律の入力および和音の生成などの処理を行うようにしても良い。この場合は、本発明における「システム」は単体の装置として解釈される。また、この場合の装置としては、携帯電話やパーソナルコンピュータなどに限らず、電子ピアノなどに適用することもできる。
【0052】
また、上記実施の形態では、着信メロディやメロディメールなどを生成する場合について説明したが、これに限らず、鑑賞用の音楽データや作曲支援用の音楽データを生成するようにしても良い。
【0053】
さらに、上記実施の形態では、和音を生成する場合、まず、旋法・調を判定するようにしたが、旋律を入力する場合、ユーザが事前に旋法や調を決定してから旋律を入力するようにしても良く、もしくは、デフォルトで旋法や調を決定しておき、この状態で旋律の入力を受け付けるようにしても良い。
【0054】
加えて、和音を生成する場合、最終的に決定されたアプローチノートに基づいて複数の和音を生成し、2次マルコフモデルから音楽ジャンルに従った和音を生成するようにしたが、これに限らず、共通和音領域内で生成された複数の和音のうち、最も整合度の高い和音を抽出するようにしても良い。
【0055】
【発明の効果】
本発明では、入力された旋律からアプローチノートを判定し、このアプローチノートを除いた構成音から和音を生成するようにしたので、少ない計算量で和音を生成することができ、また、旋律に適合した和音を生成することができるようになり、また、共通和音領域内だけでは決定できないアプローチノートを前後の共通和音領域に基づいて決定するようにしたので、より確実にアプローチノートを決定することができ、旋律に適合した和音を生成することができるようになる。
【図面の簡単な説明】
【図1】本実施形態の音楽データ生成システムの概略図
【図2】同形態における音楽データ生成システムの機能ブロック図
【図3】携帯情報端末の記憶手段に記憶される情報を示すメモリマップ
【図4】音楽データ生成装置の記憶手段に記憶される情報を示すメモリマップ
【図5】同形態における音楽データ生成システムのフローチャート
【図6】図5における和音生成処理の詳細フローチャート
【符号の説明】
1・・・音楽データ生成システム
2・・・携帯情報端末
3・・・音楽データ生成装置
20・・・入力受付手段
24・・・出力手段
33・・・アプローチノート判定手段
34・・・和音生成手段
36・・・統合手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a system for generating chorded music, and more particularly to a system for generating music in consideration of an input melody approach note.
[0002]
[Prior art]
Currently, software that is a singer-songwriter, for example, is commercially available to support user composition activities. This software is intended for pop-type music, and accepts melodic input via a personal computer or the like, and analyzes its constituent sounds to generate chords corresponding to melodies.
[0003]
[Problems to be solved by the invention]
However, this singer-songwriter software does not have a function for identifying approach notes such as progress sounds, stuttering sounds, embroidery sounds, mooring sounds, preceding sounds, and unusual sounds that often appear in music. For this reason, there may be cases where chording for a given melody is not suitable. Normally, the chording for a given melody is handled differently depending on which of the additional melodies is not the main one of the melody. Therefore, it is not possible to generate a chord perfectly adapted to the melody simply by generating a chord from a given string.
On the other hand, the following patent document 1 etc. exist as literature which handled the approach note.
[0004]
[Patent Document 1]
Japanese Patent Publication No.7-111636
[0005]
What is described in this publication considers whether the sound in the melody can be interpreted as a chord component or approach note when determining whether a chord raised as a chord setting sound can be set. is there.
[0006]
However, in Japanese Patent Publication No. 7-111636, when a chord candidate group that can be set is obtained, firstly, a sound that can be interpreted as an approach note is excluded from consideration when setting as a chord candidate group. Therefore, chord candidates for all constituent sounds must be obtained, and a huge number of chord candidate groups must be generated. Furthermore, the interpretation of approach notes generally has multiple interpretation issues. For example, even if the sound is the same, the interpretation of the approach note may be different when the preceding and following chord settings are taken into account. In this regard, in the method disclosed in Japanese Patent Publication No. 7-11636, the approach note is determined without considering the preceding and following chord settings, and therefore there is a possibility that the approach note may be determined incorrectly. For this reason, approach notes cannot be used sufficiently or correctly, and correct chords cannot be added to the melody.
[0007]
Accordingly, the present invention has been made paying attention to the above-described problems, and an object thereof is to provide a system that can perform correct chording with a small amount of calculation for a given melody. is there.
[0008]
[Means for Solving the Problems]
That is, in order to solve the above-mentioned problem, the present invention receives an input of a melody and determines an approach note in the common chord region from the melody. Then, a chord is generated based on the component sound excluding the determined approach note, and integrated with the melody so that it can be output as music data for viewing.To do. When determining an approach note in this way, the approach note may not be determined only within an area where chords are common (for example, one bar), so a temporary approach note that is assumed from a given melody. And a chord candidate generated based on the temporary approach note is generated. Then, it is determined whether or not the chord progression including the temporary chord candidate is suitable for the chord progression stored in the storage unit in advance. Correct the interpretation of the approach note for the common chord region to which is assigned.
[0009]
By configuring in this way, the chord is generated based on the component sound excluding the approach note, so that the generated volume can be reduced, and the chord corresponding to the melody is generated. It becomes possible to generate music data suitable for.In addition, since approach notes that cannot be determined only within the common chord area are determined based on the preceding and following common chord areas, the approach notes can be determined more reliably and chords suitable for the melody can be generated. become able to.
[0012]
Furthermore, when generating a chord in this way, a plurality of chords are generated in the common chord region based on the constituent sound excluding the approach note, and the degree of consistency with the melody, that is, the approach note from the melody is generated. A chord is extracted in consideration of the degree of overlap between the excluded component sound and the chord component sound.
[0013]
If comprised in this way, even if it is a case where a some chord can be produced | generated within a common chord area | region, it will become possible to produce | generate the natural music data which can adapt more to a melody.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. As shown in FIG. 1, the music data generation system 1 according to the present embodiment includes a plurality of portable information terminals 2 constituted by mobile phones and the like, and music data connected to the portable information terminal 2 via a network 4. For example, when generating an incoming melody or a melody mail, the portable information terminal 2 accepts input of a melody, and the music data generation device 3 is an approach note from the melody. Musical data with chords is generated from the remaining constituent sounds by determining elapsed sound, stuttering sound, embroidery sound, mooring sound, preceding sound, and anomalous sound. Hereinafter, a specific configuration of the present embodiment will be described in detail.
[0015]
As shown in the block diagram on the left side of FIG. 2, the portable information terminal 2 transmits and receives data between the input receiving means 20 that receives input such as melody and the music data generating device 3 via the network 4 such as the Internet. Transmitting means 21 and receiving means 22, storage means 23 for storing various information including music data transmitted from the music data generating device 3, and output means 24 for outputting music data. Do it. In addition, the portable information terminal 2 has other functions for achieving the original functions of the portable information terminal 2, for example, a necessary configuration for functioning as a normal telephone.
[0016]
The input receiving means 20 includes operation keys provided in the portable information terminal 2 and applications for receiving inputs such as melody and music genre. The input accepting means 20 accepts the melody as individual pitch information, note value information, and the like, and the music genre is accepted by selecting a pre-registered music genre such as pop, jazz, or classic. . In addition, when the finally generated music data is transmitted to another person as a melody mail, the input receiving means 20 receives destination information such as a mail address of the other person.
[0017]
The transmission unit 21 transmits predetermined data to the music data generation device 3 via the network 4. For example, the melody, the music genre input via the input reception unit 20, and the mail of the portable information terminal 2 of itself Transmission destination information such as an address, model information of the portable information terminal 2 of itself is transmitted. The receiving means 22 receives music data transmitted from the music data generating device 3.
[0018]
The storage means 23 stores information necessary for operating the portable information terminal 2, and as shown in FIG. 3, an execution program area 230, a music data storage area 231, a terminal information storage area 232, a work area 233 etc. are provided to store information corresponding to these. Among these, the execution program area 230 stores an execution program for operating the portable information terminal 2, and specifically stores a program corresponding to the flowchart shown in FIG. In the music data storage area 231, music data received from the music data generating device 3 is stored together with identification information corresponding to the music data. Further, the terminal information storage area 232 stores identification information such as a mail address of the own terminal, model information of the own terminal, and the like.
[0019]
The output unit 24 includes a display output unit such as a display and a voice output unit such as a speaker. The output unit 24 displays and outputs the music data transmitted from the music data generation device 3, and the music data is output as audio. The output means outputs the music data so that it can be viewed. This display output and audio output incorporate a program that outputs them in synchronism with each other, for example, to change the display form in accordance with the progress of melody or chords. When used as an incoming melody, the music data is output upon detection of the incoming call.
[0020]
On the other hand, the music data generation device 3 automatically generates music data with chords based on the melody transmitted from the portable information terminal 2, and has the music theory knowledge, accompaniment pattern, file format as shown in FIG. The receiving means 31, the melody / key judging means 32, the approach note judging means 33, the chord generating means 34 as shown on the right side of FIG. , Accompaniment data generation means 35, integration means 36, media data generation means 37, transmission means 38, and the like. The information stored in the storage unit 30 will be described later.
[0021]
The receiving means 31 receives data transmitted from the portable information terminal 2 via the network 4, and transmits the melody, music genre, destination information, model information, and music data as melody mail. The destination information is received, and these data are temporarily stored in the storage means 30.
[0022]
The melody / key determination means 32 determines the melody and key of the input melody, and specifically performs the following processing. That is, in determining the key, first, the key including the tone name in the order of appearance of the pitch name is extracted, and thereafter, every time a new pitch name appears, the key candidates are narrowed down. After the last note is processed, if only one candidate key is left, the key is left as undecided. However, at this stage, the method of deciding is undecided, so that there is one possibility of adjustment for each of the long and short merits. In this state, the deciding method is determined as follows. That is, the melody is determined so that the last sound becomes the main sound. That is, if the last note of the melody is “do” by “moving de”, it is determined to be a major key, and if “la”, it is determined to be a minor key. In other cases, the main sound is determined so that the appearance frequency of the main sound, the subordinate sound, and the subgeneric sound increases by looking at the appearance frequency of each pitch name. If no candidates are found as a result of narrowing down the key, it is checked whether any key candidate remains by removing any one note name, and if it remains, it is determined as a key. Usually, in that case, it is in minor key, and the removed sound corresponds to the guided sound (semitone below the main sound). If a key candidate still does not remain, the appearance frequency of the pitch name is examined, and the same determination as the above-mentioned method of determination is combined with the key determination. In this case, the mode and key are determined at the same time. Confirm that the last note of the melody is the one in the main chord. If candidates remain as a result of narrowing down the key, the appearance frequency of the pitch name is examined, and after narrowing down the candidates, the melody and key are determined in the same manner as above.
[0023]
The approach note determination means 33 determines whether or not each constituent sound of the melody corresponds to the approach note for the melody whose melody and key are determined. This approach note determination means 33 stores music theory knowledge information related to the approach note in the storage means 30 in advance, and determines whether or not each constituent sound corresponds to the approach note in the common chord area based on this information. To do. Specifically, music theory knowledge information that can be determined as follows is stored in the storage means 30, and an approach note is determined based on this information. Note that the following music theory knowledge information represents a part of the music theory knowledge information, and stores a plurality of music theory knowledge information in addition to this.
[0024]
(1) Judgment of elapsed sound
If there are 3 sounds and 5 sounds in succession, if there are 3 sounds following the “Doremi” with the moving sound set to “Do”, the second “Re” is determined as the elapsed sound.
[0025]
(2) Judgment of embroidery sound
If there are three sounds following “Dredo”, the second “Dole” is determined as the embroidery sound.
[0026]
(3) Judgment of stuttering
For two notes with strong beats and two pitches (for example, “red” from the first beat of a measure), “re” may be interpreted as stuttering.
[0027]
(4) Judgment of noise
It is assumed that two sounds of two pitches (for example, “sodore ...”) that follow the jumping progress, one of “do” and “le” may be interpreted as an unusual sound.
[0028]
(5) Determination of mooring sound
In a common chord area, a sound that persists from the previous common chord area may be a chord component in the previous common chord area, and therefore may be interpreted as a mooring sound in the common chord area. Suppose there is.
[0029]
(6) Judgment of preceding sound
In a certain common chord area, a sound that continues to the next common chord area may be a chord constituent sound in the next common chord area, and therefore may be interpreted as a preceding sound in the common chord area. Suppose there is.
[0030]
In the judgment of the above approach note, all the judgments of stuttering, anomalous sound, mooring sound and preceding sound are interpreted as “possible”, but whether these sounds fall under the approach note. First, the combinations of interpretation of approach notes for all sounds are listed in a state where it is assumed that the note is an approach note. Then, an arbitrary pattern is selected randomly or arbitrarily from among them, the interpretation is interpreted as a temporary approach note, and the chord generation means 34 described below determines the approach note together with the chord generation process.
[0031]
The chord generating means 34 lists a plurality of chord candidate groups based on the constituent sounds of each melody excluding the constituent sounds interpreted as the temporary approach note. The default of the common chord area is set to one measure, but the user can arbitrarily change it. For chords that can be set for the common chord region, the absolute lengths of the sounds included in that region are used as an index, and the chord names that make up the sound having a long absolute time are listed. Then, when generating this chord, it is determined whether or not the chord candidate group is suitable based on the music genre transmitted from the portable information terminal 2.
[0032]
Specifically, if “Doremifa” exists in a certain chord setting section, either “Do” or “Mi” or “Le” or “Fa” is interpreted as an approach note for the interpretation of the approach note. Cannot be determined in the chord setting section. For this reason, “do” and “mi” are interpretation notes (a), and “re” and “fa” are interpretation notes (b). First, interpretation (a) Is determined based on a chord candidate in the immediately preceding chord setting section. If it is based on interpretation (a), “Le” and “Fa” are chord constituent sounds, and the second minor (Dm for C major) that has “Le Fa La” as the constituent sounds is listed as a chord candidate. . However, if V7 (G7 in C major) is set in the chord setting section immediately before, if the progression from V7 to Dm is not used in a certain music genre, Dm is not suitable as a chord candidate. That is, the interpretation (b) is adopted on the assumption that the interpretation (a) is adopted in itself.
[0033]
Then, the approach note determined as “possible” in this way is determined using the chord progression of the music genre, and then a chord is generated using the determined approach note. For this chord generation, the chord progression for each music genre used previously is not used, but a chord corresponding to the melody of the common chord region is independently generated. Here, when generating chords, a plurality of chords can be generated in the common chord region, but the chords are generated in consideration of the degree of matching that indicates the degree of commonness between the melody and each component of the chord.
[0034]
Then, one of chords allowed between the common chord areas is selected. The criteria for selection follows genre statistics of the music database based on the second order Markov model. That is, the partial chord progression that is used most frequently in terms of probability is selected as the first candidate in consideration of the continuation of the front and back at each time point. This usage frequency is based on the music genre input by the user. Further, the degree of matching obtained previously is also taken into consideration in the chord progression determination. If there are candidates below the next point in the order of appearance frequency in the database, about three candidates are retained, and in preparation for a case where the user requests later the possibility of another chord progression. The reason for using the second order Markov model is that the progression of music is considered to depend on the progression of chords before and after a certain point in time. However, the starting chord is a main chord in principle, and if the first sound is a sound other than the main chord, it is determined that it is a decoration sound. The second chord is determined based on the first-order Markov model, and the third and subsequent chords are determined based on the second-order Markov model. The final chord that arrives at the last note of the melody is the main chord, and before that is the genus chord.
[0035]
The accompaniment data generating means 35 extracts accompaniment data such as drum sounds for the chord progression selected in this way. Accompaniment patterns have their own characteristics depending on the music genre. Accompaniment patterns such as drum sounds and rhythms characteristic of each music genre are held in the storage means 30 and are selectively used from among them.
[0036]
The integration means 36 integrates the chords and accompaniments extracted in this way into a melody and combines them into a single piece of music data as a whole. Then, this music data is output to the media data generating means 37 so as to be viewable on the transmission source portable information terminal 2.
[0037]
The media data generation unit 37 converts the music data into a file format that the portable information terminal 2 as the transmission source can output. The storage means 30 stores file formats that can be output for each portable information terminal 2, reads out the model information transmitted from the portable information terminal 2, and converts the format into a file format corresponding to the model information. To do.
[0038]
The transmission means 38 transmits the music data generated in this way to the portable information terminal 2 that is the transmission source via the network 4, and outputs the music data so that it can be viewed there. When this music data is transmitted to a third-party portable information terminal 2 as a melody mail, the music data is transmitted to a mail address related to the transmission destination.
[0039]
Next, a music data generation flow in the music data generation system 1 configured as described above will be described with reference to FIGS.
[0040]
First, when a melody mail is transmitted to another person, as shown in the flow of the portable information terminal 2 in FIG. 5, a predetermined program is started on the portable information terminal 2 to input a melody or music genre using operation keys or the like. Acceptance and the input of the mail address of the melody mail transmission destination are accepted (step S1). Then, on condition that a transmission instruction is input (step S2), the melody, music genre, and e-mail address of the transmission destination are transmitted. At this time, transmission destination information such as the e-mail address of the portable information terminal 2 is transmitted. And model information are also read out and transmitted together (step S3).
[0041]
When the music data generating device 3 receives the information (step T1), first, the melody and key are determined based on the received melody (step T2). In the determination of the melody and key, first, keys that include them as intones are extracted in the order in which the pitch names appear, and thereafter, key candidates are narrowed down every time a new pitch name appears. After the last note is processed, if only one candidate key is left, the key is left as undecided. However, at this stage, since the method of deciding is undecided, there remains a possibility of adjustment for each of the long and short merits. In this state, the deciding method is determined as follows. That is, the melody is determined so that the last sound becomes the main sound. That is, if the last note of the melody is “do” by “moving de”, it is determined to be a major key, and if “la”, it is determined to be a minor key. In other cases, the main sound is determined so that the appearance frequency of the main sound, the subordinate sound, and the subgeneric sound increases by looking at the appearance frequency of each pitch name. If no candidates are found as a result of narrowing down the key, it is checked whether any key candidate remains by removing any one note name, and if it remains, it is determined as a key. Usually, in that case, it is in minor key, and the removed sound corresponds to the guided sound (lower semitone of the main sound), but if there is still no key candidate, check the appearance frequency of the pitch name and make the same judgment as the above-mentioned melody judgment Is combined with key judgment. In this case, the mode and key are determined at the same time. Confirm that the last note of the melody is the one in the main chord. If candidates remain as a result of narrowing down the key, the appearance frequency of the pitch name is examined, and after narrowing down the candidates, the melody and key are determined in the same manner as above.
[0042]
Then, a chord generation process is performed on the melody whose melody and key are determined in this way (step T3). In this chord generation process, first, as shown in FIG. 6, a melody approach note determination process is performed (step T30). In this approach note determination process, first, a chord candidate group is generated based on the approach note to be confirmed and the assumed approach note (step T31). Then, it is determined whether or not the chord progression by the generated chord candidate group is suitable for the chord progression of the selected music genre (step T32). The assumed approach note of the chord area is corrected to determine approach notes of all the common chord areas (step T33). Next, when the approach notes of all the common chord areas are determined in this way, the approach notes are removed from the melody and a chord is generated based on the remaining constituent sounds (step T34). The chord generation is performed separately from the chord progression of the music genre. When a plurality of chords are generated in the common chord area, a degree of consistency with the melody is given (step T35). Then, using this degree of matching, one chord is selected according to the music genre statistics based on the second order Markov model (step T36).
[0043]
Next, the accompaniment data added to the generated chord and the like is read from the storage means 30 (step T4). The accompaniment data is extracted by grasping the transmitted music genre and reading the accompaniment data corresponding to the music genre from the storage means 30.
[0044]
Then, music data is generated by integrating these melody, chords, and performance pattern data (step T5), and this music data corresponds to the model information so that it can be viewed on the portable information terminal 2 that is the transmission source. The file data is converted into media data (step T6). Then, the converted music data is confirmed to be transmitted to the transmission source portable information terminal 2 together with the identification information corresponding to the music data (step T7), and the music data which is the transmission result and the music data corresponding to the music data are confirmed. The identification information is stored in the storage means 30 (step T8).
[0045]
In the portable information terminal 2 that has received the music data (step S4), the music data is output for viewing (step S5), and if the user determines that the melody and the chord do not match, The input to that effect is permitted (step S6) and transmitted to the music data generating device 3 (step S7). In this transmission, identification information corresponding to the previously assigned music data is transmitted.
[0046]
Based on this, the music data generating device 3 generates music data having a chord different from the chord included in the music data corresponding to the identification information (steps T3 to T8). Then, after repeating these viewing and correction processes, when music data desired by the user is generated, the music data is transmitted as a melody mail to the third-party portable information terminal 2 or the like (step T9).
[0047]
As described above, in the above embodiment, the approach note is first determined from the melody, and the chord is generated based on the constituent sound excluding the approach note. Therefore, the chord can be generated with a small amount of calculation. In addition, it is possible to generate music data that more reliably matches the melody.
[0048]
Also, in this embodiment, when it is not possible to determine whether or not it is an approach note, first, a chord candidate group is generated by setting an approach note in a tentative form, and this chord candidate group is a general chord progression. If not, the approach note interpretation of the non-conforming common chord region is corrected, so the accuracy of approach note determination can be increased, and a chord that conforms to the melody can be generated. Will be able to.
[0049]
Furthermore, based on the approach note corrected in this way, a plurality of chords in the common chord region are generated, and in addition to this, a chord that considers the characteristics of the music genre is generated. It is possible to generate optimal music data in consideration of the chord setting (vertical chord setting) and the chord setting based on the chord progression (horizontal chord setting).
[0050]
In addition, this invention can be variously changed without being limited to the said embodiment.
[0051]
For example, in the above-described embodiment, the music data generation system 1 including the portable information terminal 2 and the music data generation device 3 has been described. However, the present invention is not limited to this, and it is possible to input a melody and generate chords with a single device. Processing may be performed. In this case, the “system” in the present invention is interpreted as a single device. In addition, the device in this case is not limited to a mobile phone or a personal computer, but can be applied to an electronic piano or the like.
[0052]
In the above embodiment, the case where an incoming melody, a melody mail, or the like is generated has been described. However, the present invention is not limited to this, and music data for appreciation or music data for composition support may be generated.
[0053]
Furthermore, in the above embodiment, when generating a chord, the melody and key are first determined. However, when inputting the melody, the melody is input after the user determines the melody and key in advance. Alternatively, the melody and key may be determined by default, and melody input may be accepted in this state.
[0054]
In addition, when a chord is generated, a plurality of chords are generated based on the finally determined approach note, and a chord according to the music genre is generated from the secondary Markov model. Of the plurality of chords generated in the common chord area, the chord having the highest degree of matching may be extracted.
[0055]
【The invention's effect】
In the present invention, the approach note is determined from the input melody, and the chord is generated from the constituent sound excluding the approach note. Therefore, the chord can be generated with a small amount of calculation, and the melody is adapted. Chords can be generatedAlso, since the approach notes that cannot be determined only within the common chord area are determined based on the preceding and following common chord areas, it is possible to determine the approach notes more reliably and generate a chord adapted to the melody. Will be able to.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of a music data generation system according to an embodiment.
FIG. 2 is a functional block diagram of the music data generation system according to the embodiment.
FIG. 3 is a memory map showing information stored in storage means of a portable information terminal
FIG. 4 is a memory map showing information stored in storage means of the music data generation device
FIG. 5 is a flowchart of a music data generation system according to the embodiment.
6 is a detailed flowchart of chord generation processing in FIG.
[Explanation of symbols]
1 ... Music data generation system
2 ... Mobile information terminal
3. Music data generator
20 ... Input acceptance means
24 ... Output means
33 ... Approach note judging means
34 ... Chord generating means
36. Integration means

Claims (4)

入力された旋律に基づいて和音付けされた音楽データを生成する音楽データ生成装置において、
与えられた旋律の中から共通和音領域内のアプローチノートを判定するアプローチノート判定手段と、この判定されたアプローチノートを除く構成音に基づいて共通和音領域内の和音を生成する和音生成手段と、この生成された和音と前記旋律とを統合する統合手段と、この統合された音楽データを出力する出力手段とを備え、前記アプローチノート判定手段が、与えられた旋律の中から仮のアプローチノートを判定して仮の和音候補を生成し、この仮の和音候補を含む和音進行が、あらかじめ記憶手段に記憶されている和音進行に適合していない場合に、その和音進行に適合していない共通和音領域における仮のアプローチノートの解釈を修正するものである音楽データ生成装置。
In a music data generation device that generates music data that is chorded based on an input melody,
An approach note determining means for determining an approach note in the common chord area from the given melody; a chord generating means for generating a chord in the common chord area based on the constituent sound excluding the determined approach note; An integration means for integrating the generated chord and the melody and an output means for outputting the integrated music data, and the approach note determination means takes a temporary approach note from the given melody. A temporary chord candidate is generated by determination, and when the chord progression including the temporary chord candidate is not suitable for the chord progression stored in the storage unit in advance, the common chord that is not suitable for the chord progression A music data generation device for correcting the interpretation of a temporary approach note in a domain .
前記和音生成手段が、前記アプローチノート判定手段によって判定されたアプローチノートを除いた構成音に基づき、共通和音領域内において複数の和音の候補を生成し、その中から旋律との整合度を考慮した和音を抽出するものである請求項に記載の音楽データ生成装置。 Said chord generating means, based on the component notes except for the approach note is determined by the approach note determination means generates a plurality of candidate chords in a common chord region, considering matching degree between melody from the The music data generation device according to claim 1 , which extracts chords. 入力された旋律に基づいて和音付けされた音楽データを生成する音楽データ生成方法において、
与えられた旋律の中から共通和音領域内のアプローチノートを判定するステップと、この判定されたアプローチノートを除く構成音に基づいて共通和音領域内で和音を生成するステップと、この生成された和音と前記旋律とを統合するステップと、この統合された音楽データを出力するステップとを備えてなり、
前記アプローチノートを判定するステップが、与えられた旋律の中から仮のアプローチノートを判定し、この仮のアプローチノートに基づいて和音候補を生成するステップと、この生成された仮の和音候補を含む和音進行が、あらかじめ記憶手段に記憶されている和音進行に適合しているか否かを判定するステップと、この判定結果に基づいて和音進行に適合していないと判定された場合、適合していない共通和音領域における仮のアプローチノートの解釈を修正するステップを有するものである音楽データ生成方法。
In a music data generation method for generating music data that is chorded based on an input melody,
Determining an approach note in the common chord region from the given melody, generating a chord in the common chord region based on the constituent sound excluding the determined approach note, and the generated chord And the step of integrating the melody and the step of outputting the integrated music data ,
The step of determining the approach note includes a step of determining a temporary approach note from a given melody, generating a chord candidate based on the temporary approach note, and including the generated temporary chord candidate The step of determining whether or not the chord progression matches the chord progression stored in the storage means in advance, and if it is determined that the chord progression is not suitable for the chord progression based on the determination result, the chord progression is not suitable A music data generation method comprising a step of correcting an interpretation of a temporary approach note in a common chord region .
前記和音を生成するステップが、アプローチノートの判定ステップによって判定されたアプローチノートを除いた構成音に基づき、共通和音領域内において複数の和音を生成し、その中から旋律との整合度を考慮した和音を抽出するものである請求項に記載の音楽データ生成方法。 The step of generating the chord generates a plurality of chords in the common chord region based on the constituent sounds excluding the approach note determined in the approach note determination step, and considers the degree of consistency with the melody from the plurality of chords music data generation method according to claim 3 extracts a chord.
JP2003097483A 2003-03-31 2003-03-31 Music data generation system, music data generation device, and music data generation method Expired - Fee Related JP4139878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003097483A JP4139878B2 (en) 2003-03-31 2003-03-31 Music data generation system, music data generation device, and music data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003097483A JP4139878B2 (en) 2003-03-31 2003-03-31 Music data generation system, music data generation device, and music data generation method

Publications (2)

Publication Number Publication Date
JP2004302318A JP2004302318A (en) 2004-10-28
JP4139878B2 true JP4139878B2 (en) 2008-08-27

Family

ID=33409254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003097483A Expired - Fee Related JP4139878B2 (en) 2003-03-31 2003-03-31 Music data generation system, music data generation device, and music data generation method

Country Status (1)

Country Link
JP (1) JP4139878B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225661A (en) * 2006-02-21 2007-09-06 Univ Of Tokyo Music information analysis method and device
JP7069819B2 (en) * 2018-02-23 2022-05-18 ヤマハ株式会社 Code identification method, code identification device and program
CN113035161A (en) * 2021-03-17 2021-06-25 平安科技(深圳)有限公司 Chord-based song melody generation method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2004302318A (en) 2004-10-28

Similar Documents

Publication Publication Date Title
US6395970B2 (en) Automatic music composing apparatus that composes melody reflecting motif
JP5047163B2 (en) Audio data automatic generation method and user terminal and recording medium using the same
CN105740394A (en) Music generation method, terminal, and server
JP3570332B2 (en) Mobile phone device and incoming melody input method thereof
CN1770258B (en) Rendition style determination apparatus and method
JP2001331175A (en) Device and method for generating submelody and storage medium
JP4139878B2 (en) Music data generation system, music data generation device, and music data generation method
JP2001318677A (en) Portable telephone set
US5302776A (en) Method of chord in electronic musical instrument system
TWI319990B (en) Game machine, game system and program
US8259916B2 (en) Musical caller ID apparatus and method
KR20070016750A (en) Ubiquitous music information retrieval system and method based on query pool with feedback of customer characteristics
JP3646703B2 (en) Voice melody music generation device and portable terminal device using the same
US20040173083A1 (en) Music data producing system, server apparatus and music data producing method
JP4174028B2 (en) Music image output system and music image output method
JP2008209535A (en) System and method for generating music information
JP3694698B2 (en) Music data generation system, music data generation server device
US8270596B2 (en) Musical caller ID apparatus and method
US20030070536A1 (en) Device comprising a sound signal generator and method for forming a call signal
JP4286583B2 (en) Waveform dictionary creation support system and program
JP2003223178A (en) Electronic song card creation method and receiving method, electronic song card creation device and program
JP2007163875A (en) Voice synthesizer and voice synthesis program
JP4534966B2 (en) Tone setting device and program
JP6667332B2 (en) Karaoke system
JP2000349862A (en) Telephone system and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060613

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20060630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees