JP2715412B2 - Music device with melody analysis function and automatic composer - Google Patents

Music device with melody analysis function and automatic composer

Info

Publication number
JP2715412B2
JP2715412B2 JP62146963A JP14696387A JP2715412B2 JP 2715412 B2 JP2715412 B2 JP 2715412B2 JP 62146963 A JP62146963 A JP 62146963A JP 14696387 A JP14696387 A JP 14696387A JP 2715412 B2 JP2715412 B2 JP 2715412B2
Authority
JP
Japan
Prior art keywords
sound
melody
chord
motif
harmonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62146963A
Other languages
Japanese (ja)
Other versions
JPS63311395A (en
Inventor
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP62146963A priority Critical patent/JP2715412B2/en
Priority to US07/177,592 priority patent/US4926737A/en
Publication of JPS63311395A publication Critical patent/JPS63311395A/en
Priority to US07/447,581 priority patent/US5099740A/en
Application granted granted Critical
Publication of JP2715412B2 publication Critical patent/JP2715412B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 [発明の技術分野] この発明はメロディ分析機能付音楽装置及び自動作曲
機に関する。 [背景] 自動作曲機の良否に関し、考慮すべき重要な要素の1
つは、人間がこれまで親しんできたような楽曲、換言す
れば、純機械的ではなく音楽性に富む曲を生成する潜在
能力をその作曲機がもちあわせているかどうかというこ
とである。 例えば、特願昭56-125603号(特公昭60-40027号)に
は、一連の音高データ(例えば、12音階のデータ)から
個々の音高データをランダムにサンプルし、サンプルし
たものが限られた条件を満足すれば、それをメロディノ
ートとして採択し、条件を満たさなければメロディノー
トとしては採択せず、再度、サンプルし直して条件検査
をくり返す方式の自動作曲機が開示されている。したが
って、この自動作曲機のメロディ生成プロセスは基本的
にトライアンドエラー方式である。音高データをランダ
ムにサンプルした段階では完全に無秩序な音高の列がで
きあがる。この無秩序な音高の列のままでは、全くメロ
ディとしては成立し得ない(天文学的な偶発性によって
よいメロディができる可能性はあるが)。そこで、この
無秩序になんらかの秩序をもたらすために、条件検査と
いう一種のフィルタリング(選別)を行っている。この
場合、選別の程度が重要な要素になる。選別がきつすぎ
れば、生成されるメロディはワンパターン化するであろ
うし、ゆるすぎれば、元の無秩序性が支配的となるであ
ろう。 上記の自動作曲機は、人間がなれ親しんできたメロデ
ィというよりは、作風のとらえどころがないメロディを
作曲するのに適しており、主として、聴音訓練や演奏練
習用の曲作成装置として有効である(なじみのない斬新
な曲は採譜や演奏が一般に困難になる)。この意味で冒
頭にあげた能力はもちあわせていない。 このような点に鑑み、本件出願人は、ユーザーより入
力されたモチーフをきっかけとして、そのモチーフを展
開、成長させ、曲の一貫性、多様性、階層性をコントロ
ールできる自動作曲機を出願している(特許出願、名称
「自動作曲機」、昭和62年4月8日出願および昭和62年
5月20日出願)。その基本構成として、ユーザーより与
えられたモチーフを評価、分析する手段と、評価結果で
あるモチーフ特徴パラメータを基に生成すべきメロディ
のアウトライン、スタイルを計画、連想するメロディ制
御パラメータ発生手段と、計画された制御パラメータと
コード進行情報に従ってメロディを具体的に生成するメ
ロディ生成実行手段とが開示されている。 これらの出願に係る自動作曲機は、曲の全体的特徴、
雰囲気、スタイルをコントロールしており、作曲に計画
性があり、多様性、階層性に富む曲をつくることが可能
である。これが大きな利点の1つとなっている。第2の
特徴は、モチーフがユーザーから入力され、そのモチー
フを基に作曲がなされる点である。この特徴は、ユーザ
ーの満足度を深め、作曲への参加意識を高める上で有効
に機能する。 第3の特徴は、和音声と非和音声とを区別して取り扱
うアプローチを採用していることである。すなわち、上
記モチーフ評価手段(モチーフ特徴パラメータ抽出手
段)には、モチーフに含まれる非和声音と和声音に関す
る和声的特徴パラメータを抽出する機能が含まれてお
り、メロディ生成手段(メロディ制御パラメータ発生手
段とメロディ生成実行手段)の方にも、抽出された和声
的特徴パラメータ(例えば和声音数、分散和音の型、各
種非和声音数)が反映される形式でメロディを生成する
機能が含まれている。このような、和声音/非和声音の
区別機能は、生成される曲を機械的でなく音楽性に富む
ものにするのに役立つ。 さらに、第3の特徴とも関係するが、上記和声特徴パ
ラメータ抽出手段は、メロディ和声学的な分析機として
利用することができる。メロディ分析機を通じて、学習
者は、メロディラインにおいて、非和声音がもつ音楽的
働き、和声音の機能などを容易に習得することができ
る。 上述の出願では、メロディ分析に関係するものとし
て、非和声音分類抽出手段が示されている。この非和声
音分類抽出手段の論理は、モチーフ(メロディ)の音高
列を音程進行行列に変換し、この音程進行列を各種非和
声音の成立条件(パターン)と比較し、マッチすればモ
チーフ(メロディ)内の対応する音がその非和声音であ
ると推定する、というものである。音高列から音程進行
列への変換は前後の音の高さの差を演算する手段で実行
している。 この発明は、上述の論理とは別の新しい論理により非
和声音を抽出ないし分類化を行うことを特徴としてい
る。 [発明の目的] すなわち、この発明の目的は、新規なアプローチによ
り、メロディの和声学的な評価を自動的に行うメロディ
分析機能付音楽装置を提供することである。もうひとつ
は、上述したタイプの自動作曲機、即ち、本件出願人に
係る特許出願、名称「自動作曲機」、昭和62年4月8日
出願(特願昭62-86571号)および昭和62年5月20日出願
(特願昭62-121037号)に記載された自動作曲機を改良
することであり、特に、モチーフの分析に関して改良を
施した自動作曲機を提供することである。 [発明の要点] 上記の目的達成のため、本発明によれば、音高と音長
の情報を含む音データの列をモチーフとして入力するモ
チーフに入手段と、入力されたモチーフを特徴づける特
徴パラメータを抽出するモチーフ特徴パラメータ抽出手
段と、生成すべきメロディの音楽背景進行を表わすコー
ド進行情報を少なくとも記憶するコード進行記憶手段
と、上記コード進行情報と上記抽出された特徴パラメー
タとに基づき、メロディを生成するメロディ生成手段
と、を備える自動作曲機において、入力されたモチーフ
の音楽背景を表わすコードを入力するコード入力手段を
設け、上記モチーフ特徴パラメータ抽出手段は、入力さ
れたモチーフの各音について、その音の音名(以下、モ
チーフ音名という)と入力されたコードの構成音とを比
較し、入力されたコードの構成音のなかにモチーフ音名
と同じ音名のものが含まれる場合には、その音を和声音
として決定し、含まれない場合には非和声音として決定
する和声音/非和声音決定手段を含む、ことを特徴とす
る自動作曲機が提供される。 この構成の場合には、次のような利点が得られる。す
なわち、ユーザー、特に音楽的素養のある人にとって
は、同じメロディラインであっても、表現したい音楽世
界との関係において、いくつかの有力なコードの候補の
なかから、すきなコードを選択することができる。これ
に対し、本自動作曲機はそのモチーフ特徴パラメータ抽
出手段内に含まれる和声音/非和声音決定手段におい
て、モチーフに含まれる非和声音を識別ないし抽出す
る。そして、この抽出結果から和声的特徴パラメータ
(例えば、和声音数、非和声音数、分散和音の音高パタ
ーン)が得られる。この情報は自動作曲機のメロディ生
成手段に渡され、この情報に則したメロディが生成され
る。ユーザーは出来上ったメロディが気に入らなけれ
ば、次に有力と思われるコードをモチーフのコードとし
て入力することができる。今度、抽出される和声的なモ
チーフ特徴パラメータは前とは違ったものになり、これ
らのパラメータは生成されるメロディに反映されるわけ
であるから、出来上ったメロディも当然、前とは違った
ものになる。このようなプロセスを踏むことにより、ユ
ーザーの希望するメロディがより効果的に得られると期
待される。 好ましい構成例では、上記モチーフ特徴パラメータ抽
出手段は、さらに、非和声音として決定される各音につ
いて、上記和声音/非和声音決定手段の決定結果に従っ
て、上記モチーフを表現する音データの列をパターン分
析してその音の非和声音の種類を決定する種類決定手段
を含む。 なお、後述する実施例では、メロディ生成手段内に、
各種の非和声音を付加する手段が含まれており、この種
類別非和声音付加手段との関係において、モチーフを分
析する側にも、非和声音として決定されたモチーフ音の
非和声音の種類を決定する種類決定手段が設けられてい
る。このような非和声音の種類決定手段と種類別非和声
音付加手段との組合せは、生成するメロディをよりきめ
細かく制御するのに有効である。 更に、この発明によれば、音高(MDi)と音長(MRi)
の情報を含むメロディ音データの列をメロディ情報とし
て入力するメロディ入力手段(1)と、上記メロディ情
報が表わすメロディの音楽背景を表わすコード情報を入
力するコード入力手段(1)と、上記メロディ情報が表
わすメロディの各音について、その音が上記コード情報
のコード構成音かどうかを調べ、コード構成音であるな
らばその音を和声音として決定し、コード構成音でない
ならばその音を非和声音として決定する和声音/非和声
音決定手段(9、第9図)と、上記メロディ情報の音高
列から、非和声音として決定された音のデータを除去し
て、和声音の音高列(LLi)、即ち分散和音の音高列を
形成する分散和音型形成手段(9、第14図)と、形成さ
れた分散和音の音高列における音高の動きに関するモー
ションパラメータを決定するモーションパラメータ決定
手段(9、第18図)と、を有することを特徴とするメロ
ディ分析機能付音楽装置が提供される。 この構成によれば、メロディの骨格としての分散和音
についてその音高列のパターンを得ることができるとと
もに、その音高の動き(モーション)に関する情報を得
ることができる。 上記モーションパラメータ決定手段はモーションパラ
メータとして上記分散和音の音高列における隣り合う和
声音間に形成される最大のモーションを表わすパラメー
タを算出する最大モーション算出手段を含み得る。 また、上記モーションパラメータ決定手段はモーショ
ンパラメータとして、上記分散和音の音高列における隣
り合う和声音間の各対((和声音対)について、音高が
同じ和声音対の数を算出する同音進行パラメータ算出手
段を含み得る。 更に、この発明によれば、音高(MDi)と音長(MRi)
の情報を含むメロディ音データの列をメロディ情報とし
て入力するメロディ入力手段(1)と、上記メロディ情
報が表わすメロディの音楽背景を表わすコード情報を入
力するコード入力手段(1)と、上記メロディ情報が表
わすメロディの各音について、その音が上記コード情報
が表わすコードの構成音かどうかを調べ、構成音である
ならばその音を和声音として決定し、構成音でないなら
ばその音を非和声音として決定する和声音/非和声音決
定手段(9、第9図)と、上記メロディ情報の音長列の
なかで、非和声音として決定された音の音長を隣りにあ
る和声音として決定された音長に吸収させることによ
り、和声音の音長列、即ち分散和音のリズムパターンを
形成する分散和音リズムパターン形成手段(9、第15
図)と、を有することを特徴とするメロディ分析機能付
音楽装置が提供される。 この構成によれば、入力されたメロディのなかで非和
声音として決定した音を除去してメロディを和声音のみ
の音列とみなしたときの音長列(分散和音の音長列)を
得ることができる。分散和音の音長列の形成のために、
非和声音として決定した(であると推定した)各音の音
長は隣りの和声音として決定した(であると推定した)
音の音長に吸収される。この結果、得られる分散和音の
音長列はメロディの原型の音長列を表わしているとみる
ことができる。 [実施例] 以下、この発明の実施例について説明する。 本実施例はこの発明の原理を自動作曲機に適用した例
である。この発明と関係する実施例の特徴部分は、自動
作曲機の全体の機能のうちで、モチーフからモチーフ特
徴パラメータを抽出する機能部分(第2図のF10、第9
〜第11B図、第14図、第15図、第18図)にある。この発
明の和声音/非和声音決定手段、非和声音の種類決定手
段について、これらを最もよく表わしている図は第9図
(和音性/非和声音決定手段の一態様のフローチャー
ト)、第10図(種類決定手段の一態様のフローチャー
ト)、第11A図(種類決定手段の別の態様のフローチャ
ート)、第11B図(種類決定手段の更に別の態様のフロ
ーチャート)である。また第14図は入力メロディ(モチ
ーフ)から非和声音として決定された音のデータを除去
し、和声音の音高列、即ち分散和音の音高列を形成する
分散和音形成手段の一態様を表わすフローチャートであ
る。このフローチャートでは分散和音の音高列(和声音
の型のパラメータ)における各音高LLkをコード構成音
の音名ではなく番号で表現している。この表現形式は、
特定のコードの構成音の内容(音名情報)に依存しない
意味で、コードとは独立した表現である。また、第18図
は分散和音の音高列における音高の動き(モーション)
に関するモーションパラメータを決定するモーションパ
ラメータ決定手段の一態様のフローチャートである。こ
のフローチャートでは、モーションパラメータとして分
散和音の隣り合う和声音間に形成される最大のモーショ
ン(LLk+1とLLkとの差分の最大値PA1、2)、及び音高
が同じ隣り合う和声音対の数(PA1、6)を求めている。
この最大のモーションPA1、2は分散和音の音高列の「な
めらかさ」の1つの尺度である。パラメータPA1、6は同
音進行のパラメータと呼ばれる。 また、第15図は入力メロディ(モチーフ)の音長列の
なかで非和声音として決定された音の音長を隣りにある
和声音として決定された音長に吸収させることにより、
和声音の音長列、即ち分散和音のリズムパターン(和声
音の音長パターン)を形成する分散和音リズムパターン
形成手段の一態様を表わすフローチャートである。この
フローチャートでは、非和声音として決定された音長を
和声音と決定した前後のいずれの音に吸収させるかを第
16図に示すようなパルススケールの重みに従って決めて
いる。 本自動作曲機の基本部分は上述した特許出願、即ち、
本件出願人に係る特許出願、名称「自動作曲機」、昭和
62年4月8日出願(特願昭62-86571号)および昭和62年
5月20日出願(特願昭62-212037号)に開示した作曲機
のタイプに属しているのでこれら特許出願を参照された
い。添付図面において、基本部分の詳細は、第12図〜第
49図に示されている。 〈全体構成〉 自動作曲機の全体回路構成を第1図に示す。図中、1
は入力装置、2はコード構成音メモリ、3はコード進行
メモリ、4は根音データメモリ、5は音階の重みデータ
メモリ、6はモチーフメモリ、7はパラメータBメモ
リ、8は楽節識別データメモリ、9はCPU、10はワーク
メモリ、11はパラメータCメモリ、12は学習データメモ
リ、13はメロディデータメモリ、14はモニター、15はCR
T、16は五線譜プリンタ、17は楽音形成回路、18はサウ
ンドシステム、19は外部記憶装置である。 上記モチーフメモリ6は、入力装置1より入力される
モチーフ(入力メロディ)の情報を格納するところであ
る。モチーフ情報は音高と音長(音価)のデータの列で
構成される。自動作曲に際し、CPU9はこのモチーフ情報
からそのモチーフを特徴づけるパラメータ(モチーフ特
徴パラメータ)を抽出することになる。 上記コード進行メモリ3には、コードネームの列で表
現されるコード進行情報が格納される。コード進行情報
は、入力装置1より、ユーザーが逐次、コードを指定し
て入力してもよく、あるいは、大ざっぱな指定(例えば
楽曲の形式の指定)に応答して、CPU9がコード進行を自
動生成するようにしてもよい。コード進行の自動生成
は、例えば、基本的なコードパターン(多用されるコー
ドパターン)の連結、あるいは許されるコード相互の連
結によって可能であり、連結の論理としては、例えばマ
ルコフ連鎖のモデルが使用できる。ただし、曲全体のコ
ード進行がユーザーにより直接的に指定されるか、マシ
ンにより自動的に生成されるかは本発明にとって重要な
ことではない。 しかし、モチーフのコードに関してはユーザーの指定
したコードが入力装置1より入力され、これは重要なポ
イントである。換言すれば、コード進行メモリ3は少な
くともメロディのコード進行を記憶するものである。モ
チーフのコードと、モチーフに後続するメロディのコー
ドないしコード進行との自動連結については上述したマ
ルコフ連鎖モデルで実現できる。 コード構成音メモリ2には各種のコードの構成音(コ
ードメンバーの音高データ)が格納されており、本例の
場合、上記コード進行メモリ3の各アドレスの内容(コ
ードネーム)より、コード構成音メモリ2上の特定のコ
ード構成音データの格納エリアが指定されるようになっ
ている。CPU9は、自動作曲の際、コード変更のタイミン
グごとに(例えば1小節ごとに)、コード進行メモリ3
のアドレスを進め、その内容であるコードネームからコ
ード構成音メモリ2上のアドレスを算出し、コードを構
成する各音高データを読み出す。 根音データメモリ4にはコードの根音データが記憶さ
れ、音階の重みデータメモリ5には音階(ノートスケー
ル)を構成する各音高についてその有効性の度合を示す
重みデータ、すなわち重み付けられたノートスケールデ
ータが記憶されている(ノートスケールデータのセット
を記憶するメモリ)。自動作曲の際、適当な方法により
音階が選択され、この音階の重みデータが読み出され
る。根音データメモリ4は読み出した音階の重みデータ
を根音シフトするのに利用される。 一方、パラメータBメモリ7にはメロディの流れにお
ける一貫性と多様性をコントロールするためのデータ
(パラメータB)が格納されている。また、より高次の
階層性を曲にもたせるために、楽式識別データメモリ8
が使用される。このメモリ7とメモリ8にはユーザー領
域、すなわち、ユーザーの指定したパラメータを記憶す
るリード/ライトエリアが用意されている。自動作曲の
際、CPU9はパラメータB、楽式識別データ(デコード後
のデータ)、上記モチーフ特徴パラメータ、楽曲進行区
間変数(例えば小節番号)に依存するパラメータC(メ
ロディ計画情報)を作成する。パラメータCは生成する
メロディを制御もしくは特徴づける性質をもっている。
生成されたパラメータCはパラメータCメモリ11に格納
される。 ワークメモリ10には、CPU9が自動作曲するプロセスに
おいて生成する中間データ(例えば、加工中のメロディ
データ)などが記憶される。 メロディデータメモリ13には完成された曲を構成する
メロディデータが記憶される。 完成された曲は必要に応じて、モニター14に出力する
ことができる。例えば、楽音形成回路17、サウンドシス
テム18を通して試聴することができる。また、五線譜プ
リンタ16より、楽譜の写しを得ることができる。 モニター14を通じて使用者は、部分的に曲を修正する
ことを望む場合がある。本実施例においては、このよう
な場合、CRT15と入力装置1を介して、ユーザーは修正
を要求することができ、インターラクティブな形式で修
正が実行される。修正されたデータは学習データメモリ
12に知識として蓄積される。後の自動作曲に際し、CPU9
はこの知識を利用して、メロディを生成する。 外部記憶装置19は、完成した曲のバックアップコピー
や、学習した知識、その他の写し、あるいは、代りとな
る自動作曲プログラムの資源として利用される。 〈自動作曲機能〉 次に自動作曲機の全体的な機能について、第2図を参
照して説明する。 図に示すように、主な機能として、モチーフデータよ
りその特徴を評価、抽出するモチーフ特徴パラメータ抽
出手段F10と、この手段F10より与えられる情報(包括的
にPAで示してある)からメロディを制御するための情報
(包括的にPCで示してある)を発生するメロディ制御情
報発生手段F20と、この手段F20より与えられる情報PCに
従って具体的にメロディ(単旋律)を生成するメロディ
生成実行手段F30がある。 後の説明からさらに明らかとなるが、本発明の特徴
は、手段F10に送り込まれる情報のなかに、モチーフに
対してユーザーが想定した和音情報(コードデータ)が
含まれる点と、手段F10内において、この和音情報を活
用してモチーフの和声的特徴パラメータ(和声音数、非
和声音数、分散和音の型など)を抽出する内部構成にあ
る。和音情報は第1図において入力装置1を通じて入力
された情報である。 一方、メロディ制御情報発生手段F20はモチーフ特徴
パラメータPAを基にメロディを連想し、計画する能力を
もっており、メロディ生成実行手段F30はこの計画(PC
により表現される)を解読し、計画に沿ってメロディを
生成する規則を備えている。広義には、手段F20とF30と
によりメロディ生成手段が構成される。一方、推論の面
からはモチーフ特徴パラメータ抽出手段F10とメロディ
生成実行手段F30とは基本的に逆の関係になっており、
モチーフ特徴パラメータ抽出手段F10が具体的なモチー
フ(入力メロディ)からそのエッセンスである特徴パラ
メータPAを導出する推論能力を備えるのに対し、メロデ
ィ生成実行手段F30はエッセンスであるメロディ特徴パ
ラメータPCから具体的なメロディを導出する推論能力を
備えている。メロディ制御情報発生手段F20の計画空間
は広大であり、PAをPCに反映させる度合を自由にそして
多様にコントロールすることができる。 このF20のセクション内に示すパラメータBと楽式識
別データは、ユーザーが入力装置1を介して作成したデ
ータであり得る。使用するパラメータBと楽式識別デー
タが変われば、メロディ制御情報発生手段F20が出力す
る制御パラメータ(PC)も変化する。 一般に曲はその進行に従って変化する。しかし、限ら
れた時間を見れば、ある特徴は固定的である。本自動作
曲機はこの点をも配慮しており、固定的とみなす「区
間」の単位の概念をもっている。例えば、モチーフ特徴
パラメータ抽出手段F10内の各機能はある区間を単位と
してPAを抽出する。同様に、メロディ制御情報発生手段
F20はある区間ごとに割り当てられたPCの値をメロディ
生成実行手段F30に渡し、メロディ生成実行手段F30はそ
のPCの値を用いてその区間のメロディを生成する。もち
ろん、このことは、すべてのPCが同じ区間を単位として
変化するという意味ではない(PAについても同様)。PC
の種類により、値が固定化できる区間は一般に等しくは
ならない。したがって、原理的には、PCの種類ごとに異
なる区間の単位をもたせ、種類別に、異なる区間で値を
発生させるようにすることも可能である。しかし、この
ことは、処理を複雑化する。そこで実施例では、PCの種
類よりはるかに少ない種類の区間、好ましくはすべての
PCについて共通となり得る単位の区間(最大公約数の区
間)を使用する。モチーフ特徴パラメータ抽出手段F10
についても同様である。 第9図から第49図の構成においては、最も単純化され
た例として、各機能F10、F20、F30が共通の区間をもつ
ようにしている。この区間として「1小節」を選んでい
る。もちろん、本自動作曲機はこれに限定されるもので
はなく、2つ以上の異なる区間を各機能がもち得る。例
えば、音高列に対する区間と音長列に対する区間は常に
同一である必要はない。また、手段F20が小節ごとにPC
値を割り当てるのに対し、コード進行は小節を単位とし
ない区間で進行させることも可能である。 第2図の主機能F10、F20、F30の詳細について述べよ
う。 F10のセクションには入力情報として、ユーザー入力
に係るモチーフ以外に、そのモチーフに対しユーザーが
指定した和音情報(コードデータ)が送り込まれる。こ
のモチーフのコードはセクションF10内部のモチーフ音
高パターン抽出手段F11、特に非和声音抽出手段(和声
音/非和声音決定手段)F11−1Aにおいて使用される。
すなわち、手段F11−1Aは、受け取った和音の構成音と
同じ音名をもつモチーフノートを和声音と推論し、和音
構成音と不一致のモチーフノートは非和声音と推論す
る。したがって、非和声音抽出手段F11−1Aのロジック
構成は非常にシンプルであり、いったん和音情報とモチ
ーフが与えられれば、モチーフの各音に対する和声音/
非和声音の区別を一義的に行うことができる。にもかか
わらず、ユーザーが別の和音情報を指定した場合には、
別の解釈を行う。モチーフやメロディのラインに妥当す
る和音が何であるかは、作曲者、編曲者あるいは演奏家
が表現しようとする音楽世界と係っており、一般に一義
的に決定し得ない。逆にいえば、本発明は、ユーザーの
表現したい音楽を、ユーザーからの和音指定の手がかり
に推論を行っており、和音指定が変更されれば、生成さ
れるメロディにもそのことが反映される仕組になってい
る。 セクションF10において、非和声音分類手段(種類決
定手段)F11−1Bは、上記手段F11−1Aによる和声音/非
和声音の識別結果を基に、モチーフデータの音列を分析
し、個々の非和声音がどのタイプの非和声音に属するか
を決定しているところである。すなわち、和声音対非和
声音というレベルより、さらに細かいレベルでモチーフ
の和声的解釈を行っている。このことの意味は、自動作
曲機のメロディ生成部(F20、F30)とも係っており、メ
ロディ生成部には、各種の非和声音の特徴様式パラメー
タ(PCのなかに含まれている)を発生する部分(F20内
にある)と、これらのパラメータに従って非和声音を和
声音の前後あるいは和声音間に付加する部分(F31−2
A)があり、これらの協働作業により、メロディライン
における和声音/非和声音の特徴様式をきめ細かく制御
している。 分散和音パターン(音高)抽出手段(分散和音型形成
手段)F11−2は、モチーフから非和声音を取り除いた
音高のパターン、つまり分散和音の型(後述するLLi)
を抽出する部分である。 一方、モチーフ音長(リズム)パターン抽出手段F12
はモチーフの音長列に関する特徴を抽出する機能であ
る。その構成要素である特徴ミニパターン抽出手段F12
−1はモチーフに含まれる特徴的な小さな音長列を抽出
し、分散和音(リズム)パターン抽出手段(分散和音リ
ズムパターン形成手段)F12−2は、モチーフに含まれ
る非和声音の音長を和声音の音長に吸収させて和声音の
みの音長列を形成する。 上記諸要素のうち、F11−1B、F11−2、F12−2は非
和声音抽出手段F11−1Aの結果を受けて動作する。これ
らの手段は、第2図の構成において、和声的特徴パラメ
ータを抽出する機能である。より一般的にいうと、和声
的特徴パラメータはモチーフやメロディラインにおける
和声音や非和声音の様式、スタイルを特徴づけるパラメ
ータである。 メロディ制御情報発生手段F20のブロック内には区間
カウンタF23の示す区間番号に依存するパラメータを発
生する進行依存パラメータ発生手段F22が示されてい
る。このようなパラメータのなかには、曲進行により規
則的に変動するパラメータも含まれ、この種のパラメー
タはF22−1で示す規則変動パラメータ発生手段F22−1
により生成される。手段F22が発生するパラメータに対
して、乱数発生手段F24が作用し、パラメータによりコ
ントロールされた乱数あるいは変動を同パラメータに導
入することができる。上記F22とF23の要素は、PCのなか
に、上述の性質をもつパラメータが含まれることを示す
ために図示したものであり、また、演算型でない型式
(例えばパラメータCのデータベース)でもパラメータ
C(メロディ制御情報)を発生できることを明らかにす
るために示したものである。実際には、本実施例では、
パラメータCを演算型で発生させており、この演算を実
行する部分がF21で示す演算手段である。演算手段F21
は、手段F10からのモチーフ特徴パラメータPA、I1で示
すパラメータBの情報、小節カウンタF23−1の示す小
節番号、楽式識別データ発生手段F25からの楽式識別デ
ータを入力として受け、これらの入力を変数としてパラ
メータCを演算する。楽式識別データ発生手段F25は楽
節カウンタF25−1をもっており、これを使って楽式識
別データI2より特定の楽節に関する情報を選択する。楽
節に関する情報のなかには楽節のタイプ(反復型、展開
型)が含まれている。楽式識別データ発生手段F25は小
節カウンタF23−1の示す小節番号を読み、その小節番
号と楽節との位置関係を検査し、その検査結果に基づい
て関連する楽式識別データを解読(デコード)する。解
読された楽式識別データが演算手段F21に渡される。楽
式識別データ発生手段F25の役割は、曲におけるより高
次の階層性を与えることである。 以上の説明からわかるように、メロディ制御情報発生
手段F20より出力されるPCはさまざまであり、あるPCは
比較的長期にわたって一定であり、あるPCは単位区間
(ここでは1小節)に匹適する程度のサイクルで変動
し、あるPCは楽式の影響を受け、特定の区間、ポイント
で別の値に変化する、といった具合である。パラメータ
Bの値、楽式識別データの値、演算手段F21が使用する
関数のタイプなどにより、同じPAであっても、実にさま
ざまなPCが発生することになる。 換言すれば、パラメータPCは曲の局部的な様式上の特
徴、もう少し広い範囲での様式的な特徴、規則的に現わ
れるような様式的な特徴、メロディの流れにおける階層
的な様式、メロディの流れにおける非和声音の構造的な
特徴様式、メロディの流れにおける規則的もしくは準規
則的な変化の様式、曲全体にわたる特徴などをパラメー
タ表現したものである。 メロディ生成実行手段F30はその主要素として、音高
列生成手段F31と音長列生成手段F32とを有している。音
高列生成手段F31は、コード進行データI3からの進行中
のコードとメロディ制御情報発生手段F20からのPCその
ものか、乱数発生手段F31−4により変動が導入されたP
Cとを使用して分散和音の音高列を発生する分散和音発
生手段F31−1と、発生された分散和音の前後あるいは
間に、PCの計画に沿ってかつ内部の付加レールに従って
非和声音を付加する非和声音付加手段F31−2とを有し
ている。各非和声音分類付加手段F31−2Aは手段F31−2
の一構成例である。F31−3は使用音高制御手段であ
り、上記の手段F31−1またはF31−2においてその生成
過程において得られたメロディノードの候補についてそ
の使用を制御する機能をもっている。すなわち、使用音
高制御手段F31−3はノートスケール発生手段F31−3Aに
より音階の各音高に重みをつけたデータを発生させ、有
効音高検査手段F31−3Bにその重みに基づいて候補の音
高の有効性を検査させる。検査に合格したメロディノー
ドは手段F31−1、F31−2に送り返され、ここで正式の
メロディノートとして使用される。 音長列生成手段F32は最適結合手段F32−1と最適分割
手段F32−2と特徴パターン組込手段F32−3より構成さ
れ、PCの計画に従って音長列を生成する。最適結合手段
F32−1と最適分割手段F32−2は本実施例の場合、分散
和音の音長列を形成するのに使用される。最適結合手段
F32−1は初期の音長列(例えばF10の分散和音(リズ
ム)パターン抽出手段F12−2により抽出された分散和
音パターンまたはこれを修飾したパターン)を基に、目
標とする分散和音の音符数(PCによって与えられる)に
なるまで最小の結合回数で音長を結合する。同様に、最
適分割手段F32−2は初期の音長列を分散和音数PCに達
するまで最小の分割回数で音長を分割する。さらに、両
手段F32−1、F32−2はパルススケールを使用して分
割、結合を実行する。パルススケールはPC(メロディ計
画情報)の一種として手段F20より与えられるようにし
てもよいが、後述の具体例では、両手段の分割、結合ル
ールのなかにパルススケールが内在している。一方、特
徴パターン組込手段F32−3は関連するPCに従って動作
し、メロディの音長列のなかに特徴ミニパターンを組み
入れる。本例では、メロディの生成の最終過程で特徴ミ
ニパターンを注入するようにしている。 制御手段F33は、メロディ生成実行手段F30の各要素の
起動や要素間のデータの転送を制御するためのものであ
る。メロディ生成実行手段F30の実行結果であるメロデ
ィデータはメロディデータメモリ13(第1図)に格納さ
れる。 〈詳細事項〉 第3図から第49図までに、各種のデータ、モチーフ特
徴パラメータAの抽出、制御パラメータCの発生、メロ
ディの具体的発生について、詳細を示してある。紙面の
都合上、本発明の特徴部分を除き、その詳細な説明は割
愛する。当業者には、フローチャート等の明確な記述か
ら、実施可能なレベルまでその内容を容易に理解できよ
う。 理解の助けとしていくつかを簡単に述べよう。第3図
に主変数のリストが示され、第4図にパラメータCのリ
ストが示されている。これらのリストに示す各パラメー
タの記号は、第9図から第49図までのフローチャートで
使用する記号と一致している。これらのフローにおい
て、音高データの割合は第5図のbに示すようになって
おり、クロマチックスケール上の連続する音高に連続す
る整数値を与えている。また、音長については、1小節
を16等分したときの音長を単位としている。したがって
16分音符の音長は“1"であり、8分音符の音長は“2"で
ある(第6図のモチーフデータの欄に示した音長データ
MDiと音高データMRiを参照されたい)。 第6図のモチーフデータ、コード構成音データ、コー
ド進行データ、楽式識別データ、音階の重みデータ、及
び第7図のパラメータCのデータを入力条件としたとき
に得られるメロディを第8図に例示してある。 モチーフからメロディを生成するまでの全体的プロセ
スは、最初がモチーフの評価すなわちモチーフ特徴パラ
メータ(PA)の抽出であり、PA確定後は、メロディの単
位区間(小節)の制御パラメータ(PC)の演算であり、
PC確定後は具体的なメロディ生成である。 モチーフからモチーフ特徴パラメータAを抽出する処
理関係は第9図から第20図に示されている。 ここにおいて、第9図、第10図、第11A図、第11B図が
本発明の特徴と関係する非和声音抽出、分類の部分であ
り、これらについて詳細に説明しよう。 非和声音抽出 第9図に非和声音抽出のフローチャートを例示する。
その基本ロジックは次の通りである。すなわち、モチー
フノートのうち、コードの構成音と一致しない音名をも
つ音は非和声音とする。逆にいえば、コードの構成音は
いずれも和声音とするロジックである。 詳細に述べると、9−1から9−4までの部分で、モ
チーフメモリ6にあるモチーフデータの音高列{MDi}
をワークメモリ10上に用意されたエリア{HDi}に転送
している。つまり、モチーフデータの音高データをすべ
てHDiに代入している。ついでに述べると、本例ではモ
チーフの各ノートは対を成す音高データと音長データで
表現している。ただし、休符には音高の概念が存在しな
いので、音高データに特別の値を入れることでそれを表
現している。 9−5から9−15で配列{HDi}のi番目の音符につ
いて、それが和声音か非和声音であるかをコード構成音
と照合することにより識別している。識別結果は、「非
和声音」の場合にHDiに固有の値(図ではマイナス20)
を入れることで記憶している。jはコード構成音の番号
を示している。説明の便宜上、本例では、コードは、独
立の4声か、オクターブ差の2声を含む独立の3声の場
合のみを考慮している。さらに、このことと適合させる
ため、コード構成音メモリ3(第1図)には、各コード
の構成音データとして4つのデータがある。このフロー
において、コード構成音の音高データはKDjで示されて
いる。添字のjは、下からj番目の高さのコード構成音
であることを示している。 9−7に示すように、着目しているモチーフノートが
休符のときは、非和声音でないので次のモチーフノート
のチェックに移る。9−8と9−9はそれぞれ、モチー
フの音名とコード構成音の音名を算出しているところで
ある(オクターブ番号の概念の消去)。9−10は音名の
一致、不一致のチェックであり、一致であれば、着目し
ているモチーフノートは「和声音」であるので次の音符
のチェックに移る。不一致のときは、次のコード構成音
との照合に進めるため、9−12でjをインクリメント
し、9−7以下をくり返す。9−11でj≧4が成立する
のは、着目しているモチーフノートをコードのすべての
構成音と比較したが、そのいずれとも不一致の場合であ
り、つまりは「非和声音」の場合である。したがって、
9−13でそのモチーフノートの音高データHDiに非和声
音の識別値を代入する。9−14のNoはモチーフの音符の
総数である。したがって、i≧Noが成立するとき、モチ
ーフのすべての音符について、それが非和声音かどうか
の識別が完了している。よって、非和声音抽出処理は終
了する。 非和声音の分類 非和声音の分類は、上述したように非和声音の抽出結
果を基に、モチーフの音列をパターン分析することによ
り行われる。 分類化のロジックはいくつか考えられる。第10図は第
1の分類化ロジックによるフロー例であり、第11A図と
第11B図は、それぞれ第2と第3の分類化ロジックによ
るフロー例である。 第10図から説明する。10−1において、モチーフ音符
番号iを“1"に初期化し、次に、HDi≧0になるまでi
をインクリメントする(10−1、10−2)。HDi≧0は
i番目の音符が和声音であることを表わす。10−4でi
をインクリメントしていることから推測されるように、
モチーフの先頭からチェックして最初の和声音までにあ
る非和声音は他と区別している。図示のフローではこの
非和声音のHDiはマイナス20のまま抜ける(倚音、HDi=
−20)。 10−5は着目している音符が和声音もしくは休符であ
るかどうかのチェックであり、成立するときはそのHDi
を変更する必要はないので次の音符処理に進む。不成立
のとき、2の音符は非和声音である。10−6では、着目
している音符より1つ手前の音符と1つ後の音符とが同
じ高さかどうかを見ており、成立するときはHDi=−30
(刺しゅう音、10−8)を実行する。つまり、着目して
いる音符は刺しゅう音であると結論する。不成立のとき
は音高不一致とみてHDi=−40(経過音、10−7)を実
行する。つまり、経過音であると結論する。 非和声音であり、かつ最後の音符のときは、チェック
10−9においてi=Noが成立する。この非和声音は逸音
とみてHDi=−60を実行する(10−10)。10−11でi<N
oが成立するときは、また、すべての音符に対する非和
声音分類が完了していないので、i=i+1(10−4)
に戻り、次の音符の分析に移る。 なお、第10図の処理の結果得られるHDiの4種類の非
和声音識別値に対して付けた名称、すなわち「倚音」、
「経過音」、「刺しゅう音」、「逸音」は単に説明の便
宜のためである。このことは第11Aと第11B図についても
同様である。 第11A図に示す非和声音分類は第10図とほとんど同じ
である。相違は、11A−6と11A−7に示す処理が加わっ
ている点である。11A−6に示す計算、すなわち、 a1=(MDi-1−MDi)×(MDi−MDi+1) は、連続する3つの音の間に形成される音高差同士の乗
算である。 したがって、a1が正となるとき、3つの音は高さが
単調に変化(上昇または下降)していることになる。こ
の成立の有無は11A−7でみており、成立すればHDiにマ
イナス40を入れて、経過音であると結論づけている。 第11B図は第3のロジックによる非和声音分類のフロ
ーチャートである。第10図に示す非和声音分類との比較
からわかるように、(イ)経過音に関する知識(チェッ
ク項目)が増やされ、(ロ)倚音と結論する条件が若干
変更されている。 すなわち、ある非和声音(HDi)の前後を含めた3つ
の音(MDi-1、MDi、MDi+1)が単調な音高変化であり(1
1B−6、11B−8、11B−9参照)、かつ1つ前の音との
音高差が半音か全音のとき(11B−10成立のとき)の
み、その非和声音(HDi)を経過音(HDi=−40)と結論
づける。この経過音の条件が成立しないとき、その非和
声音は倚音と結論される。もう少し詳しく述べると、11
B−6に示す刺しゅう音の条件、11B−8から11B−11に
至るまでの経過音の条件、11B−12に示す逸音の条件、
のいずれにも該当しない非和声音は倚音と結論される
(HDiはマイナス20のまま抜ける)。 第12図以降の説明に移る。 第12図のリズム評価では、音長比が3対1、1対3、
1対1、2対1対1、1対2対1、1対1対2の各ミニ
パターンが、評価対象であるモチーフにどのくらい含ま
れるかを調べており、その結果を各パターンのカウンタ
HR1〜HR6に設定している。 第13図に示すパラメータ抽出は、上述したモチーフの
非和声音抽出、分類の後に行われる処理であり、ここで
各種のパラメータA(PA)を抽出している。 分散和音型形成手段である13−1の詳細は第14図に例
示されており、このフローでは、モチーフの分散和音の
音型を求めている。配列{LLi}に音型のデータが設定
される。例えば、{LLi}={3、2、1、0、1}の
ときは、次を意味する。最初の“3"はモチーフの最初に
現われる和声音が、モチーフに含まれるすべての和声音
のうちで下から3番目の高さであること、次の“2"は、
2番目に現われる和声音が、モチーフの全和声音のうち
で下から2番目の高さであること、以下、同様である。
ただし、“0"はその音符が休符であることを示している
(第14図の例、参照)。 分散和音リズムパターン形成手段である13−2の詳細
は第15図に例示されている。第15図のフローでは、モチ
ーフの音長パターンを和声音のみの音長パターン(モチ
ーフ分散和音パターン)に変換している。つまり、モチ
ーフに含まれる非和声音の音長を和声音に吸収させてい
る。第16図は第15図のフローに内在するパルススケール
であり、このパルススケールを使ってモチーフ分散和音
パターンを得ている。モチーフのオリジナル音長パター
ンから分散和音パターンへの変換は、基本的に次の原理
に従っている。すなわち、現音符(非和声音)のパルス
スケール上の重みと次音符のパルススケール上の重みを
比較し、次音符の開始位置SUMの方が重いときは、現音
符の音長MRiをその前にある和声音RHNに吸収させ、現音
符の開始位置SUMBの方が重いときは、その音長MRiを次
の和声音RHN+1に吸収させる。実行結果であるモチーフ
分散和音(音長)パターンは配列{RHi}に設定され
る。 第17図は13−3と13−4の詳細なフローの一例であ
る。先の非和声音の抽出と分類の処理を通じて、モチー
フの音高列は{HDi}に変換され、各HDi(iはi番目の
音を示す)には、その音が和声音であればその音高デー
タが入っており、非和声音であれば、非和声音のタイプ
を示す固有値(識別値)が入っている。第17図の各非和
声、和声音数の抽出フローでは、パラメータPAijを初期
化した後(一列目)、HDiの値を検査し、条件の成立の
有無に応じて、各非和声音のカウンタ(PA5、2、PA2、2
PA4、4、PA3、3)を動かしている。カウンタPA1、3には和
声音の数が入る。 第18図は13−5(最大モーション算出手段)と13−6
(同音進行パラメータ算出手段)の詳細フローの一例で
あり、ここで分散和音の音型{LLi}(第14図の処理で
得たパターン)を分析することによりなめらかさのパラ
メータPA1、2(分散和音の隣り合う和声音間に形成され
る最大のモーションを表わすもので、ここではLLk+1
とLLkの差分の最大値で与えられる)と同音進行のパラ
メータPA1、6(分散和音の隣り合う和声音の各対につい
て、同じ高さである対の数を表わす)を求めている。 第19図は13−8の詳細フローの一例である。先のリズ
ム評価(第12図)により、モチーフに含まれ得る各種ミ
ニリズムパターンの数が{HRi}に確保されており、こ
の特徴リズムパラメータの抽出では、どのミニパターン
が支配的なパターンであるかを決定している。便宜上、
第19図のフローでは、3対1の音長パターンの数HR1
1対1の音長パターンの数HR3のみ検査しており、3対
1の音長パターンが多いときはPA6、1に“3"を、そうで
ないときはPA6、1に“0"を入れている。 第20図は13−7の詳細フローの一例であり、モチーフ
の音長列{HRi}のなかで最小の音長を求め、PA3、3にセ
ットしている。 以上の具体的な説明からわかるように、モチーフ特徴
パラメータ抽出手段F10(第2図)は、自動作曲機の外
部から送られてきたモチーフデータを評価、分析し、第
2図でPAで総括的に記すパラメータを抽出する。抽出結
果はPCの生成やメロディの生成のために利用される。例
えばモチーフの和声音の音高型のパラメータ{LLi}
は、メロディの音高型の初期パラメータとして、モチー
フの和声音の音長パターン{RHi}はメロディの音長列
の初期情報として利用できる。その他のPAはPCの演算に
おいて、例えばDC成分として使用される。 第2図のパラメータ演算手段F21が実行する処理は第2
1図に示されている。第25図は連続してメロディを発生
する場合のフロー例(図中、25−8、25−27、25−28に
示すIは小節番号であり、25−10で小節番号Iの小節
(第I番目の小節)のメロディがつくられる)であり、
25−9では第21図の21−4、21−5、21−6の処理が実
行される。第21図の21−1、21−2、21−3は使用する
入力パラメータPA、PB、SBを一括読み出している部分で
ある。第21図の21−4で行う楽式識別データのデコード
については、第22図、第23図、第24図を参照されたい。
この例では、サビ(展開部)の直前、開始時におけるピ
ーク(SBP1〜SBP3)と、展開部全体にわたるホールドデ
ータ(SBH)をデコードしている。 第25図の25−10で、1小節分のメロディを具体的に生
成している。第25図のその他の部分は、モチーフデータ
やメロディデータの転送、生成する小節の番号のインク
リメントなどである。 具体的なメロディの生成は、第8図からわかるよう
に、まず和声音だけのメロディ(分散和音)の生成、次
に、各非和声音の付加、最後に休符と特徴ミニパターン
の選択的注入である。 分散和音の発生の全体フローは第26図に示してある。
このフローにおけるコード構成音の読み出し26−1、音
階の重み変更26−2、最適転回数算出26−4、コード構
成音の転回26−5の詳細は、それぞれ、第28図;第30A
図、第30B図、第31図;第32図、第33図に示してある。2
6−5が完了した時点で、使用する音階の重みデータ
(音階上の各音に割り当てた重みをもつデータ)、及び
進行中のコードとその転回形、つまり分散和音の発生で
使用する各和声音の音高が決まっている。音階の重みデ
ータはメロディの生成過程で挙がったメロディノートの
候補の有効性を検査するのに利用され、有効であれば正
式にメロディノートとして採択される。 26−6から26−42までは、その簡略化フローを第35図
に示してあり、分散和音の音高列を決定しているところ
である。このなかに示す26−15の前の音より決定の詳細
は第34図に示す。前小節の最後の音に最も近い高さの和
声音を今回の小節の最初のメロディノートに処理するで
ある。 26−11より26−12を通って26−29に進むときは、音型
の維持範囲にあるときで、維持範囲中は、前小節と同一
または逆の音型(26−31)が作成される。例えば、第8
図の(イ)分散和音に示す第2小節目は、第1小節目の
音型が上行であり、(LL1=1、LL2=2、LL3=3、LL4
=4)、第2小節目についてのPC演算部からの音型関係
のパラメータは、維持範囲が最初から4番目までの音符
であり(PC1、4=0、PC1、3=4)、またPC1、13により音
型の反転が指示されているので、下行(LL1=4、LL2
3、LL3=2、LL4=1)となる。 モチーフ小節のように、音型の維持がなされない小節
のときは、26−16より始まるランダム化による音型形成
が実行される。26−16〜26−28のなかにもパラメータC
が含まれており、これらのパラメータはランダム化を制
限するように働く。 音高の有効検査は26−35と26−36で行っている。 26−44は分散和音の音長パターンの決定である。生成
すべき小節の和声音数が、モチーフの和声音数と等しい
ときは、初期パターン(例えば、モチーフの分散和音パ
ターン)がそのまま分散和音の音長パターンとなる。 和声音数が初期パターンに含まれる和声音数より多い
ときや少ないときはパルススケールにより分割や結合を
行っている。26−44の詳細については、第36図から第41
図を参照されたい。分割の基本論理は、最小分割回数で
あるということと、1つ分割する場合に、パルススケー
ル、すなわち、(ここに、T0〜T15はパルスポイントであり、T0は小
節の頭、T8は第3拍目のタイミングを表わし、下に示
す数字は対応する重みである)で示すパルススケール
(ルールに内在している)を使用し、現在の音長パター
ンのうちで、最も重いパルスポイントをクロスしている
音符がそのパルスポイントを分割線として分割されると
いうものである。結合の基本論理は、目標音符数になる
まで最小結合回数で結合を行うということと、一つの結
合において、現在の音長列のなかで最も軽い重みで開始
している音符を前の音符と結合するという方式である。 倚音の付加(第42図)では、PC演算部より与えられた
倚音の重みPC2、2、付加位置PC2、3、音階の重みPC2、1
上行、下行PC2、4、音長制限PC2、7などの値に従い、かつ
内部の倚音付加論理に従って選択的に倚音を付加してい
る。音長については、倚音の次にある和声音の音長から
一部をとって倚音の音長にしている。 経過音付加(第43図)は基本的には和声音と和声音と
の間を経過的に結ぶ音が経過音であることから、これら
に関係する条件をみる部分や、PC演算部からのパラメー
タCの計画を解読する部分(主として第43図の第1列)
や、和声音間に経過音として使用できる音があるかどう
かをサーチ、検査する部分(主として第2列)や、見つ
けた経過音の音高変換(音高パターンへの組込)や音長
変換(音長パターンへの組込)を行う部分(主として第
3列)より成っている。 刺しゅう音の付加(第44図)は前後の和声音が同じ高
さのときにしか行われない(第1列参照)。その他にも
パラメータCによる各種の制限がある。例えば、PC4、4
は“0"のときは刺しゅう音の付加を禁止する意味をも
ち、“1"のときは1回は付加でき、“2"のときは連続し
ては付加できず、“3"のときは無制限に付加できること
を意図している。この計画を解読しているところが44−
9〜44−14、44−15である。 第3列目では、有効な刺しゅう音の音高をサーチによ
り求め、音長パターン{MED}に組み込み(44−24〜44
−30)、隣りの和声音より音長の一部をもらい受け、そ
れを音高パターン{MER}に組み込んでいる。なお第2
列の44−16〜44−20は倚音のデータを音長パターン、音
高パターンに組み込む準備としての配列シフトである。 逸音付加(第45図)でも、同様に各パラメータCを解
読する部分、違法な逸音付加を除外または検査する部分
(例えば45−2、45−3及び45−4〜45−16)。45−17
に入る時点で、逸音付加に問題がないことが決定してい
る。45−17〜45−23はフローの右下に示す区別的な処理
のためにある。一番右の列で、前の音と後の音との間に
おいて逸音となり得る音高を求め、音高パターンに組み
込んでいる。なお、逸音付加の場合は、音符数は増加し
ない。すなわち、逸音付加は小節の最後の音の音高変更
である。 休符付加(第46図)は楽節の最終小節などで最後に付
けられることが多い。 特徴リズム生成(第47図)は、特徴的なミニパターン
をパラメータCの値に従って、選択的に音長パターンに
組み込むところである。本例では、特徴リズム生成はメ
ロディ生成の最終プロセスとなっており、それまでつく
られている音長パターンを変な具合に変えてしまわない
ようにしながら、PCにより許される範囲内で特徴ミニパ
ターン、ここでは音長比が3対1のパターンを音長パタ
ーンに組み込んでいる。47−9〜47−12は、連続する2
つの音符のうちで、3対1のパターンに変換可能なもの
があるかどうかを検査しているところである。検査に合
格のときは、第3列目にて、変換を実行している。 第48図の修正学習と第49図の学習によるパラメータ変
更は、ユーザー好みのパラメータCをユーザーの選択し
た個々の小節で使用するという学習機能と関係するもの
である。修正学習(第48図)は曲完成後、モニター14を
通じてユーザーが気に入らない小節のパラメータを間接
的に指定し、これに対し学習機能が指定された小節の指
定されたパラメータの種類と値を学習メモリ12に入れ
る。学習によるパラメータ変更は第13図に示すように、
パラメータ演算のなかで行われ、作曲機が内部生成した
パラメータCよりも、ユーザーが選んだパラメータCが
優先して使用される。 〈まとめとメロディ分析機への適用〉 以上詳細に説明したところから、本実施例における自
動作曲機の諸特徴は明らかである。特に、モチーフライ
ンからその和声的特徴パラメータを抽出するために、モ
チーフに対してユーザーが意図したコード(和音)情報
を利用していることは注目に値する。このことは、実施
例においては、モチーフの非和声音抽出分類の機能を2
つの部分(和声音/非和声音決定手段と非和声音の種類
決定手段)に分けることを容易にしている。すなわち、
一般に、モチーフやメロディラインの和声的分析を行う
分析者(代表的には音楽経験のある人)にとって、非和
声音と和声音とを区別することと、どの音がどのタイプ
の非和声音であるかを識別することとは、必ずしも別個
の作業ではなく、多種多様のメロディラインを想起すれ
ば、むしろ両者は不可分の関係にあるともいえる。ここ
において、この発明では、コード情報を使用することに
より、直接的、合理的に、モチーフまたはメロディライ
ンからの非和声音の分離を行っている。また、別の側面
よりすれば、この発明は、あるメロディラインに妥当す
るハーモニーないしは和音が表現者の音楽空間との関係
において、一義的には一般に決定されないとう考え方に
根差している。ユーザーからの自由なコード指定を許容
していることは、自動作曲機への適用領域において、ユ
ーザーが意図し、期待する音楽表現(曲)への接近を容
易にする。換言すれば、ユーザーのための選択範囲の拡
大に寄与している。 上記実施例は、この発明を自動作曲機の分野に適用し
たものであるが、メロディラインの和声学的評価を自動
的に行うメロディ分析機にも適用し得ることは明らかで
ある。メロディ分析機の使用を通して、学習者はメロデ
ィラインの類型化を効果的に習得できよう。さらには、
メロディにコードを付ける技術も比較的短期間のうちに
身に付くことが期待される。 [発明の効果] 以上、詳述したように、本発明(特に特許請求の範囲
第1項、第2項記載の発明)による自動作曲機は、モチ
ーフの各音を和声音と非和声音とに分けるために、コー
ド入力手段からのコード情報を利用するとともに、自動
作曲機のメロディ生成手段では、和声音/非和声音決定
手段の決定結果に依存するモチーフ特徴パラメータに基
づき、メロディを生成している。したがって、ユーザー
がどのコードを指定するかによって、出来上るメロディ
ラインは変化する。換言すれば、本自動作曲機は、いく
つかの好ましいメロディラインの候補をユーザーに提供
することができる。特に、和音付けが自由にできるユー
ザーに対しては非常に効果的な曲作りが行える環境を与
える。 特許請求の範囲第3項(第4項、第5項は従属項)記
載のメロディ分析機能付音楽装置によれば、与えられた
メロディの音高列から、その原型ともいうべき、分散和
音の音高列のパターンを得ることができるとともに、分
散和音の音高列における音高の動き(モーション)に関
する分析情報を得ることができる。特許請求の範囲第6
項記載のメロディ分析機能付音楽装置によれば、与えら
れたメロディの音列から、その原型ともいうべき、分散
和音のリズムパターンを得ることができる。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention]   The present invention relates to a music device with a melody analysis function and an automatic music composition.
About the machine. [background]   One of the important factors to consider regarding the quality of an automatic composer
One is a song that humans have been familiar with, in other words,
The potential to create songs that are more musical than purely mechanical
Whether the composer has the ability
And   For example, in Japanese Patent Application No. 56-125603 (Japanese Patent Application No. 60-40027)
Is derived from a series of pitch data (for example, 12-scale data)
Individual pitch data is sampled at random and sampled.
If the satisfies the limited conditions,
The melody is adopted if the conditions are not met.
The sample is not sampled again and the condition is checked again.
An automatic composer of a system that repeats the above is disclosed. But
The melody generation process of this automatic composer is basically
Is a try-and-error method. Land pitch data
At the sample stage, the pitch sequence was completely disordered.
I'm up. If you keep this chaotic pitch line,
Cannot be realized as a di (by astronomical contingency
Good melody may be possible). So this
In order to bring some order into disorder, condition inspection and
This is a kind of filtering. this
In such cases, the degree of selection is an important factor. Sorting is too tight
Then, the generated melody will be one pattern
If it is too loose, the original disorder will dominate.
Would.   The above automatic composer is a melody
Rather than a melody that is elusive in style
Suitable for composing, mainly for listening training and performance training
It is effective as a music composition device for learning.
Music is generally difficult to transcribe and play). In this sense
I don't have the abilities I mentioned.   In view of these points, the applicant has received a request from the user.
The motif will be exhibited inspired by the empowered motif
Open, grow and control your song's consistency, variety and hierarchy
Has applied for an automatic composer that can control
"Automatic composer" filed on April 8, 1987 and 1987
Filed on May 20). As its basic configuration,
The means to evaluate and analyze the obtained motifs and the evaluation results
Melody to be generated based on a certain motif feature parameter
Melody system to plan outline, style and associate
Control parameter generation means and planned control parameters
A method for generating a melody specifically according to chord progression information
There is disclosed a lody generation execution unit.   The automatic composers according to these applications provide the overall characteristics of the song,
Controls the mood and style, planning to compose
It is possible to create songs that are rich in diversity and hierarchy
It is. This is one of the great advantages. Second
The feature is that the motif is entered by the user,
The point is that the composition is made based on the music. This feature is
Is effective in deepening the satisfaction of people and raising their awareness of composing
To work.   The third feature is that Japanese speech and non-Japanese speech are treated separately.
That is, the approach is adopted. That is, on
Motif evaluation means (motif feature parameter extraction method
Dan) contains non-harmonic and harmony sounds contained in the motif.
Function to extract harmony feature parameters
Melody generation means (melody control parameter generation means
Extracted harmony to the dan and melody generation execution means)
Characteristic parameters (for example, the number of harmony, the type of variance,
Melody in a format that reflects the number of non-harmonic tones
Features included. Such harmony / non-harmony
The distinction function makes the generated song rich in music rather than mechanical
Help to make things.   Further, although related to the third feature, the harmony feature pattern
The parameter extraction means is a melody-harmonic analyzer
Can be used. Learning through melody analyzer
The melody line shows the musical
Can easily learn the functions of working and harmony
You.   In the above application, it shall be related to melody analysis.
Thus, a non-harmonic classification extraction means is shown. This non-harmony
The logic of the sound classification and extraction means is the pitch of the motif (melody)
The sequence is converted to a pitch progression matrix, and this pitch progression
It is compared with the conditions (patterns) of vocal sounds, and if they match,
The corresponding sound in the chief (melody) is the non-harmonic
It is estimated that. Pitch progression from pitch train
Conversion to a row is performed by means of calculating the difference in pitch between the preceding and following notes
doing.   The present invention uses a new logic that is different from the logic described above.
It is characterized by extracting or classifying harmony sounds
You. [Object of the invention]   That is, the object of the present invention is a novel approach.
Melody that automatically performs harmony evaluation of the melody
An object of the present invention is to provide a music device with an analysis function. Another
Is an automatic composer of the type described above, i.e.
Such patent application, entitled "Automatic composer", April 8, 1987
Application (Japanese Patent Application No. 62-86571) and filed on May 20, 1987
The automatic composer described in (Japanese Patent Application No. 62-121037) was improved.
In particular, with respect to motif analysis.
To provide an automatic composer. [The gist of the invention]   To achieve the above object, according to the present invention, pitch and pitch
To input a string of sound data containing
Give the chief an entry and special features that characterize the input motif.
Motif feature parameter extraction method to extract signature parameters
A step and a code representing the musical background progression of the melody to be generated
Code progress storage means for storing at least code progress information
And the chord progression information and the extracted feature parameters
Melody generating means for generating a melody based on the
And the input motif in the automatic composer having
Code input means for inputting a code representing the music background
The motif feature parameter extracting means is provided
For each sound of the selected motif,
Chief tone name) and the input chord components
Compare the motif sound names in the input chords
If it contains a note with the same note name as
Is determined as a non-harmonic tone if not included
Harmony / non-harmonic sound determination means.
An automatic composer is provided.   In the case of this configuration, the following advantages are obtained. You
In other words, for users, especially those with a musical background
Is the music world you want to express, even with the same melody line
In relation to the world, some of the leading code candidates
From among these, you can select a favorite code. this
On the other hand, this automatic composer
The harmony / non-harmonic sound determination means included in the output means
To identify or extract non-harmonic sounds contained in the motif
You. Then, from this extraction result, the harmony feature parameters
(For example, the number of chords, the number of non-chords, the pitch pattern
Is obtained. This information is the melody of the automatic composer
Melody is generated according to this information.
You. Users don't like the melodies they've made
For example, the next most likely code is the motif code.
Can be entered. This time, the extracted harmony
Chief feature parameters will be different from before,
These parameters are reflected in the generated melody
So, the finished melody is naturally different from before
Become something. By following this process, you
It is hoped that the melody desired by the user will be obtained more effectively
I will be waiting.   In a preferred configuration example, the motif feature parameter extraction is performed.
The sounding means further includes, for each sound determined as a non-harmonic sound,
In accordance with the result of the above-mentioned harmony / non-harmony determination means.
Of the sound data representing the above motif
Type determining means for determining the type of non-harmonic sound of the sound
including.   In the embodiment described later, the melody generating unit includes
A means to add various non-harmonic sounds is included.
The motif is separated in relation to the categorized non-harmonic sound adding means.
On the side of analysis, the motif sound determined as a non-harmonic sound
Type determining means for determining the type of non-harmonic sound is provided.
You. Such non-harmonic type determination means and non-harmonic types
Combination with sound adding means makes the generated melody more
It is effective for fine control.   Further, according to the present invention, the pitch (MDi) and the pitch (MRi)
A sequence of melody sound data that contains
Melody input means (1) for inputting a melody,
Enter the chord information indicating the music background of the melody
The input code input means (1) and the melody information are displayed.
For each sound of the melody,
Check whether the sound is a chord sound.
If the sound is determined as a harmony, it is not a chord sound
If so, determine the sound as a non-harmonic sound
Sound determining means (9, Fig. 9) and pitch of the melody information
Removes data from the sequence of sounds determined as non-harmonic
And the pitch sequence of the harmony (LLi),
Dispersion chord forming means (9, FIG. 14) to be formed;
Of pitch movement in the pitch sequence of the distributed chords
Determine motion parameters to determine motion parameters
Means (9, FIG. 18).
A music device with a de-analysis function is provided.   According to this configuration, the dispersed chord as a melody skeleton
And that we can get that pitch train pattern
First, get information about the movement of the pitch
Can be   The above motion parameter determining means is a motion parameter
Neighboring sums in the pitch series of the above-mentioned dispersed chords as meters
Parameter representing the maximum motion formed between voices
And a maximum motion calculating means for calculating the data.   Further, the motion parameter determining means is a motion
Parameters in the pitch row of the dispersion chord
The pitch of each pair ((harmonic pair))
Homology progression parameter calculator for calculating the number of the same chord pairs
Steps may be included.   Further, according to the present invention, the pitch (MDi) and the pitch (MRi)
A sequence of melody sound data that contains
Melody input means (1) for inputting a melody,
Enter the chord information indicating the music background of the melody
The input code input means (1) and the melody information are displayed.
For each sound of the melody,
Checks whether the chord is represented by the chord represented by
If so, determine that sound as a harmony,
Harmonic sound / non-harmonic sound decision to determine the sound as non-harmonic sound
Setting means (FIG. 9 and FIG. 9) and the pitch length sequence of the melody information.
The note length of the sound determined as a non-harmonic tone
By absorbing the pitch determined as a harmony
And the length sequence of the harmony, that is, the rhythm pattern of the dispersed chord
Means for forming a distributed chord rhythm pattern (9, 15
Figure), with a melody analysis function
A music device is provided.   According to this configuration, in the inputted melody,
Removes the sound determined as a vocal sound and changes the melody to only a chord
The length sequence (the length sequence of the dispersed chords)
Obtainable. To form a sequence of dispersed chords,
The sound of each sound determined (presumed to be) as a non-harmonic sound
The long was determined as the next chord (presumed to be)
It is absorbed by the length of the sound. As a result, the resulting dispersed chord
Look at the length sequence representing the original length sequence of the melody
be able to. [Example]   Hereinafter, embodiments of the present invention will be described.   This embodiment is an example in which the principle of the present invention is applied to an automatic composer.
It is. The feature of the embodiment related to the present invention is that
Of the overall functions of the composer,
Function part for extracting the signature parameter (F10 in FIG. 2, ninth
11B, FIG. 14, FIG. 15, and FIG. 18). This departure
Audible / non-harmonic sound deciding means, non-harmonic sound type determiner
The best representation of these for columns is shown in FIG.
(A flowchart of one embodiment of the chord / non-harmonic sound determining means)
G), FIG. 10 (a flowchart of one embodiment of the type determining means)
FIG. 11A, a flow chart of another embodiment of the type determining means.
FIG. 11B (flow chart of still another embodiment of the type determining means).
Chart). Fig. 14 shows the input melody (mochi
Remove the data of sounds determined as non-harmonic tones
To form a pitch sequence of harmony, that is, a pitch sequence of dispersed chords.
5 is a flowchart illustrating one embodiment of a distributed chord forming means.
You. In this flowchart, the pitch sequence of the dispersed chords (chords
Each pitch LLk in the parameter of the type
It is expressed by a number, not a note name. This representation is
It does not depend on the contents of the notes (sound name information) of a specific chord
In a sense, it is an expression independent of the code. Fig. 18
Is the pitch movement in the pitch sequence of the dispersed chord
Motion parameters that determine the motion parameters
It is a flowchart of one aspect of parameter determination means. This
In the flowchart of
The largest motion between adjacent chords
(The maximum value PA of the difference between LLk + 1 and LLk1, 2) And pitch
Are the same number of adjacent harmony pairs (PA1,6).
This biggest motion PA1, 2Is the “na”
It is one measure of "smoothness." Parameter PA1,6Is the same
It is called the parameter of sound progression.   Fig. 15 shows the pitch sequence of the input melody (motif).
The length of the sound determined as a non-harmonic tone is next to it
By absorbing the pitch determined as a harmony,
The length sequence of the chords, ie, the rhythm pattern of the dispersed chords (harmony
Distributed chord rhythm pattern that forms the length pattern of the sound)
It is a flowchart showing one aspect of the forming means. this
In the flowchart, the pitch determined as a non-harmonic tone is
Determines which of the sounds before and after the harmony is determined
16 Determine according to the pulse scale weight as shown in Fig.
I have.   The basic part of this automatic composer is the above-mentioned patent application,
Patent application filed by the applicant, titled "Automatic composer", Showa
Filed on April 8, 1987 (Japanese Patent Application No. 62-86571) and 1987
The composer disclosed in the May 20 application (Japanese Patent Application No. 62-212037)
Referred to these patent applications because they belong to
No. In the attached drawings, details of the basic parts are shown in FIGS.
This is shown in Figure 49. <overall structure>   FIG. 1 shows the overall circuit configuration of the automatic composer. In the figure, 1
Is an input device, 2 is a chord structure sound memory, 3 is a chord progression
Memory, 4 is root data memory, 5 is scale weight data
Memory, 6 is motif memory, 7 is parameter B memo
, 8 is the phrase identification data memory, 9 is the CPU, 10 is the work
Memory, 11 is parameter C memory, 12 is learning data memo
, 13 is melody data memory, 14 is monitor, 15 is CR
T and 16 are stave printers, 17 is a tone generator, 18 is a
Command system 19 is an external storage device.   The motif memory 6 is input from the input device 1.
This is where motif (input melody) information is stored.
You. Motif information is a row of pitch and pitch (pitch) data
Be composed. When composing automatically, CPU9 uses this motif information
From the parameters that characterize the motif
Parameter).   The chord progression memory 3 is represented by a column of chord names.
The chord progress information to be displayed is stored. Chord progress information
Indicates that the user sequentially specifies a code from the input device 1.
May be entered, or a rough specification (for example,
CPU9 automatically responds to the chord progression
It may be generated dynamically. Automatic generation of chord progressions
Are, for example, basic code patterns
Code pattern) or allowed code
The logic of the connection is, for example,
A model of the Rukov chain can be used. However, the entire song
Mode is specified directly by the user or
Automatically generated by the application
Not that.   However, the motif code is specified by the user
The entered code is input from the input device 1, which is an important point.
Int. In other words, the chord progression memory 3 has few
At least the chord progression of the melody is stored. Mo
The chief code and the melody code following the motif
For the automatic connection with code or chord progression,
This can be realized by the Rukov chain model.   The chord composition sound memory 2 has various chord composition sounds (core
The pitch data of the current member is stored.
In this case, the contents of each address (code
Code), a specific code on the chord sound memory 2
The storage area of the card configuration sound data is now specified.
ing. The CPU 9 changes the chord at the
Chord progression memory 3 (for example, for each bar)
Forwards the address of the
Calculate the address on the code configuration sound memory 2 and configure the code.
Read each pitch data to be formed.   The root data of the chord is stored in the root data memory 4.
The scale weight data memory 5 stores the scale (note scale).
Shows the degree of effectiveness of each pitch that composes
Weight data, i.e. weighted note scale data
Data is stored (set of note scale data
Memory to store). When composing automatically, use an appropriate method
The scale is selected, and the weight data of this scale is read out.
You. The root data memory 4 stores the read scale weight data.
Used to shift root.   On the other hand, the parameter B memory 7 stores the melody flow.
To control consistency and diversity in
(Parameter B) is stored. Also, higher order
Music identification data memory 8
Is used. The memory 7 and the memory 8 have user
Area, that is, the parameters specified by the user
Read / write areas are prepared. Automatic composition
At this time, the CPU 9 sets the parameter B and the musical style identification data (after decoding).
Data), the above motif feature parameters, music progress section
Parameter C (meaning
Rodi planning information). Parameter C is generated
It has the property of controlling or characterizing the melody.
The generated parameter C is stored in the parameter C memory 11.
Is done.   The work memory 10 contains the process for the CPU 9
Intermediate data (for example, the melody being processed)
Data) is stored.   The melody data memory 13 constitutes a completed song
Melody data is stored.   Output the completed song to the monitor 14 as necessary
be able to. For example, the tone generator 17 and the sound system
You can audition through the system 18. Also, the staff notation
From the linter 16, a copy of the score can be obtained.   The user through the monitor 14 partially corrects the song
You may want to do that. In the present embodiment,
User corrects it via CRT15 and input device 1
Can be requested and modified in an interactive format.
Positive is executed. The corrected data is the learning data memory
Stored as knowledge in 12. For later automatic songs, CPU 9
Uses this knowledge to generate melodies.   The external storage device 19 is a backup copy of the completed song
Or learned knowledge, other copies, or alternatives
It is used as a resource for automatic music programs. <Automatic song function>   Next, refer to FIG. 2 for the overall functions of the automatic composer.
It will be described in the light of the above.   As shown in the figure, the main function is
Motif feature parameter extraction
Output means F10 and the information provided by this means F10 (comprehensive
To control the melody from the PA)
Melody control information that generates (inclusively shown by PC)
Information generation means F20 and the information PC provided by this means F20.
Therefore, a melody that specifically generates a melody (single melody)
There is a generation execution unit F30.   As will become more apparent from the following description, the features of the present invention
Is a motif in the information sent to the means F10
Chord information (chord data) assumed by the user
This chord information is utilized in the included points and in means F10.
Using the harmony characteristic parameters of the motif (number of harmony,
The number of chords, the type of variances, etc.)
You. Chord information is input through the input device 1 in FIG.
Information.   On the other hand, the melody control information generation means F20 is a motif feature
Ability to associate and plan melody based on parameter PA
The melody generation execution means F30 has this plan (PC
And express the melody according to the plan
Has rules to generate. In a broad sense, means F20 and F30
Constitutes a melody generating means. Meanwhile, the inference aspect
Motif feature parameter extraction means F10 and melody
It is basically in the reverse relationship with the generation execution means F30,
Motif feature parameter extraction means F10
(Input melody)
It has inference ability to derive meter PA, while Melody
The melody feature execution means F30 is a melody feature
Inference ability to derive a specific melody from parameter PC
Have. Planning space of melody control information generation means F20
Is vast, and the degree to which PA is reflected on PC is freely and
It can be controlled in various ways.   Parameter B shown in this F20 section
Another data is a data created by the user through the input device 1.
Data. Parameter B used and musical style identification data
If the data changes, the melody control information generation means F20 outputs
The control parameters (PC) also change.   Generally, a song changes as it progresses. But limited
Looking at the time spent, certain features are fixed. Own operation
The music machine takes this point into consideration, and considers it to be fixed.
It has the concept of a unit of "between." For example, motif features
Each function in the parameter extraction means F10 is based on a certain section as a unit.
To extract PA. Similarly, the melody control information generating means
F20 is the melody of the PC value assigned to each section
The melody generation and execution means F30 passes it to the generation and execution means F30.
The melody of the section is generated using the value of the PC of. Mochi
Of course, this means that all PCs
It does not mean that it will change (similarly for PA). PC
Depending on the type, the interval over which the value can be fixed is generally equal
No. Therefore, in principle, different PC types
And assign values to different sections by type.
It is also possible to make it occur. But this
This complicates the process. Therefore, in the embodiment, the type of PC
Far fewer types of segments, preferably all
Sections that can be common to PCs (sections with the greatest common divisor)
Between). Motif feature parameter extraction means F10
The same applies to.   In the configuration of FIGS. 9 to 49, the most simplified
As an example, each function F10, F20, F30 has a common section
Like that. "1 bar" is selected as this section
You. Of course, this automatic composer is limited to this
Instead, each function may have two or more different sections. An example
For example, the interval for the pitch sequence and the interval for the pitch sequence are always
It need not be the same. Means F20 is set to PC
While assigning values, chord progression is measured in measures.
It is also possible to proceed in a section that does not exist.   Please describe the details of main functions F10, F20, F30 in Fig. 2.
U.   F10 section, user input as input information
In addition to the motifs related to
The specified chord information (chord data) is sent. This
The motif code is the motif sound inside section F10
High pattern extraction means F11, especially non-harmonic sound extraction means (harmony
Sound / non-harmonic sound determining means) Used in F11-1A.
That is, the means F11-1A compares the received chord with the constituent tones.
Infer a motif note with the same note name as a harmony,
Motif notes that do not match constituent sounds are inferred to be non-harmonic
You. Therefore, the logic of the non-harmonic sound extraction means F11-1A
The structure is very simple.
If given, the harmony for each sound of the motif /
Non-harmonic sounds can be uniquely distinguished. Shy
However, if the user specifies different chord information,
Make another interpretation. Applicable to motif and melody lines
What chord is a composer, arranger or performer
Is related to the music world that he is trying to express
Cannot be determined. In other words, the present invention
A clue to specify the music you want to express
When the chord designation is changed, the
The melody is reflected in that
You.   In section F10, the non-harmonic classification
F11-1B is the harmony / non-
Analyzes the motif data sequence based on the results of the harmony identification
The type of non-harmonic to which each non-harmonic belongs
Is being determined. That is, harmony versus non-harmonic
Motif at a finer level than voice level
The harmony interpretation of is done. The meaning of this is that
It is also related to the melody generator (F20, F30) of the music machine.
The Rody generation unit includes various non-harmonic feature pattern parameters.
Part that generates data (included in the PC) (in F20
), And sums non-harmonic sounds according to these parameters.
A part to be added before or after a vocal sound or between harmony sounds (F31-2
A) There is a melody line
Control of Harmonic / Non-harmonic Character Patterns
doing.   Distributed chord pattern (pitch) extraction means (dispersed chord type formation
Means: F11-2 removes non-harmonic sound from motif
Pitch pattern, that is, the type of dispersed chord (LLi described later)
Is the part that extracts   On the other hand, motif duration (rhythm) pattern extraction means F12
Is a function that extracts features related to the length sequence of motifs.
You. Feature mini-pattern extraction means F12 that is a component
-1 extracts the characteristic small pitch sequence contained in the motif
Scattered chord (rhythm) pattern extraction means
Pattern formation means) F12-2 is included in the motif
The length of the non-harmonic tone is absorbed by the length of the
Only form a note length sequence.   Of the above factors, F11-1B, F11-2, and F12-2 are non-
It operates in response to the result of the harmony sound extracting means F11-1A. this
These means, in the configuration of FIG.
It is a function to extract data. More generally, harmony
Characteristic parameters in motifs and melody lines
Parameters that characterize the style and style of harmony and non-harmony
Data.   Section within the block of the melody control information generation means F20
Generates parameters depending on the section number indicated by counter F23.
The generated progress-dependent parameter generating means F22 is shown.
You. Some of these parameters are regulated by song progression.
This includes parameters that vary regularly,
The rule variation parameter generating means F22-1 shown by F22-1
Generated by Means for the parameter generated by means F22
Then, the random number generation means F24 operates, and
A controlled random number or variation to the same parameter
You can enter. The above F22 and F23 elements are inside the PC
Contains parameters with the above properties
For non-operational type
(For example, a database of parameters C)
C (melody control information) can be generated
It is shown for the purpose. Actually, in this embodiment,
Parameter C is generated in operation type, and this operation is executed.
The part to be executed is the calculation means indicated by F21. Calculation means F21
Is indicated by the motif feature parameters PA and I1 from the means F10.
Information of the parameter B, the small value indicated by the bar counter F23-1.
Section number, style identification data from style identification data generation means F25
Data as inputs, and these inputs as parameters
Calculate the meter C. The style identification data generation means F25
It has a clause counter F25-1 and uses it to
Information about a specific passage is selected from the separate data I2. easy
Some of the information about the clauses is the type of clause (repeated, expanded
Type) is included. The style identification data generation means F25 is small
Read the bar number indicated by the bar counter F23-1 and read the bar number
Inspecting the positional relationship between the number and the passage, and based on the inspection results
To decode (decode) related musical identification data. Solution
The read musical style identification data is passed to the calculating means F21. easy
The role of the formula identification data generating means F25 is
To give the following hierarchy.   As can be seen from the above description, the melody control information generation
The PC output from the means F20 varies, and some PCs
It is constant for a relatively long time, and one PC is a unit section
Fluctuates at a cycle equivalent to (one bar here)
Some PCs are affected by the music style,
To change to another value, and so on. Parameters
The value of B, the value of musical identification data, used by the calculating means F21
Depending on the type of function, even the same PA
Various PCs will occur.   In other words, the parameter PC is the local stylistic feature of the song.
Sign, a slightly wider range of stylistic features, appearing regularly
Stylistic features, hierarchy in the melody flow
Style, non-harmonic structural in melody flow
Characteristic style, regular or standard in the melody flow
Parameters such as the style of regular changes, the characteristics of the entire song, etc.
It is a data representation.   Melody generation execution means F30 has a pitch as its main element.
It has a sequence generation means F31 and a duration sequence generation means F32. sound
High row generation means F31 is in progress from code progress data I3
Code and melody control information generation means F20 from PC
Or the P whose variation was introduced by the random number generation means F31-4
Dispersion chord generation using C and generating a pitch sequence of dispersion chords
The raw means F31-1, before or after the generated dispersed chord or
In the meantime, according to the plan of the PC and according to the additional rails inside
Non-harmonic sound adding means F31-2 for adding a non-harmonic sound
ing. Each non-harmonic classification adding means F31-2A is a means F31-2.
1 is a configuration example. F31-3 is used pitch control means.
In the above means F31-1 or F31-2,
For the melody node candidates obtained in the process,
Has the ability to control the use of That is, use sound
High control means F31-3 is replaced with note scale generating means F31-3A
Generates weighted data for each pitch of the scale
The sound effect inspection means F31-3B gives the candidate sound based on the weight.
Have high effectiveness tested. Melodyno that passed the inspection
Is sent back to the means F31-1, F31-2, where the formal
Used as a melody note.   The length sequence generating means F32 is optimally combined with the optimal combining means F32-1.
Means F32-2 and feature pattern embedding means F32-3
Then, a note length sequence is generated according to the plan of the PC. Optimal coupling means
In the case of this embodiment, F32-1 and the optimal dividing means F32-2 are distributed.
Used to form chord durations. Optimal coupling means
F32-1 is the initial pitch sequence (for example, the dispersed chord of F10 (Liz
The variance sum extracted by the pattern extraction means F12-2
Sound pattern or its modified pattern)
To the number of notes of the distributed chord to be marked (given by the PC)
Combine note lengths with minimum number of joins. Similarly,
Appropriate division means F32-2 divides initial pitch sequence to distributed chord number PC
Divide the note length by the minimum number of divisions until In addition, both
Means F32-1 and F32-2 are separated by using a pulse scale.
Perform the split and join. Pulse scale is PC (melody meter
Image information) as a kind of image information.
However, in a specific example to be described later, the dividing and connecting
There is a pulse scale inside the rule. On the other hand,
Sign pattern embedding means F32-3 operates according to the related PC
And a characteristic mini-pattern
Put in. In this example, the feature
Two patterns are injected.   The control means F33 is provided for each element of the melody generation execution means F30.
It is used to control activation and data transfer between elements.
You. Melody which is the execution result of melody generation execution means F30
The melody data is stored in the melody data memory 13 (Fig. 1).
It is. <Details>   Figures 3 to 49 show various data and motif features.
Extraction of parameter A, generation of control parameter C, melody
The details of the specific occurrence of di are shown. Paper
For the sake of convenience, a detailed description of the present invention will be omitted except for the features of the present invention.
love. For those skilled in the art, clear descriptions such as flowcharts
Can easily understand the contents to the level that can be implemented.
U.   Here are a few things to help you understand. Fig. 3
FIG. 4 shows a list of main variables, and FIG.
The strike is shown. Each parameter shown in these lists
Symbols in the flow chart from FIG. 9 to FIG. 49
Match the symbols used. Smell these flows
Therefore, the ratio of the pitch data is as shown in FIG.
Continuous pitch on the chromatic scale
Integer value. For the duration, one bar
Is divided into 16 equal lengths. Therefore
The duration of the sixteenth note is “1” and the duration of the eighth note is “2”.
There is (the pitch data shown in the motif data column in FIG. 6)
See MDi and pitch data MRi).   The motif data, chord component sound data,
Data, musical identification data, scale weight data, and
And the data of parameter C in Fig. 7 as input conditions
The melody obtained in FIG. 8 is illustrated in FIG.   The overall process from creating a melody to a motif
First, the motif evaluation, that is, the motif feature parameter
This is the extraction of the meter (PA).
This is the calculation of the control parameter (PC) for the position section (measure).
After the PC is determined, the specific melody is generated.   Process for extracting motif feature parameter A from motif
The relationship is shown in FIGS. 9 to 20.   Here, FIG. 9, FIG. 10, FIG. 11A, and FIG.
Non-harmonic sound extraction and classification related to the features of the present invention
I will explain these in detail. Non-harmonic sound extraction   FIG. 9 illustrates a flowchart of non-harmonic sound extraction.
The basic logic is as follows. That is, Mochi
Even note names that do not match the chords
The tones are non-harmonic. Conversely, the sound of the chord is
Each of them is a logic for generating a harmony sound.   More specifically, in the sections from 9-1 to 9-4,
Pitch sequence of motif data in chief memory 6 {MDi}
To the area {HDi} prepared on the work memory 10
doing. In other words, all pitch data of the motif data
To HDi. Incidentally, in this example,
Each note of the chief is a pair of pitch data and pitch data
expressing. However, there is no concept of pitch in rests.
It can be expressed by putting a special value in the pitch data.
Is showing.   9-5 to 9-15 for the i-th note in array {HDi}
To determine if it is a harmony or non-harmonic
It is identified by collating with. The identification result is
In the case of "harmony", a value specific to HDi (minus 20 in the figure)
I remember by putting. j is the number of the chord component
Is shown. For convenience of explanation, in this example, the code is
Four independent voices or three independent voices, including two voices one octave apart
Only consider the case. Furthermore, adapt to this
Therefore, each chord constituting sound memory 3 (FIG. 1) has
There are four data as constituent sound data. This flow
In, the pitch data of the chord components is indicated by KDj
I have. The subscript j is the j-th chord component sound from the bottom
Is shown.   As shown in 9-7, the motif note of interest is
When resting, it is not a non-harmonic sound, so the next motif note
Move on to check. 9-8 and 9-9 are Mochi, respectively.
Where the note names of the notes
Yes (elimination of the concept of octave numbers). 9-10 is a note name
Checks for matches and mismatches.
Since the motif note is a "harmony", the next note
Move on to check. If there is a mismatch, the next chord sound
J is incremented in 9-12 to proceed with
And repeat steps 9-7 and below. J ≧ 4 is satisfied by 9-11
The motif notes of interest are all
Compared with the constituent sounds, but none of them match
That is, it is the case of "non-harmonic sound". Therefore,
Non-harmony in pitch data HDi of the motif note in 9-13
Substitute the sound identification value. 9-14 No is the motif note
It is the total number. Therefore, when i ≧ No holds,
Whether all notes in the music are non-harmonic
Has been identified. Therefore, the non-harmonic sound extraction process ends.
Complete. Classification of non-harmonic sounds   The classification of non-harmonic sounds is based on the extraction of non-harmonic sounds as described above.
By analyzing the pattern of the motif sound sequence based on the results
Is performed.   There are several possible classification logics. Figure 10 shows the
FIG. 11A is an example of a flow according to the classification logic of FIG.
FIG. 11B illustrates the second and third classification logics, respectively.
FIG.   Description will be made with reference to FIG. In 10-1, the motif note
Initialize the number i to “1”, and then, until HDi ≧ 0, i
Is incremented (10-1, 10-2). HDi ≧ 0
Indicates that the i-th note is a harmony. 10-4 and i
As inferred from incrementing,
Check from the beginning of the motif and go to the first harmony
Non-harmonic sounds are distinguished from others. In the illustrated flow
Non-harmonic HDi exits as minus 20 (Hon, HDi =
-20).   10-5 indicates that the note of interest is a harmony or rest
Check whether the HDi
Since there is no need to change, the processing proceeds to the next note processing. Unsuccessful
At this time, the second note is a non-harmonic sound. Focus on 10-6
The note before and the note after the same note
The height is HDi = -30
(Embroidery sound, 10-8). In other words, pay attention
We conclude that the note that is is an embroidery sound. When not established
Is HDi = -40 (elapsed sound, 10-7)
Run. That is, it is concluded that the sound is a passing sound.   Check if it is non-harmonic and the last note
At 10-9, i = No holds. This non-harmonic sound is an anomaly
And HDi = -60 is executed (10-10). 10 <11, i <N
When o holds, the disjunction for all notes
Since the voice classification has not been completed, i = i + 1 (10-4)
Return to the next note analysis.   The four types of HDi obtained as a result of the processing in FIG.
The name given to the chord identification value, that is,
"Elapsed sound", "embroidery sound" and "miss sound" are just explanations.
This is for your convenience. This is also true for FIGS. 11A and 11B.
The same is true.   The non-harmonic classification shown in Fig. 11A is almost the same as Fig. 10.
It is. The difference is that the processing shown in 11A-6 and 11A-7 is added.
That is the point. The calculation shown in 11A-6, that is,   a1= (MDi-1−MDi) × (MDi−MDi + 1) Is the power of the pitch differences formed between three consecutive tones
It is a calculation.   Therefore, a1When is positive, the three sounds have pitches
This means that it is monotonically changing (ascending or descending). This
11A-7 is used to determine whether or not HDI has been established.
I put Inus 40 and concluded it was a passing sound.   FIG. 11B shows the flow of the non-harmonic classification by the third logic.
It is a chart. Comparison with non-harmonic classification shown in Fig. 10
As can be understood from (b), the knowledge of
Items) have been increased, and the conditions for concluding that
has been edited.   In other words, three non-harmonic sounds (HDi) including before and after
Sound (MDi-1, MDi, MDi + 1) Is a monotonous pitch change (1
1B-6, 11B-8, 11B-9) and the previous sound
When the pitch difference is a semitone or a whole tone (when 11B-10 holds)
Concludes that non-harmonic sound (HDi) is a passing sound (HDi = -40)
Attach. When the condition of this elapsed sound is not satisfied,
It is concluded that the vocal sounds are impulsive. To elaborate a little more, 11
Embroidery sound conditions shown in B-6, 11B-8 to 11B-11
The condition of the sound that elapses, the condition of the missed sound shown in 11B-12,
Non-harmonic tones that do not correspond to any of
(HDi exits at minus 20).   The description will proceed to FIG. 12 and subsequent figures.   In the rhythm evaluation of FIG. 12, the pitch ratio is 3: 1, 1: 1,
One-to-one, two-to-one-to-one, one-to-two-to-one, one-to-one-to-two minis
How many patterns are included in the motif to be evaluated
Is checked, and the result is used as a counter for each pattern.
HR1~ HR6Is set to   The parameter extraction shown in FIG.
This processing is performed after non-harmonic sound extraction and classification, where
Various parameters A (PA) are extracted.   Details of the dispersed chord type forming means 13-1 are shown in FIG.
In this flow, the motif dispersion chord
I want a sound pattern. Sound type data is set in the array {LLi}
Is done. For example, {LLi} = {3, 2, 1, 0, 1}
Sometimes it means: The first “3” is at the beginning of the motif
The harmony that appears is all the harmony contained in the motif
Of which is the third height from the bottom, the next “2”
The second harmony that appears is the total harmony of the motif
And the second height from the bottom, and so on.
However, “0” indicates that the note is a rest
(Refer to the example in FIG. 14).   Details of 13-2 which is a dispersed chord rhythm pattern forming means
Is illustrated in FIG. In the flow of Fig. 15,
The pitch pattern of the harmony
Scattered chord pattern). In other words, mochi
The length of the non-harmonic tones contained in the
You. Fig. 16 shows the pulse scale inherent in the flow of Fig. 15.
And the motif dispersion chord using this pulse scale
I'm getting a pattern. Original pitch pattern of the motif
The basic principle of the conversion from
Follow. That is, the pulse of the current note (non-harmonic)
The weight on the scale and the weight on the pulse scale of the next note
If the next note start position SUM is heavier, the current note
The note length MRi is set to the harmony RH in front of it.NAbsorb the current sound
If the note start position SUMB is heavier, the note length MRi
Harmony RHN + 1Absorb. Motif that is the execution result
The distributed chord (length) pattern is set in the array {RHi}
You.   FIG. 17 is an example of the detailed flow of 13-3 and 13-4.
You. Through the processing of extraction and classification of non-chords,
Is converted to {HDi}, and each HDi (i is the i-th
Indicates the pitch) if the sound is a harmony
If it is a non-harmonic sound, the type of non-harmonic sound
A unique value (identification value) that indicates Each non-sum in Fig. 17
In the extraction flow of the number of voices and harmony, the parameter PAij is initialized
After the conversion (first row), the value of HDi is checked and the condition is satisfied.
Each non-harmonic counter (PA5,2, PA2, 2,
PA4, 4, PA3,3). Counter PA1, 3Wa
Enter the number of voices.   Fig. 18 shows 13-5 (maximum motion calculation means) and 13-6
An example of the detailed flow of (same sound progress parameter calculating means)
Yes, here the variance chord sound type {LLi} (in the processing of FIG. 14)
By analyzing the obtained pattern)
Meter PA1, 2(Between adjacent chords of a dispersed chord
LLk + 1
Given by the maximum value of the difference between
Meter PA1,6(For each pair of adjacent chords
Represents the number of pairs having the same height).   FIG. 19 is an example of a detailed flow of 13-8. Liz ahead
The various motifs that can be included in the motif
The number of nirhythm patterns is secured in {HRi 、.
In the extraction of characteristic rhythm parameters, which mini pattern
Is the dominant pattern. For convenience,
In the flow of FIG. 19, the number HR of the three-to-one pitch pattern1When
Number of one-to-one pitch patterns HRThreeOnly tested, 3 pairs
PA when there are many pitch patterns of 16, 1To “3”, so
PA when not available6, 1Is set to “0”.   Fig. 20 shows an example of the detailed flow of 13-7,
Find the minimum pitch in the length sequence {HRi} of3,3N
Is on.   As can be seen from the above specific description, motif features
The parameter extracting means F10 (FIG. 2) is provided outside the automatic composer.
Evaluate and analyze the motif data sent from the
In Fig. 2, parameters that are generally described by PA are extracted. Extraction
The fruits are used to generate PCs and melodies. An example
For example, the pitch type parameter {LLi}
Is the initial parameter of the melody pitch type.
和 RHi {is the melody pitch sequence
Can be used as initial information. Other PAs are used for PC calculations
Here, for example, it is used as a DC component.   The processing executed by the parameter calculating means F21 in FIG.
Shown in Figure 1. Figure 25 generates melody continuously
Flow example (25-8, 25-27, 25-28 in the figure)
The indicated I is a bar number, and the bar of the bar number I is 25-10.
(The melody of (I-th bar) is created)
In 25-9, the processing of 21-4, 21-5, and 21-6 in FIG. 21 is executed.
Is performed. 21-1, 21-2 and 21-3 in FIG. 21 are used.
Input parameter PA, PB, SB
is there. Decoding of style identification data performed in 21-4 of FIG.
Please refer to FIG. 22, FIG. 23 and FIG.
In this example, just before the rust (deployment part),
(SBP1~ SBPThree) And hold
Data (SBH).   At 25-10 in Fig. 25, a melody for one measure is specifically generated.
Has formed. Other parts of Fig. 25 are motif data
And melody data transfer, ink of measure number to be generated
And so on.   The specific melody generation can be seen from FIG.
First, generation of a melody (dispersion chord) of only the harmony, then
, And the addition of each non-harmonic tone, and finally a rest and characteristic mini-pattern
Is a selective injection.   FIG. 26 shows the overall flow of generation of the dispersed chord.
Read chord constituent sounds in this flow 26-1, sound
Change floor weight 26-2, calculate optimal number of turns 26-4, code structure
Details of turn 26-5 of the sound generation are shown in Fig. 28;
Shown in FIGS., 30B and 31; FIGS. 32 and 33. Two
When 6-5 is completed, the scale weight data to be used
(Data with weights assigned to each note on the scale), and
Ongoing chords and their inversions, that is, the occurrence of dispersed chords
The pitch of each harmony used is fixed. Scale weight de
The melody notes of the melody
Used to check the validity of a candidate, if valid
Adopted as a melody note in the formula.   Fig. 35 shows the simplified flow from 26-6 to 26-42.
Where the pitch sequence of the distributed chord is determined
It is. Details of the decision from the sound before 26-15 shown in this
Is shown in FIG. Sum of pitches closest to last note of previous bar
Process the voice into the first melody note of this bar
is there.   When going from 26-11 through 26-12 to 26-29, use the sound pattern.
Is within the maintenance range, and during the maintenance range is the same as the previous measure
Alternatively, the opposite sound pattern (26-31) is created. For example, the eighth
The second measure shown in the (a) dispersion chord of the figure is the first measure
The sound type is ascending and (LL1= 1, LLTwo= 2, LLThree= 3, LLFour
= 4), Sound type relation from the PC calculation unit for the second measure
Parameters are the notes that have a range from the first to the fourth
(PC1, 4= 0, PC1, 3= 4) and PC1, 13By sound
Since the inversion of the type is specified, the line below (LL1= 4, LLTwo=
3, LLThree= 2, LLFour= 1).   Measures that do not maintain the sound pattern, such as motif measures
In the case of, sound pattern formation by randomization starting from 26-16
Is executed. Parameter C in 26-16 to 26-28
And these parameters control the randomization.
Work to limit.   The effective pitch test is performed at 26-35 and 26-36.   26-44 is the determination of the duration pattern of the dispersed chord. Generate
The number of harmonies in the measure to be equal to the number of harmonies in the motif
Sometimes, the initial pattern (for example,
Turn) becomes the pitch pattern of the dispersed chord as it is.   The number of chords is greater than the number of chords included in the initial pattern
When the time is small, split or combine by pulse scale.
Is going. For details of 26-44, see FIGS.
See the figure. The basic logic of division is the minimum number of divisions
That there is a pulse scale
Or(Where T0~ TFifteenIs the pulse point and T0Is small
The head of the knot, T8Indicates the timing of the third beat and is shown below.
Number is the corresponding weight)
(Inherited in the rule) using the current pitch pattern
Cross the heaviest pulse point
When a note is split using its pulse point as the dividing line
It is said. The basic logic of the combination is the target number of notes
Combining with the minimum number of joins
Start with the lightest weight in the current duration sequence
This is a method in which a note being played is combined with a preceding note.   In addition of the bias (Fig. 42), the PC
Eccentric weight PC2, 2, Additional position PC2,3, Scale weight PC2, 1,
Ascending, descending PC2, 4, PC with length limit2, 7Etc., and
A bias is selectively added according to the internal bias logic.
You. The note length is calculated from the note length of the harmony that follows the pitch.
A part is taken to make the pitch length of the excitement.   Elapsed sound addition (Fig. 43) basically consists of harmony and harmony
Since the sound that connects between
To see the conditions related to
Decoding part of TA's plan (mainly the first column in Fig. 43)
Or if there is a sound that can be used as a transition between the harmonies
Search and inspection (mainly in the second column)
Pitch conversion (incorporation into pitch patterns) and pitch of evolved notes
Conversion (incorporation into pitch pattern)
3 rows).   The addition of embroidery sound (Fig. 44) has the same pitch for the front and rear chords
Only performed at that time (see first column). Other
There are various restrictions due to parameter C. For example, PC4, 4
Means “0” means prohibit adding embroidery sound.
If it is "1", it can be added once, and if it is "2", it can be added continuously.
Can be added at any time, and can be added unlimitedly at "3"
Is intended. 44-
9 to 44-14 and 44-15.   In the third column, search for the effective embroidery pitch.
And incorporated into the pitch pattern {MED} (44-24 to 44
−30), receive a part of the pitch from the adjacent chord,
This is incorporated into the pitch pattern {MER}. The second
44-16 to 44-20 in the column indicate the pitch data,
This is an array shift in preparation for incorporating into a high pattern.   Similarly, the parameter C is also solved for the addition of a miss sound (Fig. 45).
Part to be read, part to exclude or inspect illegal addition of missed sounds
(E.g. 45-2, 45-3 and 45-4 to 45-16). 45-17
At the time of entry, it was decided that there was no problem with adding
You. 45-17 to 45-23 are distinctive processes shown at the bottom right of the flow
Is for In the rightmost column, between the previous sound and the next sound
In the pitch pattern
It is crowded. In addition, the number of notes increases in the case of a miss sound addition.
Absent. In other words, adding an anomaly changes the pitch of the last note of a bar.
It is.   Rest addition (Fig. 46) is added at the end of the last bar of the passage, etc.
It is often caught.   Characteristic rhythm generation (Fig. 47) uses characteristic mini-patterns.
According to the value of parameter C,
It is about to be incorporated. In this example, the feature rhythm generation is
It is the final process of generating the ody
Does not change the length pattern
Feature mini-panel within the range permitted by the PC.
Turn, here a pattern with a pitch ratio of 3 to 1
Built into the application. 47-9 to 47-12 are consecutive 2
Of three notes that can be converted to a 3: 1 pattern
We are checking to see if there are any. Inspection
In the case, the conversion is executed in the third column.   Parameter change by the correction learning in Fig. 48 and the learning in Fig. 49
The user can select the user's favorite parameter C
Related to the learning function used in individual measures
It is. In the correction learning (Fig. 48), after the song is completed,
Indirect measure parameters that the user does not like
Of the bar for which the learning function is specified
Enter the type and value of the specified parameter in the learning memory 12.
You. Parameter change by learning, as shown in Figure 13,
Performed in parameter calculation and generated internally by the composer
The parameter C selected by the user is
Used preferentially. <Summary and application to melody analyzer>   From what has been described in detail above,
The features of the moving composer are clear. In particular, motif rye
Model to extract its harmony feature parameters from the
Chord information intended by the user for the chief
The use of is notable. This is done
In the example, the function of non-chord extraction and classification of motifs is 2
Parts (harmonic / non-harmonic determining means and types of non-harmonics)
Decision means). That is,
In general, perform harmony analysis of motifs and melody lines
For analysts (typically those with music experience)
To distinguish between vocal sounds and harmony sounds, and what sounds are
Is not always distinct from non-harmonic tones
Recall a wide variety of melody lines
Rather, they can be said to be inseparable. here
In the present invention, the use of code information
More direct and rational, motif or melody
Of non-harmonic tones. Also another aspect
According to this invention, the present invention applies to a certain melody line.
Harmony or chords are related to the artist's musical space
In the idea that it is not generally determined in general
Rooted. Allows user to freely specify code
This means that in the area of application to automatic composers,
Allow the user to approach the musical expression (song) intended and expected
Make it easier. In other words, expanding the selection range for the user
It has greatly contributed.   The above embodiment applies the present invention to the field of automatic music composers.
Automatic harmony evaluation of the melody line
It is clear that the method can be applied to a melody analyzer
is there. Through the use of a melody analyzer, the learner
You will be able to effectively learn the typology of the line. Moreover,
The technology to code the melody also in a relatively short time
It is expected to learn. [The invention's effect]   As described in detail above, the present invention (especially claims)
The automatic composer according to the invention described in paragraphs 1 and 2) is
To separate each sound of the music into a harmonious sound and a non-harmonic sound.
Code information from the
The melody generation means of the composer determines the harmony / non-harmony
Based on the motif feature parameter that depends on the result of the means decision
Melody is generated. Therefore, the user
Melody depends on which code
The line changes. In other words, this automatic composer
Providing users with some good melody line candidates
can do. In particular, you can freely add chords
Gives the user an environment where they can create very effective songs
I can.   Claims (Claims 4 and 5 are dependent claims)
According to the music device with melody analysis function
From the pitch series of the melody, the dispersion sum, which can be called its prototype
It is possible to obtain the pattern of the pitch sequence of the
It is related to the pitch movement in the pitch sequence of the scattered chord.
Analysis information can be obtained. Claim 6
According to the music device with melody analysis function described in the section,
From the melody sequence, the variance
A chord rhythm pattern can be obtained.

【図面の簡単な説明】 第1図は本発明の一実施例に係る自動作曲機の全体構成
図、第2図は自動作曲機の機能ブロック図、第3図は自
動作曲機で使用する主変数のリストを示す図、第4図は
自動作曲機で使用するパラメータCのリストを示す図、
第5図は音高データの例を示す図、第6図は動作説明の
ための入力データ例を示す図、第7図はパラメータCの
値の例を示す図、第8図は第6図と第7図のデータに対
するメロディの生成結果を過程ごとに示す図、第9図は
非和声音抽出のフローチャート、第10図は非和声音分類
のフローチャート、第11A図は別のロジックによる非和
声音分類のフローチャート、第11B図はさらに別のロジ
ックによる非和声音分類のフローチャート、第12図はリ
ズム評価のフローチャート、第13図はパラメータ抽出の
概略のフローチャート、第14図は和声音の型のパラメー
タを抽出するためのフローチャート、第15図は和声音の
音長パターンを抽出するためのフローチャート、第16図
は第15図のフローにおいて使用しているパルススケール
を説明するための図、第17図は各非和声音の数、和声音
の数を抽出するフローチャート、第18図はなめらかさ、
同音進行のパラメータを抽出するフローチャート、第19
図は特徴的リズムのパラメータを抽出するフローチャー
ト、第20図は最小の音長を抽出するフローチャート、第
21図はパラメータC演算の概略フローチャート、第22図
は楽式識別データメモリのデータフォーマットを示す
図、第23図は楽式データの読み出しデコードのフローチ
ャート、第24図はデコード例を示す図、第25図はメロデ
ィの生成のフローチャート、第26図は分散和音発生のフ
ローチャート、第27図はコード構成音メモリ、コード進
行メモリ、根音メモリのデータの例を示す図、第28図は
コード構成音の読み出しのフローチャート、第29図は音
階の重みデータの例を示す図、第30A図は音階の重み変
更(1)のフローチャート、第30B図は音階の重みデー
タの読み出しのフローチャート、第31図は音階の重み変
更(2)のフローチャート、第32図は最適転回数の算出
のフローチャート、第33図はコード構成音の転回のフロ
ーチャート、第34図はMED1(小節先頭音)を前の音から
決定するフローチャート、第35図は分散和音の音高列発
生要部の簡略化フローチャート、第36図は分散和音の音
長列を決定するフローチャート、第37図は音長の最適結
合処理のフローチャート、第38図は音長の最適分割処理
のフローチャート、第39図は第38図におけるチェックの
詳細フローチャート、第40図は第38図におけるシフトの
詳細フローチャート、第41図は第38図における実行の詳
細フローチャート、第42図は倚音付加のフローチャー
ト、第43図は経過音付加のフローチャート、第44図は刺
しゅう音付加のフローチャート、第45図は逸音付加のフ
ローチャート、第46図は休符(ブレス)付加のフローチ
ャート、第47図は特徴リズム生成のフローチャート、第
48図は修正学習のフローチャート、第49図は学習による
パラメータ変更のフローチャートである。 1……入力装置、2……コード構成音メモリ、3……コ
ード進行メモリ、9……CPU、13……メロディデータメ
モリ、F10……モチーフ特徴パラメータ抽出手段、F20…
…メロディ制御情報発生手段(制御パラメータ発生手
段)、F30……メロディ生成実行手段、F11-1A……非和
声音抽出手段、F11-1B……非和声音分類手段。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall configuration diagram of an automatic composer according to an embodiment of the present invention, FIG. 2 is a functional block diagram of the automatic composer, and FIG. FIG. 4 is a diagram showing a list of variables, FIG. 4 is a diagram showing a list of parameters C used in the automatic composer,
FIG. 5 is a diagram showing an example of pitch data, FIG. 6 is a diagram showing an example of input data for explaining the operation, FIG. 7 is a diagram showing an example of the value of the parameter C, and FIG. FIG. 9 is a flowchart showing a melody generation result for the data of FIG. 7 for each process, FIG. 9 is a flowchart of non-harmonic sound extraction, FIG. 10 is a flowchart of non-harmonic sound classification, and FIG. FIG. 11B is a flowchart of non-harmonic sound classification using still another logic, FIG. 12 is a flowchart of rhythm evaluation, FIG. 13 is a schematic flowchart of parameter extraction, and FIG. 14 is a flowchart of harmony type. A flowchart for extracting parameters, FIG. 15 is a flowchart for extracting a pitch pattern of a harmony, FIG. 16 is a diagram for explaining a pulse scale used in the flow of FIG. 15, and FIG. Figure Is a flowchart for extracting the number of each non-harmonic sound and the number of harmonic sounds, FIG. 18 shows smoothness,
Flowchart for extracting parameters of homophony progression, 19th
Fig. 20 is a flowchart for extracting characteristic rhythm parameters. Fig. 20 is a flowchart for extracting the minimum pitch.
FIG. 21 is a schematic flowchart of the parameter C calculation, FIG. 22 is a diagram showing the data format of the musical expression identification data memory, FIG. 23 is a flowchart of reading and decoding the musical expression data, FIG. FIG. 25 is a flow chart of melody generation, FIG. 26 is a flow chart of dispersion chord generation, FIG. 27 is a diagram showing an example of data of a chord constituent memory, a chord progression memory, a root note memory, and FIG. 28 is a chord constituent sound 29 is a diagram showing an example of scale weight data, FIG. 30A is a flowchart of scale weight change (1), FIG. 30B is a flowchart of scale weight data read, and FIG. 31 is a flowchart of scale weight data readout. flow chart of the weight change of the scale (2), the flow chart of FIG. 32 calculates the optimum turn number, the flowchart of turning in FIG. 33 chord member, FIG. 34 MED 1 (measure A flowchart for determining the initial sound from the previous sound, FIG. 35 is a simplified flowchart of the main part of generating a pitch sequence of a dispersed chord, FIG. 36 is a flowchart for determining a pitch sequence of a distributed chord, and FIG. 37 is a sound. FIG. 38 is a flowchart of the optimal length dividing process, FIG. 39 is a detailed flowchart of the check in FIG. 38, FIG. 40 is a detailed flowchart of the shift in FIG. 38, FIG. 38 is a detailed flowchart of the execution in FIG. 38, FIG. 42 is a flowchart of adding a zigzag sound, FIG. 43 is a flowchart of adding an elapsed sound, FIG. 44 is a flowchart of adding an embroidery sound, FIG. FIG. 46 is a flowchart for adding a rest (breath), FIG. 47 is a flowchart for generating a characteristic rhythm, and FIG.
FIG. 48 is a flowchart of correction learning, and FIG. 49 is a flowchart of parameter change by learning. DESCRIPTION OF SYMBOLS 1 ... Input device, 2 ... Chord structure sound memory, 3 ... Chord progression memory, 9 ... CPU, 13 ... Melody data memory, F10 ... Motif feature parameter extraction means, F20 ...
... Melody control information generating means (control parameter generating means), F30... Melody generation executing means, F11-1A... Non-harmonic sound extracting means, F11-1B.

Claims (1)

(57)【特許請求の範囲】 1.音高と音長の情報を含む音データの列をモチーフと
して入力するモチーフに入手段と、 入力されたモチーフを特徴づける特徴パラメータを抽出
するモチーフ特徴パラメータ抽出手段と、 生成すべきメロディの音楽背景進行を表わすコード進行
情報を少なくとも記憶するコード進行記憶手段と、 上記コード進行情報と上記抽出された特徴パラメータと
に基づき、メロディを生成するメロディ生成手段と、 を備える自動作曲機において、 入力されたモチーフの音楽背景を表わすコードを入力す
るコード入力手段を設け、 上記モチーフ特徴パラメータ抽出手段は、入力されたモ
チーフの各音について、その音の音名(以下、モチーフ
音名という)と上記コード入力手段から入力されたコー
ドの構成音とを比較し、入力されたコードの構成音のな
かにモチーフ音名と同じ音名のものが含まれる場合に
は、その音を和声音として決定し、含まれない場合には
非和声音として決定する和声音/非和声音決定手段を含
み、この和声音/非和声音決定手段の決定結果に基づい
て特徴パラメータを抽出する ことを特徴とする自動作曲機。 2.特許請求の範囲第1項記載の自動作曲機において、
上記モチーフ特徴パラメータ抽出手段は、さらに、非和
音声として決定される各音について、上記和声音/非和
声音決定手段の決定結果に従って、上記モチーフを表現
する音データの列をパターン分析してその音の非和声音
の種類を決定する種類決定手段を含むことを特徴とする
自動作曲機。 3.音高と音長の情報を含むメロディ音データの列をメ
ロディ情報として入力するメロディ入力手段と、 上記メロディ情報が表わすメロディの音楽背景を表わす
コード情報を入力するコード入力手段と、 上記メロディ情報が表わすメロディの各音について、そ
の音が上記コード情報のコード構成音かどうかを調べ、
コード構成音であるならばその音を和声音として決定
し、コード構成音でないならばその音を非和声音として
決定する和声音/非和声音決定手段と、 上記メロディ情報の音高列から、非和声音として決定さ
れた音のデータを除去して、和声音の音高列、即ち分散
和音の音高列を形成する分散和音型形成手段(9、第14
図)と、形成された分散和音の音高列における音高の動
きに関するモーションパラメータを決定するモーション
パラメータ決定手段と、 を有することを特徴とするメロディ分析機能付音楽装
置。 4.特許請求の範囲第3項記載の自動作曲機において、 上記モーションパラメータ決定手段は、上記モーション
パラメータとして、上記分散和音の音高列における隣り
合う和声音間に形成される最大のモーションを表わすパ
ラメータを算出する最大モーション算出手段と、 含むことを特徴とするメロディ分析機能付音楽装置。 5.特許請求の範囲第3項記載の自動作曲機において、 上記モーションパラメータ決定手段は、上記モーション
パラメータとして、上記分散和音の音高列における隣り
合う和声音の各和声音対について、音高が同じ和声音対
の数を算出する同音進行パラメータ算出手段を、 含むことを特徴とするメロディ分析機能付音楽装置。 6.音高と音長の情報を含むメロディ音データの列をメ
ロディ情報として入力するメロディ入力手段と、 上記メロディ情報が表わすメロディの音楽背景を表わす
コード情報を入力するコード入力手段と、 上記メロディ情報が表わすメロディの各音について、そ
の音が上記コード情報が表わすコードの構成音かどうか
を調べ、構成音であるならばその音を和声音として決定
し、構成音でないならばその音を非和声音として決定す
る和声音/非和声音決定手段と、 上記メロディ情報の音長列のなかで、非和声音として決
定された音の音長を隣りにある和声音として決定された
音長に吸収させることにより、和声音の音長列、即ち分
散和音のリズムパターンを形成する分散和音リズムパタ
ーン形成手段と、を有することを特徴とするメロディ分
析機能付音楽装置。
(57) [Claims] A motif input means for inputting a sequence of sound data including pitch and duration information as a motif; a motif feature parameter extracting means for extracting a feature parameter characterizing the input motif; a music background of a melody to be generated A chord progression storage means for storing at least chord progression information indicating progress; and a melody generating means for generating a melody based on the chord progression information and the extracted characteristic parameters. Code input means for inputting a chord representing the musical background of the motif; and the motif characteristic parameter extracting means, for each sound of the input motif, a note name of the sound (hereinafter referred to as a motif sound name) and the chord input. Means of the chord input from the Includes a harmony / non-harmonic tone determining means for determining the tone as a harmony when the motif name is the same as the motif tone, and determining the tone as a non-harmonic tone when not included. An automatic composer characterized in that a feature parameter is extracted based on a decision result of a harmony / non-harmony deciding means. 2. In the automatic music composer according to claim 1,
The motif feature parameter extracting means further performs pattern analysis on a row of sound data representing the motif for each sound determined as a non-harmonic voice according to the determination result of the harmony / non-harmonic sound determining means. An automatic composer comprising type determining means for determining the type of non-harmonic sound. 3. Melody input means for inputting a sequence of melody sound data including pitch and duration information as melody information; code input means for inputting chord information representing a music background of the melody represented by the melody information; For each sound of the melody to represent, check whether the sound is a chord constituent sound of the above chord information,
A harmony / non-harmonic sound determining means for determining the sound as a chord sound if the sound is a chord sound, and a non-harmonic sound if the sound is not a chord sound; Dispersion chord forming means (9, 14th) for removing the data of the sound determined as a non-harmonic tone and forming a pitch sequence of a chord, that is, a pitch sequence of a dispersion chord.
FIG. 5) and a motion parameter determining means for determining a motion parameter related to a pitch movement in a pitch sequence of the formed dispersed chords. 4. 4. The automatic composer according to claim 3, wherein said motion parameter determining means includes, as said motion parameter, a parameter representing a maximum motion formed between adjacent chords in the pitch sequence of said dispersed chords. A music device with a melody analysis function, comprising: a maximum motion calculating means for calculating. 5. 4. The automatic composer according to claim 3, wherein said motion parameter determining means includes, as the motion parameter, a sum of the same pitch of each pair of adjacent harmony in the pitch sequence of the dispersion chord. A music device with a melody analysis function, comprising: a same-sound-progression-parameter calculating means for calculating the number of voice sound pairs. 6. Melody input means for inputting a sequence of melody sound data including pitch and duration information as melody information; code input means for inputting chord information representing a music background of the melody represented by the melody information; For each sound of the melody to be represented, it is checked whether or not the sound is a constituent sound of the chord represented by the chord information. If the constituent sound is a constituent sound, the sound is determined as a harmonic sound. Harmony / non-harmonic sound determination means, which determines the non-harmonic sound in the length sequence of the melody information, and absorbs the sound length of the sound determined as the non-harmonic sound to the adjacent harmony sound determined as the harmony sound. A distributed chord rhythm pattern forming means for forming a cadence length pattern of a harmony, that is, a distributed chord rhythm pattern. Music equipment.
JP62146963A 1987-04-08 1987-06-15 Music device with melody analysis function and automatic composer Expired - Lifetime JP2715412B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP62146963A JP2715412B2 (en) 1987-06-15 1987-06-15 Music device with melody analysis function and automatic composer
US07/177,592 US4926737A (en) 1987-04-08 1988-04-04 Automatic composer using input motif information
US07/447,581 US5099740A (en) 1987-04-08 1989-12-07 Automatic composer for forming rhythm patterns and entire musical pieces

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62146963A JP2715412B2 (en) 1987-06-15 1987-06-15 Music device with melody analysis function and automatic composer

Publications (2)

Publication Number Publication Date
JPS63311395A JPS63311395A (en) 1988-12-20
JP2715412B2 true JP2715412B2 (en) 1998-02-18

Family

ID=15419541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62146963A Expired - Lifetime JP2715412B2 (en) 1987-04-08 1987-06-15 Music device with melody analysis function and automatic composer

Country Status (1)

Country Link
JP (1) JP2715412B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2522337B2 (en) * 1988-01-06 1996-08-07 ヤマハ株式会社 Automatic playing device
JP2518056B2 (en) * 1989-09-06 1996-07-24 ヤマハ株式会社 Music data processor
JP3303617B2 (en) * 1995-08-07 2002-07-22 ヤマハ株式会社 Automatic composer

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
「音楽大事典第4巻」 平凡社 P.2036〜P.2038
コンピュートピア 1975・12月号 Vol.9 No.110 P.12〜P.19

Also Published As

Publication number Publication date
JPS63311395A (en) 1988-12-20

Similar Documents

Publication Publication Date Title
Huang et al. Deep learning for music
Liu et al. Computational intelligence in music composition: A survey
US6124543A (en) Apparatus and method for automatically composing music according to a user-inputted theme melody
Sturm et al. Taking the models back to music practice: Evaluating generative transcription models built using deep learning
Boenn et al. Automatic music composition using answer set programming
CN101950377A (en) The new method of novel Markov sequence maker and generation Markov sequence
Micchi et al. I keep counting: An experiment in human/AI co-creative songwriting
JP2715412B2 (en) Music device with melody analysis function and automatic composer
Madaghiele et al. MINGUS: Melodic Improvisation Neural Generator Using Seq2Seq.
WO2021166745A1 (en) Arrangement generation method, arrangement generation device, and generation program
Paananen Melodic improvisation at the age of 6–11 years: Development of pitch and rhythm
Levitt A representation for musical dialects
JP3531507B2 (en) Music generating apparatus and computer-readable recording medium storing music generating program
Robinson Analyzing Pärt
JPH07111622B2 (en) Automatic composer
JP2541451B2 (en) Rhythm generator and rhythm analyzer
Rybnik et al. Knowledge-driven Harmonization Model for Tonal Music.
Sorensen et al. A computational model for the generation of orchestral music in the Germanic symphonic tradition: A progress report
Mazurkiewicz Sofcomputing approach to melody generation based on harmonic analysis
Book Generating retro video game music using deep learning techniques
Clinton Music improvisation in Python using a Markov Chain Algorithm
Rybnik et al. Extension of knowledge-driven harmonization model for tonal music
Saint-Marc et al. Homophonic Music Composition Using Pipelined LSTMs for Melody and Harmony Generation
JP3088919B2 (en) Tone judgment music device
Vempala et al. A computational model of the music of Stevie Ray Vaughan

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 10