JP2638021B2 - 自動伴奏装置 - Google Patents

自動伴奏装置

Info

Publication number
JP2638021B2
JP2638021B2 JP62333595A JP33359587A JP2638021B2 JP 2638021 B2 JP2638021 B2 JP 2638021B2 JP 62333595 A JP62333595 A JP 62333595A JP 33359587 A JP33359587 A JP 33359587A JP 2638021 B2 JP2638021 B2 JP 2638021B2
Authority
JP
Japan
Prior art keywords
accompaniment
chord
data
key
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62333595A
Other languages
English (en)
Other versions
JPH01173099A (ja
Inventor
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KASHIO KEISANKI KK
Original Assignee
KASHIO KEISANKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KASHIO KEISANKI KK filed Critical KASHIO KEISANKI KK
Priority to JP62333595A priority Critical patent/JP2638021B2/ja
Priority to US07/290,295 priority patent/US5003860A/en
Publication of JPH01173099A publication Critical patent/JPH01173099A/ja
Application granted granted Critical
Publication of JP2638021B2 publication Critical patent/JP2638021B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • G10H1/28Selecting circuits for automatically producing a series of tones to produce arpeggios
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/395Special musical scales, i.e. other than the 12-interval equally tempered scale; Special input devices therefor
    • G10H2210/525Diatonic scales, e.g. aeolian, ionian or major, dorian, locrian, lydian, mixolydian, phrygian, i.e. seven note, octave-repeating musical scales comprising five whole steps and two half steps for each octave, in which the two half steps are separated from each other by either two or three whole steps
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/581Chord inversion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/596Chord augmented
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/601Chord diminished
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/616Chord seventh, major or minor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 [発明の技術分野] この発明は電子楽器等で使用される自動伴奏装置に関
する。
[背 景] メロディにベース、オブリガード等の伴奏ラインを自
動的に付加する自動伴奏装置は既に知られている。一般
に、この種の装置は、伴奏ラインの基になる伴奏パター
ンデータを記憶する伴奏パターンメモリを備えている。
伴奏パターンデータは、伴奏ラインの水平ないし時間情
報(発音タイミングを指示するデータ)と、伴奏ライン
の垂直情報とから成り、伴奏ラインの垂直情報は、演奏
者から演奏入力装置(例えば鍵盤)を通して与えられる
コード情報に従って、音高列に変換される。
1つのタイプの自動伴奏装置では、垂直情報として、
入力された複数の音(コード)のなかの何番目かを指示
するデータが用意され、動作の際、伴奏パターンが指示
する番号を、対応する音の高さに変換する。このタイプ
は、演奏入力装置から入力するコードを転回することに
より、転回形の伴奏ラインを生成することができる。し
かし、入力されたコードの構成音以外の音(コード構成
外音、非和声音)を生成することは原理上できない。
もう1つのタイプの自動伴奏装置では、伴奏パターン
の垂直情報として、コードの根音に対する音程を指示す
るデータが用意される。この音程を指示するデータはコ
ードのタイプによって適宜、変更される。例えば、根音
に対し、長3度の音程を指示するデータ(第3音のデー
タ)は、入力コードとしてマイナーコードが与えられた
ときには、半音下げられ、それが、コードの根音に加算
されて、最終的な音高となる。このタイプの自動伴奏装
置は非和声音(コード構成外音)を含む伴奏ラインを生
成することができるが、音楽的に望ましい非和声音を常
に生成する保証はない。例えば、メジャーやマイナーの
コードに対して全音階(ダイアトニックスケール)を想
定したとすると、根音に対し第2音を指示するデータ
は、これらのコードが与えられた場合、常に、コード根
音より長2度上の音高に変換される。このことは、コー
ドの根音が変化するごとに、コード構成外音の高さも同
様にシフトすることを意味し、調性感に欠ける伴奏ライ
ンの生成原因になる。
[発明の目的] したがって、この発明の目的は、調の変化が自然であ
るような伴奏ラインを生成可能な自動伴奏装置を提供す
ることである。
[発明の要点] 上記の目的を達成するため、本発明によれば、演奏入
力手段から与えられたコード進行から、現在のコードの
区間に対する調を判別する調判別手段と、上記現在のコ
ードと上記判別された調とに基づいて伴奏ラインを生成
する伴奏ライン生成手段と、を有することを特徴とする
自動伴奏装置が提供される(第1発明)。
一構成例において、上記調判別手段は、直前のコード
の区間に対して判別された調と現在のコードとに基づい
て現在のコードの区間に対する調を判別する手段から成
ることを特徴とする。
一構成例において、上記伴奏ライン生成手段は、上記
現在のコードに基づいて、現在のコードの区間における
和声音の伴奏ラインを生成する和声ライン生成手段と、
上記調判別手段により判別された調に対応した音階構成
音のなかから非和声音を選択して、上記和声音の伴奏ラ
インに付加する非和声音付加手段と、を有する。
さらに、本発明のもう1つの側面によれば、上記の構
成に加え、伴奏パターンデータとして、特定のコード構
成音を表わす和声音識別データと、各和声音識別データ
に対応する和声音の発音タイミングと、非和声音の種類
を表わす非和声音識別データと、各非和声音識別データ
に対応する非和声音の発音タイミングとから成る伴奏パ
ターンデータを生成する伴奏パターンデータ生成手段
と、現在のコードに基づいて伴奏パターンデータの各和
声音識別データを解読して和声音の伴奏ラインを生成す
る和声音ライン生成手段と、非和声音を種類毎に分類す
る分類知識を記憶する記憶手段と、調判別手段の判別し
た調を主音とする音階のなかから、上記伴奏パターンデ
ータの非和声音識別データが示す非和声音の種類をもつ
音を上記分類知識を用いて推論する推論手段とが設けら
れ、この推論手段の推論した音が非和声音として和声音
の伴奏ラインに付加される(第2発明)。
[発明の作用、展開] 本発明は従来技術が無視していた重要な事項、すなわ
ち調性を考慮している。調判別手段は現在のコード区間
に対する調の判別のために、コードの系列を参照する。
この調判別手段が判別した調を主音する音階は、伴奏ラ
インに使用できる音を規定する。換言すれば、音階以外
の音は伴奏ラインに付加できない禁止音の意味をもつ。
したがって本発明の場合、伴奏ラインの一部を成す非和
声音は、コードのタイプから想定される音階に依存する
のみならず、コードの進行から導き出される進行中の調
にも依存する。
一構成例では、調判別手段は、現コードの構成音が先
行する調の音階上から構成される限り、現区間の調を先
行する調と同一に維持する手段と、現コードの構成音の
なかに先行する調の音階にない音が含まれるときに、現
区間の調を転調する手段とから成る。好ましくは、転調
手段は、先行する調を基準の調として、この基準の調か
ら近親調(関係調)に順次転調した場合に、現コードの
すべての構成音を音階上に含む条件を満足することにな
る最初の調を現コード区間の調と判別する。後述する実
施例では、現区間のコードが全音階(ダイアトニックス
ケール)が想定されるコード(例えば、メジャーコー
ド、マイナーコード)のときのみ、調判別のため先行す
る調を参照している。これは、全音階が調性と密接な関
係をもつと考えられるからである。一方、調性との関係
が希薄なコードの区間では、先行する調への参照は行な
われず、コードの根音が調の主音となる。さらに、調性
との関係が希薄なコードの区間に対して割り当てた調は
後続する区間に対し、先行する調とはなり得ない。
第2発明には、非和声音を分類する分類知識を記憶す
る記憶手段と、この分類知識を用いて音階のなかに所望
の種類の非和声音(伴奏パターンデータが指示する音)
が含まれるかどうかを推論する推論手段が組み込まれて
いる。推論手段の推論結果は、音階と、分類知識と、伴
奏ラインの和声音の列に依存し、和声音の列はコードタ
イプとコードの転回数に依存する。したがって、状況に
応じて、選択的に非和声音が付加されることになり、様
々な伴奏ラインが生成可能である。また、生成される伴
奏ラインに含まれる非和声音は、分類知識の条件を満足
する音であるので、全体として音楽的に統一のとれた伴
奏ラインが生成される。
[実施例] 以下、本発明の実施例について図面を参照して説明す
る。
<全体構成> 本実施例に係る自動伴奏装置の全体構成を第1図に示
す。鍵盤のある鍵域(通常、高音域)は、メロディ鍵盤
1を構成しており、その鍵盤内で押鍵された情報は押鍵
検出装置2により検出される。一方、鍵盤の別の鍵域
(通常、低音域)は、伴奏鍵盤3を規定しており、その
鍵域内で押鍵された情報は押鍵検出装置4により検出さ
れる。押鍵検出装置4の検出した伴奏鍵情報はコード判
別根音検出部5に送られ、ここで、コードを特定するデ
ータ、すなわちコードの根音とタイプが判別される(周
知技術)。
伴奏データ形成装置6は、本実施例の特徴要素であ
り、伴奏データを生成するため、上記コード判別根音検
出部5とパターン分解能に相当するクロックを発生する
クロック発生部7と、伴奏パターンデータを記憶するパ
ターンメモリ8と、非和声音を分類するための音楽知識
を記憶するプロダクションルールメモリ9を利用する。
パターンメモリ8には、各発音タイミングを表わすアド
レスの位置に、特定のコード構成音(コード構成音番号
とオクターブコード)を表わす和声音識別データまたは
非和声音の種類を表わす非和声音識別データが記憶され
ており(第9図参照)、これらの伴奏パターンデータは
伴奏データ形成装置6より、クロック発生部7の示すク
ロックの間隔で順次、サイクリックにアクセスされる。
伴奏データ形成装置6はコード判別根音検出部5から新
しいコードの根音とタイプが与えられたときに、後述す
る仕方で現区間の調を判別して判別したに対応したスケ
ールデータを生成する。後述するように、このスケール
データは、伴奏ラインに使用可能な音を規定する。パタ
ーンメモリ8から読み出したデータが和声音識別データ
であるとき、伴奏データ形成装置6は、現在のコードの
根音とコードタイプを用いて、和声音識別データを対応
する音高に変換する。これによって、伴奏ラインの和声
音の列が形成される。一方、パターンメモリ8から読み
出したデータが非和声音識別データであるときは、前後
にある和声音の音高を求め(パターンメモリ8にある前
後の和声音識別データを現在のコードで音高に変換する
ことにより)、付加する非和声音の候補の音域を定め
る。さらに、伴奏データ形成装置6はこの音域内にある
音階上の音を非和声音の候補の音高として選択し、この
候補の音高と、前後の和声音の音高とから、伴奏ライン
の状況を表わす関数を計算し、計算結果をプロダクショ
ンルールに適用して、候補の音高の非和声音の種類を推
論する。そして、推論結果が伴奏パターンが示す非和声
音の識別データと一致するときには、候補の音高を和声
音の伴奏ラインに付加する非和声音として発行する。
伴奏データ形成装置6が生成した伴奏データは楽音形
成装置10に送られ、楽音信号に変換される。一方、メロ
ディ鍵盤6より押鍵検出装置2を通ったメロディデータ
は楽音形成装置11に送られ、同様に楽音信号に変換され
る。楽音形成装置10、11の出力はサウンドシステム12に
送られて放音される。
<メインフロー> 第2図は実施例のメインフローを示す。押鍵検出装置
4の検出した伴奏鍵情報が読みとられ(2−1)、コー
ド判別根音検出部5において、何を根音とし、どのタイ
プのコードであるかが調べられ(2−2)、伴奏データ
形成装置6において、根音とコードのタイプに従って、
伴奏データ生成の際に使用可能な音を調性の面から制限
するためのスケールデータが生成される(2−3)。
<スケールデータ生成> スケールデータ生成2−3の詳細について第3図から
第7図を参照して説明する。この例は次の原則を基礎に
置いている。
第1の原則は、(A)1つのコードが与えられた場
合、そのコードから想定される1ないし複数のスケール
が存在するということである。この原則に従い、かつ実
施の説宜上から、本例では、それぞれのコードタイプに
1つのスケールを対応づけている。コードとスケールと
の対応例を第6図に示す。第2は、(B)ダイアトニッ
クスケールのような自然的な音階は調性と密接な関係が
あり、スケールの主音を変更することにより転調効果が
得られる。第3は、(C)人工的な音階は調性との関係
が希薄である、ということである。これらの原則に従
い、本例では、コード判別根音検出部5が検出した現区
間のコードが、ダイアトニックスケールに対応可能なコ
ードか否かでスケールの主音に関する処理を別にしてい
る。さらに、現区間のコードがダイアトニックスケール
に対応可能なコードの場合には、現区間の調性(現区間
のスケールの主音)を先行するコードのうちで、直前の
ダイアトニックスケール対応コードにより生成されたス
ケールに基づいて生成している。すなわち、ダイアトニ
ックスケール対応コードから次のダイアトニックスケー
ル対応コードまでの間に、人工的な音階に対応するコー
ドがある場合、これらの人工的な音階に対応するコード
に対して生成したスケールは次のダイアトニックスケー
ル対応コードのスケールの主音を決定するのに関与しな
い。
第3図に従うと、3−2で現区間のコード(コード判
別根音検出部5の検出したコード)がダイアトニックス
ケールに対応可能なコードかどうかをチェックしてお
り、ダイアトニックスケール対応コードであれば、フラ
グfl(ダイアトニックスケール対応コード間にあるダイ
アトニックスケールに対応しないコードの数の計数値)
をチェックし(3−3)、fl≧1ならば、flを“0"にリ
セットし(3−4)、スケールバッファSCALEBUFに記憶
されているスケールデータをSCALEに代入してから(3
−5)、手段(1)を実行する(3−6)。ここに、ス
ケールバッファSCALEBUFには、先行するダイアトニック
スケール対応コードを区間に対して生成されたスケール
データが記憶されており、手段(1)では、このスケー
ルデータを用いて、現区間のスケールデータを生成す
る。一方、今回検出されたコードがダイアトニックスケ
ール対応コードでない場合には、手段(2)を実行する
(3−7)。
今回、検出されたコードがダイアトニックスケール対
応コードの場合に実行される手段(1)の詳細を第4図
に示す。この処理が基礎に置いている原則は、(イ)調
はなるべく変えない方がよい、(ロ)コード構成音のな
かにスケール音以外の音が含まれている場合には転調す
べきである、(ハ)転調は近親調で生じやすい、という
ことである。これらの原則に従い、第4図のフローで
は、まず、4−1、4−2でレジスタa、bにそれまで
のスケールデータSCALE(先行する最新のダイアトニッ
クスケール対応コードの区間に対し生成されたスケール
データ)をセットする。そして、現在のコードの構成音
がaまたはbで表わされるスケール音の部分集合である
かどうかをチェックし(4−3、4−5)、条件成立な
ら、スケールデータaまたはbを現在のスケールデータ
SCALEとして採用する(4−4、4−6)。4−3、4
−5の条件がいずれも不成立のときは、aを5度上の属
調に転回し(4−7)、bを5度下の下属調に転回した
後(4−8)、再びチェック4−3、4−5を繰り返
す。
例えば、それまでのスケールデータSCALEがCの主音
とするダイアントニックスケールである場合に、コード
判別根音検出部によりEを根音とするマイナーコード
(Emin)検出されたとする。マイナーコードはダイアト
ニックスケール対応コード(コード構成音のすべてが、
コード根音より短3度上の音を主音とするダイアトニッ
クスケールの音から構成される)であるので、手段
(1)が実行される。処理4−1、4−2の後の最初の
チェック4−3で、Eminのコード構成音E、G、Bが、
それまでのスケールであるC、D、E、F、G、A、B
の部分集合であることが確認され4−4により現在のス
ケールとしてそれまでのスケールが採用される。
コード判別根音検出部5により検出された今回のコー
ドがダイアトニックスケールに対応しないコードの場合
に実行される手段(2)の詳細は第5図に示される。ま
ずflをインクリメントし(5−1)、flが“1"かどうか
をチェックする(5−2)。fl=1のときは、今回検出
されたダイアトニックスケールに対応しないコードの直
前のコードがダイアトニックスケールに対応コードであ
ったことを意味し、この時点でSCALEには、この直前の
ダイアトニックスケールに対応コードに対して生成した
スケールデータが入っている。このスケールデータは、
後続するダイアトニックスケール対応コードに対するス
ケールデータ生成のために保存しておく必要がある。そ
こで、fl=1のときは、スケールデータSCALEをスケー
ルバッファSCALEBUFにセーブする(5−3)。そして、
現在のコードがディミニッシュコードdimのときには、
現在のスケールデータとしてディミニッシュスケールを
設定し(5−4、5−5)、現在のコードがオーギュメ
ントコードaugのときは現在のスケールデータとしてホ
ールトーンスケールを設定する(5−6、5−7)。処
理5−5、または5−7のなかで行われるSCALE生成処
理を7図に示す。コードに割り当てたスケール種類か
ら、スケールメモリ(図示せず)上のスケールデータの
アドレスを計算して、スケールデータを読み出し、SCAL
Eに入れる(7−1)。そして、主音の数だけSCALEを転
回する。例えば、スケールメモリに、Cを主音とするデ
ィミッシュスケールが用意されているとし、今回のコー
ドとしてDを根音とするディミッシュコード(Ddim)が
検出されたとすると、処理5−5が実行され、Cを主音
とするディミッシュスケールがSCALEにセットされた
後、根音を示す主音情報に従って、SCALEをDを主音と
するスケールに変換される。例えば、スケールメモリの
スケールデータ表現が、データ長12ビットで、最下位の
桁から最上位の桁に向って各桁が夫々C、C#、……B
b、Bの音名を表わし、桁のビット“1"がスケール音を
表わすとすると、各桁のビットを1つ上の桁に移す(た
だし、最上位の桁のビットは最下位の桁に移す)処理を
2回繰り返すことで、Cを主音とするスケールデータは
Dを主音とするスケールデータに変換される。
このように、スケールデータ生成処理は、伴奏鍵盤3
から与えられるコードの系列から現在のコードの区間に
対する調(主音と音階の種類)を判別する調判別手段と
して機能するものである。具体的には、本例のスケール
データ生成処理2−3は、直前の区間に対する調と現在
の区間に対するコードとから現在の区間に対する調をス
ケールデータとして決定する、という調判定論理を採用
している。
いま、i番目の区間に対する調をKEYi、i番目の区間
に対するコードをCiとして表わすと、本例のスケールデ
ータ生成処理は、 KEYi=func(KEYi-1、Ci) (式1) (funcは特定の関数記号) に従って、直前の区間(i−1番目の区間)の調KEYi-1
と現区間(i番目の区間)のコードCiとから、現区間
(i番目の区間)の調を決定している。
ここで、(式1)は、区間i−1について、 KEYi-1=func(KEYi-2、Ci-1) (式2) であるから、(式1)は次のように展開される。
KEYi=func(func(KEYi-2、Ci-1、Ci) (式3) 同様にして、 KEYi=func(func(func(KEYi-3、Ci-2、Ci-1)、Ci) (式4) のように、再帰的に展開される。
(式3)によれば、KEYiは、KEYi-2、Ci-1及びCiに基
づいて定められるのであるから、(式3)は、 KEYi=F(KEYi-2、Ci-1、Ci) (式5) の形式に属することがわかる。(Fは関数記号) 同様にして、(式4)によれば、KEYiは、KEYi-3、C
i-2、Ci-1、Ciに基づいて定められるのであるから、
(式4)は、 KEYi=F(KEYi-3、Ci-2、Ci-1、Ci) (式6) の形成に属することがわかる。
これを繰り返していくと、 KEYi=F(KEYinitial、C1、C2、C3、…、Ci-1、Ci
(式7) となることがわかる。(KEYinitialは初期説鉄された調
ないしスケールデータ) (式7)によれば、KEYiはコードの系列C1、C2、…、
Ci-1、Ciに基づいて定められている。
このように、本例のスケールデータ生成処理の機能に
よれば現在のコード区間に対する調は与えられたコード
の系列ないし来歴に基づいて定められるのである。
<伴奏データ生成> 本例の伴奏データの形成は、パターン分解能と関係す
る時間間隔(クロック発生部7が発生するクロックの周
期)で実行されるインターラプトルーチンのなかで行わ
れる。また、説明の便宜上、1小節を16等分した間隔を
分解能として仮定する。
第8図にインターラプトルーチンのフローを示す。ク
ロック発生部7からクロックが発生すると、同図のフロ
ーに入り、小節内の時間的位置を示すポインタPをイン
クリメントし(8−1)、小節を越えた値(P>15)に
なったときは、Pを小節の頭を示す“0"に戻す(8−
2、8−3)。そして、パターンデータメモリ8から、
ポインタPでアドレス指定されるパターンデータ(デー
タフォーマットは第9図を参照のこと)を読み込む(8
−4)。読み込んだパターンデータが何も発音する必要
のないことを示しているときには(data=0)、何も処
理せずメインフローに戻る(8−5)が、処理を要する
データのときは、そのパターンデータが非和声音識別デ
ータか(data<10)、和声音識別データであるかをチェ
ックし(8−6)、和声音識別データのときには和声音
を形成し(8−7)、非和声音識別データのときには非
和声音を形成する(8−8)。
和声音データ生成処理8−7の詳細を第10図に示す。
まず、現在のコードの根音とタイプからコード構成音デ
ータccを生成する(10−1)。詳細は第11図に示され
る。現在のコードタイプから、コード構成音メモリ(第
11図の下方参照)をアクセスして、基準の根音(ここで
はC)で表現された有効長さ12ビットの構成音データを
読み出し、ccにセットする(11−1)。そして、現在の
コードの根音の数だけ、12ビットを左に転回する処理を
実行する(11−2〜11−5)。例えば、現在のコードの
根音がGで、コードタイプがメジャー(maj)だとする
と、コード構成音メモリからCを根音とするメジャーの
構成音データ091(16進表現)が取り出される。すなわ
ち、 である。これをGを表わす根音データの値7だけ左に転
回すると、 となり、Gmajのコード構成音が得られる。
コード構成音データを生成したら、そのデータに含ま
れるビット“1"の数を計数することで、コード構成音数
を算出し、cknoに代入する(10−2)。次に、非和声音
識別データdataの1桁目に表現される構成音番号(第9
図参照)が、コード構成音数cknoより大きいか否かをチ
ェックし(10−3)、大きければ、dataの上位桁にある
オクターブ番号をインクリメントして(10−4)、data
の1桁目をcknoの剰除とする(10−5)。例えば、パタ
ーンメモリ8から読み出したパターンデータが第3オク
ターブの第4コード構成音を表わす和声音識別データ34
だとし、現在のコードが、3つの構成音から成るコード
(例えば、メジャーコード)だとすると、この処理の結
果、第4オクターブの第1コード構成音を表わすデータ
41に変換される。次に、コード構成音データccの桁(音
名)をカウントするjに“−1"をセットし、“1"である
桁(構成音)をカウントするCを“0"に初期化する(10
−6)。そして音名カウンタjをインクリメントして
(10−7)、その音名の位置に構成音があるかどうかを
調べ(10−8)、構成音が見つかったら構成音カウンタ
Cをインクリメントし(10−9)、その値がパターンデ
ータの示すコード構成音番号に達したかどうかを調べる
(10−10)。この10−7〜10−10のループ処理により、
パターンデータのコード構成音番号に対する音名jが得
られる。したがって、10−11で伴奏データとして、j
(音名)+10016×dataのオクターブ情報を得、MEDに入
れる。
このように、和声音データ生成処理では、パターンデ
ータの示す和声音識別データを、現在のコード情報を使
って、音高表現のデータMEDに変換している。
パターンメモリ8から読み出したパターンデータが非
和声音識別データのときに実行される非和声音データ生
成処理8−8の詳細を第12図に示す。この処理では、非
和声音の付加のために、調性処理が施されたスケールデ
ータSCALE、非和声音を分類する知識を表現するプロダ
クションルールが利用される。付加される非和声音は次
の条件を満足する必要がある。
(イ)所定の音域内の音であること (ロ)調性処理済のスケールデータが示すスケール音で
あること (ハ)プロダクションルールメモリ9を使って推論した
結果と、伴奏パターンが示す非和声音の種類とが一致す
ること プロダクションルールを適用するためには、既に確定
している伴奏ラインの状況を評価する必要がある(非和
声音の性格がラインの状況に依存するため)。第12図の
12−1で行っている直前の和声音データの読み込み処
理、12−2で行っている直後の和声音データの読み込み
処理、12−7で行っているfの計算は、確定ラインの状
況を評価するための処理である。また、12−3では、非
和声音の候補となる音域を前後の和声音から決定してい
る。12−4は、プロダクションルールメモリ9にあるプ
ロダクションルールデータの読み込み処理である。
直前の和声音データを読み込み処理12−1の詳細は第
13図に示される。まず、着目している非和声音識別デー
タのアドレスを示すポインタPの値をPbにセットし(13
−1)、Pbをデクリメントしていって、アドレスPbにあ
るパターンデータが和声音識別データを示すときにその
アドレスをbefに格納する(13−2〜13−4)。なお、1
3−3のチェックが*Pb=0(発音タイミングではな
い)になっている理由は、和声音と和声音の間には高々
1つの非和声音しか付加されないような伴奏パターンを
想定しているためである。最後に、befにある和声音識
別データを音高表現の和声音データに変換する(13−
5)。この処理は、第10図の和声音データ生成と同様で
ある。
直後の和声音データを読み込む処理12−2の詳細は第
14図に示される。ポインタPaが現在位置Pからインクリ
メントされる点を除いて第13図の処理と同様であるので
詳細は省略する。
非和声音の候補とする音域の下限の音高loと上限の音
高upを設定する処理12−3の詳細は第15図に示される。
この例では、前後の和声音bef、aftのうち高い方の和声
音より5半音上の音を上限の音高upとし、前後の和声音
のうち低い方の和声音より5半音下の音を下限の音高lo
にしている(15−1〜15−5)。
プロダクションルールの読み込み処理12−4の詳細は
第16図に示される。第16図の下方に例示するように、プ
ロダクションルールメモリ9のデータ形式は、ルール1
つ当り、5つのデータL、X、U、Y、Nから構成され
る。L、X、Uは、ルールの前提部L≦Fx≦Uを表わ
し、関数の種類Xの値Fxが、下限Lから上限Uの間にあ
るかを意味する。Yには前提部が成立するときに次にア
クセスすべきルールのポインタ(次にアクセスすべくル
ールがないときには推論結果)が入り、Nには前提部が
成立しないときに次にアクセスすべくルールのポインタ
(次にアクセスすべきルールがないときには推論結果)
が入る。参考までに、第16図の下方に示すプロダクショ
ンルールデータを知識のネットワークで表現した図を第
17図に示す。
第16図の処理においては、まずプロダクションルール
メモリ9のアドレスカウンタPを“0"に初期化し(16−
1)、ルール番号のカウンタiを“0"に初期化し、Pに
あるルールデータをaに読み込み(16−3)、Pの5の
余りを算出し(16−5)、余り0ならPは下限Lのデー
タを指しており、下限データは新しいルールの先頭デー
タであるので、ルールカウンタiをインクリメントし、
レジスタLiにルールデータaを入れる(16−6〜16−
8)。同様に余り1のときはi番目ルールの関数の種類
としてルールデータaをXiに入れ(16−9〜16−10)、
余り2のときはi番目のルールの上限データとしてルー
ルデータaをUiに入れ(16−11、16−12)、余り3のと
きはi番目のルールの肯定結論データTとしてルールデ
ータaをYiに入れ(16−13、16−14)、余り4のときは
i番目のルールの否定結論データNとしてルールデータ
aをNiに入れる(16−15)。そしてアドレスカウンタP
をインクリメントして(16−16)、16−3以降の処理を
くり返す。読み込んだルールデータが終了コードEOFを
示すとき(16−4)、iに入っているルール数をruleno
にセットして(16−17)フローを抜ける。
その後は、第12図に示すように、音高の下限loから上
限upまでの非和声音音高候補jに対し、jがスケール音
かどうかをチェックし(12−6)、成立すれば前後和声
音と非和声音候補とから関数fを計算し(12−7)、こ
の計算結果をプロダクションルールに適用して前向推論
を行い(12−8)、推論の結論が伴奏パターンの非和声
音識別子と一致するかどうかを調べる(12−9)。ここ
で一致するときは、音高jは上述した非和声音の付加条
件をすべて満足する音である。したがって、この音高j
を伴奏データMEDにセットする。jがスケール音でない
場合や、推論の結論が伴奏パターンが指示する非和声音
の種類と一致しないときは、jをインクリメントして、
次の音高に対する非和声音の条件検査をくり返す。12−
11でj>UPが成立するときは、前後の和声音の状況のた
めに、伴奏パターンが指示する種類の非和声音を付加す
ることができなかったことを意味する。したがって、伴
奏データMEDは生成せず、メインフローに戻る。
第12図のスケールチェック12−6の詳細を第18図に示
す。非和声音の候補の音高jの音名を2jffから求めて
aに入れる(18−1)。ここに、aは最下位ビットに
“1"が立つとき、音名Cを、第2ビットに“1"が立つと
き音名Dを表わし同様にして第12ビットに“1"が立つと
き音名Bを表わす。この音名データaを、メインフロー
で求めておいたスケールデータSCALE、すなわち調性処
理の施されたスケールデータと比較して音名データaが
スケールデータSCALEの部分集合か否かをチェックする
(18−2)。スケールデータは各ビット位置が各音名に
対応し、“1"が立っているビットがスケール音を表わす
データ形式になっている。したがって、候補の音名デー
タaとスケールデータSCALEとの論理積(∧)をとり、
その結果が“0"であれば、候補の音はスケール音でない
ことがわかる。例えば、Gを主音とするダイアトニック
のスケールデータは、 で与えられる。一方、Bbの音名データは 010000000000 で表わされる。論理積をとると、 000000000000 となり、BbはGを主音とするダイアトニックスケール上
にないことが判明する。したがって、a∧SCALE=0の
ときは候補の音高jはスケール音でないと結論し(18−
4)、a∧SCALE=0でないときは候補の音高はスケー
ル音であると結論している(18−5)。
第12図におけるfの計算12−7の詳細を第19図に示
す。直後の和声音aftと直前の和声音befとの音高の指を
f1とし(19−1)、直後の和声音の音高aftと非和声音
の候補の音高jとの差をf2とし(19−2)、非和声音の
候補の音高jと直前の和声音の音高befとの差をf3とし
ている(19−3)。
第12図における前向推論12−8の詳細を第20図に示
す。最初、ルールポインタPをルールのルールを指す
“1"に初期化する(20−1)。その後、ポインタPで示
されるルールの肯定結論部のデータYpをaにセットし
(20−2)、Lp>fxpまたはfxp>upが成立するとき(20
−3、20−5)、すなわち、ルールの前提部Lp≦fxp≦u
pが成立しないときには、aをルールの否定結論部のデ
ータNpに書き換える。aをPにセットし(20−7)、P
が負かどうかすなわち、プロダクションルールの推論結
果を意味しているか、推論を続けるために次にアクセス
すべきルールを指しているかをチェックする(20−
8)。P>0のときは、20−2以下の推論処理を続行
し、P<0のときは、Pの絶対値を結論に入れて処理を
完了する(20−9)。
いま、プロダクションルールとして第17図に示すルー
ルが使用されるものとし、直前和声音は“ド”、直後の
和声音は“ミ”、非和声音の候補の音高は“レ”である
としてみる。この場合、前後の和声音の音高差f1は長3
度を示す“4"となり、直後の和声音と候補との音高差f2
は長2度を表わす“2"となり、候補と直前和声音との音
高差f3は長2度を表わす“2"となる。この場合、前向推
論は次のようにして実行される。
P=1のとき、ルール1の前提部0≦f1≦0は、f1
4であるため成立しない。このため、ルール1の否定結
論部N1にあるデータ“3"が次にアクセスすべきルールと
なる(P←3)。
P=3のとき、ルール3の前提部−2≦f2≦2は、f2
=2であるため成立する。ルール3の肯定結論部Y3のデ
ータは“−1"の負であり、その絶対値が、経過音の非和
声音識別子を表わしている。この結果、ドレミにおける
レの音は経過音と結論されることになる。
このように、非和声音の伴奏データの生成処理におい
ては、非和声音の候補が、前後の和声音に対して所定の
音域内にあり、調性処理が施されたスケール上の音であ
り、プロダクションルールによる推論結果と伴奏パター
ンが指示する非和声音の種類とが一致することを条件と
して、非和声音を和声音の伴奏ラインに付加している。
したがって、付加される非和声音は、調性上好ましい音
であるとともに、非和声音の分類に関する音楽知識から
も適当とされる音である。
なお、スケールデータSCALEの初期設定に(調の初期
設定)については図示していないが、(イ)電源投入時
にCのダイアトニックスケールをセットする、(ロ)演
奏の最初に判別されたコードがメジャー系であればコー
ド根音を主音とするダイアトニックスケール、マイナー
系であればコード根音より短3度上を主音とするダイア
トニックスケールをセットする、(ハ)演奏者に初期値
のみ入力してもらう、等のいずれかにより実現できる。
なお、上記実施例は単なる例示にすぎず、種々の変
形、変更、改良が可能である。
1つの好ましい改良は、上述した伴奏ライン生成機能
に、伴奏パターンの転回機能を付加することである。例
えば、転回数として“i"が指定されているときには、パ
ターンメモリ8にある伴奏パターンデータのうち、和声
音識別データに対し、転回数の数だけ転回したものを、
伴奏パターンとして用いる。例えば、和声音識別データ
が第3オクターブの第1コード構成音を示す“31"のデ
ータとし、指定転回数が“2"であるとすると、このデー
タは第3オクターブの3番目のコード構成音を表わす
“33"のデータに転回される。第9図の下方に、転回数
“0"のときの伴奏ラインの楽譜と、転回数“2"のときの
伴奏ラインの楽譜を示してある。本件出願人に係る特願
昭62−188913号(昭和62年7月30日出願)には、転回数
をコード進行等から自動的に推定する技術が示されてお
り、この技術を利用することが可能である。
[発明の効果] 以上のように、本発明による自動伴奏装置は演奏入力
手段から新たなコードが与えられた場合に、それまでの
コードの系列を考慮して現区間の調を判別する調判別手
段を備え、それによって判別された調情報を利用して伴
奏ラインを生成する構成になっている。したがって、調
性上、好ましい伴奏ラインを生成することができ、従来
技術における問題、即ち、伴奏に調からはずれた音が入
ってしまう問題を解消できる。
さらに、上記の構成に加え、非和声音を付加するか否
かにつき、非和声音を分類する知識ベースを用いて所望
の非和声音を和声音の伴奏ラインに付加する構成もとり
得る。この構成の場合、一層音楽性豊かな伴奏ラインを
生成することができる。
【図面の簡単な説明】
第1図はこの発明の実施例に係る自動伴奏装置の全体構
成図、第2図は本実施例のメインフローを示す図、第3
図は調性を考慮してスケールデータを生成するフローチ
ャート、第4図は第3図の手段(1)のフローチャー
ト、第5図は第3図の手段(2)のフローチャート、第
6図はコードとスケールとの対応関係を示す図、第7図
は主音とスケールの種類からスケールデータを生成する
フローチャート、第8図は伴奏データの生成が行われる
インターラプトルーチンのフローチャート、第9図はパ
ターンメモリに記憶されるパターンデータ例とともに、
生成結果である伴奏ラインを例示する図、第10図は伴奏
ラインの和声音データを生成するフローチャート、第11
図はコードデータから構成音データを生成するフローと
ともに構成音メモリのデータ例を示す図、第12図は伴奏
ラインの非和声音データを生成するフローチャート、第
13図は非和声音候補の直前にある和声音を読み取るフロ
ーチャート、第14図は非和声音候補の直後にある和声音
を読み取るフローチャート、第15図は非和声音候補の上
限と下限の音高を設定するフローチャート、第16図はプ
ロダクションルールの読み込みのフローとともにプロダ
クションルールのデータ例を示す図、第17図はプロダク
ションルールデータで表現される非和声音の分類知識を
ネットワークで示した図、第18図はスケールのチェック
のフローチャート、第19図はfの計算のフローチャー
ト、第20図はプロダクションルールによる前向推論のフ
ローチャートである。 3……伴奏鍵盤、5……コード判別根音検出部、6……
伴奏データ形成装置、8……パターンメモリ。

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】演奏入力手段から与えられたコード進行か
    ら、現在のコードの区間に対する調を判別する調判別手
    段と、 上記現在のコードと上記判別された調とに基づいて伴奏
    ラインを生成する伴奏ライン生成手段と、 を有することを特徴とする自動伴奏装置。
  2. 【請求項2】特許請求の範囲第1項記載の自動伴奏装置
    において、 上記調判別手段は、直前のコードの区間に対して判別さ
    れた調と現在コードとに基づいて現在のコードの区間に
    対する調を判別する手段から成ることを特徴とする自動
    伴奏装置。
  3. 【請求項3】特許請求の範囲第1項記載の自動伴奏装置
    において、 上記伴奏ライン生成手段は、 上記現在のコードに基づいて、現在のコードの区間にお
    ける和声音の伴奏ラインを生成する和声ライン生成手段
    と、 上記調判別手段により判別された調に対応した音階構成
    音のなかから非和声音を選択して、上記和声音の伴奏ラ
    インに付加する非和声音付加手段と、 を有することを特徴とする自動伴奏装置。
  4. 【請求項4】演奏入力手段から与えられたコードに基づ
    いて和声音と非和声音の音列から成る伴奏ラインを生成
    する自動伴奏装置において、 伴奏ラインの基になる伴奏パターンデータとして、特定
    のコード構成音を表わす和声音識別データと、各和声音
    識別データに対応する和声音を発音するタイミングと、
    非和声音の種類を表わす非和声音識別データと、各非和
    声音識別データに対応する非和声音を発音するタイミン
    グとから成る伴奏パターンデータを生成する伴奏パター
    ンデータ生成手段と、 現在のコードに基づいて、上記伴奏パターンデータの各
    和声音識別データをデコードして和声音の伴奏ラインを
    生成する和声ライン生成手段と、 与えられたコード進行から現在のコードの区間における
    調を判別する調判別手段と、 非和声音を種類毎に分類する分類知識を記憶する記憶手
    段と、 上記調判別手段により判別された調に対応した音階の構
    成音のなかから、上記伴奏パターンデータの非和声音識
    別データが示す非和声音の種類をもつ音を上記分類知識
    を使って推論する推論手段と、 上記推論手段が推論した音を上記和声音の伴奏ラインに
    付加する非和声音付加手段と、 を有することを特徴とする自動伴奏装置。
JP62333595A 1987-12-28 1987-12-28 自動伴奏装置 Expired - Fee Related JP2638021B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP62333595A JP2638021B2 (ja) 1987-12-28 1987-12-28 自動伴奏装置
US07/290,295 US5003860A (en) 1987-12-28 1988-12-22 Automatic accompaniment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62333595A JP2638021B2 (ja) 1987-12-28 1987-12-28 自動伴奏装置

Publications (2)

Publication Number Publication Date
JPH01173099A JPH01173099A (ja) 1989-07-07
JP2638021B2 true JP2638021B2 (ja) 1997-08-06

Family

ID=18267796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62333595A Expired - Fee Related JP2638021B2 (ja) 1987-12-28 1987-12-28 自動伴奏装置

Country Status (2)

Country Link
US (1) US5003860A (ja)
JP (1) JP2638021B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3211839B2 (ja) 1990-04-09 2001-09-25 カシオ計算機株式会社 調性判定装置及び自動伴奏装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2733998B2 (ja) * 1988-09-21 1998-03-30 ヤマハ株式会社 自動調決定装置
US5235125A (en) * 1989-09-29 1993-08-10 Casio Computer Co., Ltd. Apparatus for cross-correlating additional musical part with principal part through time
US5182414A (en) * 1989-12-28 1993-01-26 Kabushiki Kaisha Kawai Gakki Seisakusho Motif playing apparatus
JP2516085B2 (ja) * 1990-04-02 1996-07-10 株式会社河合楽器製作所 自動演奏装置
US5179241A (en) * 1990-04-09 1993-01-12 Casio Computer Co., Ltd. Apparatus for determining tonality for chord progression
JP2995303B2 (ja) * 1990-08-30 1999-12-27 カシオ計算機株式会社 メロディ対コード進行適合性評価装置及び自動コード付け装置
US5250746A (en) * 1991-04-09 1993-10-05 Kabushiki Kaisha Kawai Gakki Seisakusho Chord detecting apparatus
EP0516541A3 (en) * 1991-05-27 1993-02-24 Goldstar Co. Ltd. Method of automatically generating accompaniment chord in electronic musical instrument system
US5302777A (en) * 1991-06-29 1994-04-12 Casio Computer Co., Ltd. Music apparatus for determining tonality from chord progression for improved accompaniment
JPH05108364A (ja) * 1991-10-16 1993-04-30 Nec Corp フアジイ推論演算方法および装置
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
JP3356182B2 (ja) * 1992-02-07 2002-12-09 ヤマハ株式会社 作編曲アシスト装置
JP3436377B2 (ja) * 1992-03-30 2003-08-11 ヤマハ株式会社 自動編曲装置および電子楽器
JP2963585B2 (ja) * 1992-09-08 1999-10-18 ヤマハ 株式会社 調決定装置
US5496962A (en) * 1994-05-31 1996-03-05 Meier; Sidney K. System for real-time music composition and synthesis
US5606144A (en) * 1994-06-06 1997-02-25 Dabby; Diana Method of and apparatus for computer-aided generation of variations of a sequence of symbols, such as a musical piece, and other data, character or image sequences
US5783767A (en) * 1995-08-28 1998-07-21 Shinsky; Jeff K. Fixed-location method of composing and peforming and a musical instrument
US6057503A (en) * 1995-08-28 2000-05-02 Shinsky; Jeff K. Fixed-location method of composing and performing and a musical instrument
US5650584A (en) * 1995-08-28 1997-07-22 Shinsky; Jeff K. Fixed-location method of composing and performing and a musical instrument
US6156965A (en) * 1995-08-28 2000-12-05 Shinsky; Jeff K. Fixed-location method of composing and performing and a musical instrument
JP2000066675A (ja) * 1998-08-19 2000-03-03 Yamaha Corp 自動演奏装置及びそのための記憶媒体
AUPR150700A0 (en) * 2000-11-17 2000-12-07 Mack, Allan John Automated music arranger
TWI228704B (en) 2001-03-23 2005-03-01 Yamaha Corp Music sound synthesis with waveform caching by prediction
WO2002077853A1 (en) * 2001-03-27 2002-10-03 Tauraema Iraihamata Eruera Composition assisting device
SE528839C2 (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
JP4572839B2 (ja) * 2006-02-08 2010-11-04 ヤマハ株式会社 演奏補助装置及びプログラム
US7705231B2 (en) 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
JP5728829B2 (ja) 2010-05-14 2015-06-03 ヤマハ株式会社 電子音楽装置およびハーモニー音生成方法を実現するためのプログラム
US9286877B1 (en) 2010-07-27 2016-03-15 Diana Dabby Method and apparatus for computer-aided variation of music and other sequences, including variation by chaotic mapping
US9286876B1 (en) 2010-07-27 2016-03-15 Diana Dabby Method and apparatus for computer-aided variation of music and other sequences, including variation by chaotic mapping
EP2690620B1 (en) 2011-03-25 2017-05-10 YAMAHA Corporation Accompaniment data generation device
CN104380371B (zh) 2012-06-04 2020-03-20 索尼公司 用于生成输入音乐数据的伴奏的装置、系统和方法
US11024276B1 (en) 2017-09-27 2021-06-01 Diana Dabby Method of creating musical compositions and other symbolic sequences by artificial intelligence
US10614785B1 (en) 2017-09-27 2020-04-07 Diana Dabby Method and apparatus for computer-aided mash-up variations of music and other sequences, including mash-up variation by chaotic mapping
JP7157377B2 (ja) * 2018-10-03 2022-10-20 カシオ計算機株式会社 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2806978C2 (de) * 1977-02-24 1981-09-24 Nippon Gakki Seizo K.K., Hamamatsu, Shizuoka Elektronisches Musikinstrument
US4217804A (en) * 1977-10-18 1980-08-19 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instrument with automatic arpeggio performance device
JPS5565994A (en) * 1978-11-10 1980-05-17 Nippon Musical Instruments Mfg Electronic musical instrument
DE3174921D1 (en) * 1980-01-28 1986-08-21 Nippon Musical Instruments Mfg Chord generating apparatus of electronic musical instrument
JPS56106286A (en) * 1980-01-28 1981-08-24 Nippon Musical Instruments Mfg Electronic musical instrument
GB2083669B (en) * 1980-09-05 1985-01-03 Casio Computer Co Ltd Key data entry system
US4450742A (en) * 1980-12-22 1984-05-29 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instruments having automatic ensemble function based on scale mode
US4489636A (en) * 1982-05-27 1984-12-25 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instruments having supplemental tone generating function
JPS59181394A (ja) * 1983-03-31 1984-10-15 ヤマハ株式会社 電子楽器
JPS6261099A (ja) * 1985-09-12 1987-03-17 ヤマハ株式会社 電子楽器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3211839B2 (ja) 1990-04-09 2001-09-25 カシオ計算機株式会社 調性判定装置及び自動伴奏装置

Also Published As

Publication number Publication date
US5003860A (en) 1991-04-02
JPH01173099A (ja) 1989-07-07

Similar Documents

Publication Publication Date Title
JP2638021B2 (ja) 自動伴奏装置
JP3704980B2 (ja) 自動作曲装置と記録媒体
US4508002A (en) Method and apparatus for improved automatic harmonization
US20020007721A1 (en) Automatic music composing apparatus that composes melody reflecting motif
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
US4433601A (en) Orchestral accompaniment techniques
US4704933A (en) Apparatus for and method of producing automatic music accompaniment from stored accompaniment segments in an electronic musical instrument
JPS6365159B2 (ja)
JPH07219536A (ja) 自動編曲装置
US6984781B2 (en) Music formulation
JPH0981142A (ja) 自動作曲機
US4232581A (en) Automatic accompaniment apparatus
JPH0990952A (ja) 和音分析装置
JP3364941B2 (ja) 自動作曲機
JP3216143B2 (ja) 楽譜解釈装置
US5824932A (en) Automatic performing apparatus with sequence data modification
JP3531507B2 (ja) 楽曲生成装置および楽曲生成プログラムを記録したコンピュータで読み取り可能な記録媒体
JP2638021C (ja)
JP3271331B2 (ja) メロディ分析装置
JP3364940B2 (ja) 自動作曲機
JP2929498B2 (ja) 電子楽器
JP3163654B2 (ja) 自動伴奏装置
JP2615720B2 (ja) 自動作曲機
JP2974610B2 (ja) 電子楽器
JP3290187B2 (ja) 楽譜解釈装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees