JPH01173099A - 自動伴奏装置 - Google Patents

自動伴奏装置

Info

Publication number
JPH01173099A
JPH01173099A JP62333595A JP33359587A JPH01173099A JP H01173099 A JPH01173099 A JP H01173099A JP 62333595 A JP62333595 A JP 62333595A JP 33359587 A JP33359587 A JP 33359587A JP H01173099 A JPH01173099 A JP H01173099A
Authority
JP
Japan
Prior art keywords
accompaniment
sound
harmonic
data
chord
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62333595A
Other languages
English (en)
Other versions
JP2638021B2 (ja
Inventor
Jiyunichi Minamidaka
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP62333595A priority Critical patent/JP2638021B2/ja
Priority to US07/290,295 priority patent/US5003860A/en
Publication of JPH01173099A publication Critical patent/JPH01173099A/ja
Application granted granted Critical
Publication of JP2638021B2 publication Critical patent/JP2638021B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • G10H1/28Selecting circuits for automatically producing a series of tones to produce arpeggios
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/395Special musical scales, i.e. other than the 12- interval equally tempered scale; Special input devices therefor
    • G10H2210/525Diatonic scales, e.g. aeolian, ionian or major, dorian, locrian, lydian, mixolydian, phrygian, i.e. seven note, octave-repeating musical scales comprising five whole steps and two half steps for each octave, in which the two half steps are separated from each other by either two or three whole steps
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/581Chord inversion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/596Chord augmented
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/601Chord diminished
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/616Chord seventh, major or minor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の技術分野] この発明は電子楽器等で使用される自動伴奏装置に関す
る。
[背 景] メロディにベース、オブリガード等の伴奏ラインを自動
的に付加する自動伴奏装置は既に知られている。一般に
、この種の装置は、伴奏ラインの基になる伴奏パターン
データを記憶する伴奏パターンメモリを備えている。伴
奏パターンデータは、伴奏ラインの水平ないし時間情報
(発音タイミングを指示するデータ)と、伴奏ラインの
垂直情報とから成り、伴奏ラインの垂直情報は、演奏者
から演奏入力装置(例えば鍵盤)を通して与えられるコ
ード情報に従って、音高列に変換される。
1つのタイプの自動伴奏装置では、垂直情報として、入
力された複数の音(コード)のなかの何番目かを指示す
るデータが用意され、動作の際、伴奏パターンが指示す
る番号を、対応する音の高さに変換する。このタイプは
、演奏入力装置から入力するコードを転回することによ
り、転回形の伴奏ラインを生成することができる。しか
し、入力されたコードの構成音以外の音(コード構成外
音、非和声音)を生成することは原理上できない。
もう1つのタイプの自動伴奏装置では、伴奏パターンの
垂直情報として、コードの根音に対する音程を指示する
データが用意される。この音程を指示するデータはコー
ドのタイプによって適宜、変更される0例えば、根音に
対し、長3度の音程を指示するデータ(第3音のデータ
)は、入力コードとしてマイナーコードが与えられたと
きには、半音下げられ、それが、コードの根音に加算さ
れて、最終的な音高となる。このタイプの自動伴奏装置
は非和声音(コード構成外音)を含む伴奏ラインを生成
することができるが、音楽的に望ましい非和声音を常に
生成する保証はない0例えば、メジャーやマイナーのコ
ードに対して全音階(ダイアトニックスケール)を想定
したとすると、根音に対し第2音を指示するデータは、
これらのコードが与えられた場合、常に、コード根音よ
り長2度上の音高に変換される。このことは、コードの
根音が変化するごとに、コード構成外音の高さも同様に
シフトすることを意味し、調性感に欠ける伴奏ラインの
生成原因になる。
[発明の目的] したがって、この発明の目的は、調の変化が自然である
ような伴奏ラインを生成可能な自動伴奏装置を提供する
ことである。
[発明の要点] 上記の目的を達成するため、本発明による自動伴奏装置
は、演奏入力手段から与えられたコードの系列(コード
の進行)から、現在のコードの区間における調を判定す
る調判別手段を有し、和声音ライン生成手段が生成した
現在のコードの区間に対する和声音の伴奏ラインに非和
声音を付加する非和声音付加手段が、上記調判別手段の
判別した調を主音とする音階のなかから付加すべき非和
声音を選択することを特徴とする(第1発明)。
さらに、本発明のもう1つの側面によれば、上記の構成
に加え、伴奏パターンデータとして、コード構成音の種
類を表わす和声音識別データと。
各和声音識別データに対応する和声音の発音タイミング
と、非和声音の種類を表わす非和声音識別データと、各
非和声音識別データに対応する非和声音の発音タイミン
グとから成る伴奏パターンデータを生成する伴奏パター
ンデータ生成手段と、現在のコードに基づいて伴奏パタ
ーンデータの各和声音識別データを解読して和声音の伴
奏ラインを生成する和声音ライン生成手段と、非和声音
の種類を分類する分類知識を記憶する記憶手段と、調判
別手段の判別した調を主音とする音階のなかから、上記
伴奏パターンデータの非和声音識別データが示す非和声
音の種類をもつ音を上記分類知識を用いて推論する推論
手段とが設けられ、この推論手段の推論した音が非和声
音として和声音の伴奏ラインに付加される(第2発明)
[発明の作用、展開1 本発明は従来技術が無視していた重要な事項、すなわち
調性を考慮している。調判別手段は現在のコード区間に
対する調の判別のために、コードの系列を参照する。こ
の調判別手段が判別した調を主音する音階は、伴奏ライ
ンに使用できる音を規定する。換言すれば、音階以外の
音は伴奏ラインに付加できない禁止音の意味をもつ、し
たがって本発明の場合、伴奏ラインの一部を成す非和声
音は、コードのタイプから想定される音階に依存するの
みならず、コードの進行から導き出される進行中の調に
も依存する。
一構成例では、調判別手段は、現コードの構成音が先行
する調を主音する音階上の音から構成される限り、現区
間の調を先行する調と同一に維持する手段と、現コード
の構成音のなかに先行する謂を主音とする音階にない音
が含まれるときに、現区間の調を転調する手段とから成
る。好ましくは、転調手段は、先行する調を基準の調と
して、この基準の調から近親調(関係調)に順次転調し
た場合に、現コードのすべての構成音を音階上に含む条
件を満足することになる最初の調(音階の主音)を現コ
ード区間の調と判別する。後述する実施例では、現区間
のコードが全音階(ダイアトニックスケール)が想定さ
れるコード(例えば、メジャーコード、マイナーコード
)のときのみ、調判別のため先行する調を参照している
。これは、全音階が調性と密接な関係をもつと考えられ
るからである。一方、調性との関係が希薄なコードの区
間では、先行する調への参照は行なわれず、コードの根
音が音階の主音(調)となる、さらに、調性との関係が
希薄なコードの区間に対して割り当てた調は後続する区
間に対し、先行する調とはなり得ない。
第2発明には、非和声音を分類する分類知識を記憶する
記憶手段と、この分類知識を用いて音階のなかに所望の
種類の非和声音(伴奏パターンデータが指示する音)が
含まれるかどうかを推論する推論手段が組み込まれてい
る。推論手段の推論結果は、音階と、分類知識と、伴奏
ラインの和声音の列に依存し、和声音の列はコードタイ
プとコードの転回数に依存する。したがって、状況に応
じて、選択的に非和声音が付加されることになり、様々
な伴奏ラインが生成可能である。また、生成される伴奏
ラインに含まれる非和声音は1分類知識の条件を満足す
る音であるので、全体として音楽的に統一のとれた伴奏
ラインが生成される。
[実施例] 以下、本発明の実施例について図面を参照して説明する
く全体構成〉 本実施例に係る自動伴奏装置の全体構成を第1図に示す
、l!盤のある鍵域(通常、高音域)は、メロデイ鍵盤
1を構成しており、その鍵域内で押鍵された情報は押鍵
検出装置2により検出される。一方、鍵盤の別の鍵域(
通常、低音域)は、伴奏鍵盤3を規定しており、その鍵
域内で押鍵された情報は押鍵検出装置4により検出され
る。押鍵検出装置4の検出した伴奏鍵情報はコード判別
根音検出部5に送られ、ここで、コードを特定するデー
タ、すなわちコードの根音とタイプが判別される(周知
技術)。
伴奏データ形成装置6は1本実施例の特徴要素であり、
伴奏データを生成するため、上記コード判別根音検出部
5とパターン分解能に相当するクロックを発生するクロ
ック発生部7と、伴奏パターンデータを記憶するパター
ンメモリ8と、非和声音を分類するための音楽知識を記
憶するプロダクションルールメモリ9を利用する。パタ
ーンメモリ8には、各発音タイミングを表わすアドレス
の位置に、コード構成音の種類(コード構成音番号とオ
クターブコード)を表わす和声音識別データまたは非和
声音の種類を表わす非和声音識別データが記憶されてお
り(第9図参照)、これらの伴奏パターンデータは伴奏
データ形成装置6より、クロック発生部7の示すクロッ
クの間隔で順次、サイクリックにアクセスされる。伴奏
データ形成装置6はコード判別根音検出部5から新しい
コードの根音とタイプが与えられたときに、後述する仕
方で現区間の調を判別して判別した調を主音とするスケ
ールデータを生成する。後述するように、このスケール
データは、伴奏ラインに使用可能な音を規定する。パタ
ーンメモリ8から読み出したデータが和声音識別データ
であるとき、伴奏データ形成装置6は、現在のコードの
根音とコードタイプを用いて、和声音識別データを対応
する音高に変換する。これによって、伴奏ラインの和声
音の列が形成される。一方、パターンメモリ8から読み
出したデータが非和声音識別データであるときは、前後
にある和声音の音高を求め(パターンメモリ8にある前
後の和声音識別データを現在のコードで音高に変換する
ことにより)、付加する非和声音の候補の音域を定める
。さらに、伴奏データ形成装置6はこの音域内にある音
階上の音を非和声音の候補の音高として選択し、この候
補の音高と1前後の和声音の音高とから、伴奏ラインの
状況を表わす関数を計算し、計算結果をプロダクション
ルールに適用して、候補の音高の非和声音の種類を推論
する。そして、推論結果が伴奏パターンが示す非和声音
の識別データと一致するときには、候補の音高を和声音
の伴奏ラインに付加する非和声音として発行する。
伴奏データ形成装置6が生成した伴奏データは楽音形成
装置10に送られ、楽音信号に変換される。一方、メロ
デイ鍵盤6より押鍵検出装置2を通ったメロディデータ
は楽音形成装置11に送られ、同様に楽音信号に変換さ
れる。楽音形成装置1O111の出力はサウンドシステ
ム12に送られて放音される。
くメインフロー〉 第2図は実施例のメインフローを示す、押鍵検出装置4
の検出した伴奏鍵情報が読みとられ(2−1)、コード
判別根音検出部5において、何を根音とし、どのタイプ
のコードであるかが調べられ(2−2)、伴奏データ形
成装置6において、根音とコードのタイプに従って、伴
奏データ生成の際に使用可能な音を調性の面から制限す
るためのスケールデータが生成される(2−3)。
くスケールデータ生成〉 スケールデータ生成2−3の詳細について第3図から第
7図を参照して説明する。この例は次の原則を基礎に置
いている。
第1の原則は、(A)1つのコードが与えられた場合、
そのコードから想定される工ないし複数のスケールが存
在するということである。この原則に従い、かつ実施の
脱室上から、本例では、それぞれのコードタイプに1つ
のスケールを対応づけている。コードとスケールとの対
応例を第6図に示す、第2は、(B)ダイアトニックス
ケールのような自然的な音階は調性と密接な関係があり
、スケールの主音を変更することにより転調効果が得ら
れる。第3は、(C)人工的な音階は調性との関係が希
薄である、ということである、これらの原則に従い、本
例では、コード判別根音検出部5が検出した現区間のコ
ードが、ダイアトニックスケールに対応可能なコードか
否かでスケールの主音に関する処理を別にしている。さ
らに。
現区間のコードがダイアトニックスケールに対応可能な
コードの場合には、現区間の調性(現区間のスケールの
主音)を先行するコードのうちで。
直前のダイアトニックスケール対応コードにより生成さ
れたスケールに基づいて生成している。すなわち、ダイ
アトニックスケール対応コードから次のダイアトニック
スケール対応コードまでの間に、人工的な音階に対応す
るコードがある場合、これらの人工的な音階に対応する
コードに対して生成したスケールは次のダイアトニック
スケール対応コードのスケールの主音を決定するのに関
与しない。
第3図に従うと、3−2で現区間のコード(コード判別
根音検出部5の検出したコード)がダイアトニックスケ
ールに対応可能なコードかどうかをチエツクしており、
ダイアトニックスケール対応コードであれば、フラグf
l(ダイアトニックスケール対応コード間にあるダイア
トニックスケールに対応しないコードの数の計数値)を
チエツクL (3−3)、fl≧1ならば、flを“0
”にリセットしく3−4)、スケールバッファ5cAL
EBUFに記憶されているスケールデータを5CALE
に代入してから(3−5)、手段(1)を実行する(3
−6)、ここに、スケールバッファ5CALEBUFに
は、先行するダイアトニックスケール対応コードの区間
に対して生成されたスケールデータが記憶されており、
手段(1)では、このスケールデータな用いて、現区間
のスケールデータを生成する。一方、今回検出されたコ
ードがダイアトニックスケール対応コードでない場合に
は、手段(2)を実行する(3−7)。
今回、検出されたコードがダイアトニックスケール対応
コードの場合に実行される手段(1)の詳細を第4図に
示す、この処理が基礎に置いている原則は、(イ)調は
なるべく変えない方がよい、(ロ)コード構成音のなか
にスケール音以外の音が含まれている場合には転調すべ
きである、(ハ)転調は近親鋼で生じやすい、というこ
とである、これらの原則に従い、第4図のフローでは、
まず、4−1.4−2でレジスタa、bにそれまでのス
ケールデータ5CALE (先行する最新のダイアトニ
ックスケール対応コードの区間に対して生成されたスケ
ールデータ)をセットする。そして、現在のコードの構
成音がaまたはbで表わされるスケール音の部分集合で
あるかどうかをチエツクしく4−3.4−5)、条件成
立なら、スケールデータaまたはbを現在のスケールデ
ータ5CALEとして採用する(4−4.4−6)、4
−3.4−5の条件がいずれも不成立のときは、aを5
度上の属調に転回しく4−7)、bを5度下の下属調に
転回した後(4−8)、再びチエツク4−3.4−5を
繰り返す。
例えば、それまでのスケールデータ5CALEがCを主
音とするダイアトニックスケールである場合に、コード
判別根音検出部によりEを根音とするマイナーコード(
Emin)検出されたとする。マイナーコードはダイア
トニックスケール対応コード(コード構成音のすべてが
、コード根音より類3度上の音を主音とするダイアトニ
ックスケールの音から構成される)であるので、手段(
1)が実行される。処理4−1.4−2の後の最初のチ
エツク4−3で、Eminのコード構成音E、G、Bが
、それまでのスケールであるC1D、E、F、G、A、
Bの部分集合であることが確認され、4−4により現在
のスケールとしてそれまでのスケールが採用される。
コード判別根音検出部5により検出された今回のコード
がダイアトニックスケールに対応しないコードの場合に
実行される手段(2)の詳細は第5図に示される。まず
f!Lをインクリメントしく5−1)、flが“l”か
どうかをチエツクする(5−2)、fl−1のときは、
今回検出されたダイアトニックスケールに対応しないコ
ードの直前のコードがダイアトニックスケール対応コー
ドであったことを意味し、この時点で5CALEには、
この直前のダイアトニックスケール対応コードに対して
生成したスケールデータが入っている。このスケールデ
ータは、後続するダイアトニックスケール対応コードに
対するスケールデータ生成のために保存しておく必要が
ある。そこで、f文=1のときは、スケールデータ5C
ALEをスケールバッファ5CALEBUFにセーブす
る(5−3)、そして、現在のコードがディミニッシュ
コードdimのときには、現在のスケールデータとして
ディミニツシュスケールを設定しく5−4.5−5)、
現在のコードがオーギュメントコードaugのときは現
在のスケールデータとしてホールトーンスケールを設定
する(5−6.5−7)、処理5−5、または5−7の
なかで行われる5CALE生成処理を第7図に示す、コ
ードに割り当てたスケール種類から、スケールメモリ(
図示せず)上のスケールデータのアドレスを計算して、
スケールデータを読み出し、5CALEに入れる(7−
1)、そして、主音の数だけ5cALEを転回する0例
えば、スケールメモリに、Cを主音とするディミニツシ
ュスケールが用意されているとし、今回のコードとして
Dを根音とするディミニッシュコード(D d i m
)が検出されたとすると、処理5−5が実行され、Cを
主音とするディミニッシュスケールが5CALEにセッ
トされた後、根音を示す主音情報に従って、5CALE
をDを主音とするスケールに変換される。
例えば、スケールメモリのスケールデータ表現が、デー
タ長12ビツトで、最下位の桁から最上位の桁に向って
各桁が夫々C,C#、・・・・・・Bb、Bの音名を表
わし、桁のビット“l”がスケール音を表わすとすると
、各桁のビットを1つ上の桁に移す(ただし、最上位の
桁のビットは最下位の桁に移す)処理を2回繰り返すこ
とで、Cを主音とするスケールデータはDを主音とする
スケールデータに変換される。
く伴奏データ生成〉 本例の伴奏データの形成は、パターン分解能と関係する
時間間隔(クロック発生部7が発生するクロックの周期
)で実行されるインターラブドルーチンのなかで行われ
る。また、説明の便宜上、1小節を16等分した間隔を
分解能として仮定する。
第8図にインターラブドルーチンのフローを示す、クロ
ック発生部7からクロックが発生すると、同図のフロー
に入り、小節内の時間的位置を示すポインタPをインク
リメントしく8−1)、小節を越えた値CP>t5)に
なったときは、Pを小節の頭を示す“0”に戻す(8−
2,8−3)、そして、パターンデータメモリ8から、
ポインタPでアドレス指定されるパターンデータ(デー
タフォーマットは第9図を参照のこと)を読み込む(8
−4)、読み込んだパターンデータが何も発音する必要
のないことを示しているときには(data=0)、何
も処理せずメインフローに戻る(8−5)’が、処理を
要するデータのときは、そのパターンデータが非和声音
識別データか(data<10)、和声音識別データで
あるかをチエツクしく8−6)、和声音識別データのと
きには和声音を形成しく8−7)、非和声音識別データ
のときには非和声音を形成する(8−8)。
和声音データ生成処理8−7の詳細を第1θ図に示す、
まず、現在のコードの根音とタイプからコード構成音デ
ータccを生成する(l 0−1)、詳細は第11図に
示される。現在のコードタイプから、コード構成音メモ
リ(第11図の下方参照)をアクセスして、基準の根音
(ここではC)で表現された有効長さ12ビツトの構成
音データを読み出し、CCにセットする(11−1)、
そして、現在のコードの根音の数だけ、12ビツトを左
に転回する処理を実行する(11−2〜1l−5)、例
えば、現在のコードの根音がGで、コードタイプがメジ
ャー(maj)だとすると、コード構成音メモリからC
を根音とするメジャーの構成音データ091(16進表
現)が取り出される。すなわち、 G  E   C である、これをGを表わす根音データの値7だけ左に転
回すると、 BG     D となり、Gmajのコード構成音が得られる。
コード構成音データを生成したら、そのデータに含まれ
るビット“l”の数を計数することで、コード構成音数
を算出し、cknoに代入する(10−2)、次に、非
和声音識別データdataの1桁目に表現される構成音
番号(第9図参照)が、コード構成音数cknoより大
きいか否かをチエツクしく1O−3)、大きければ、d
ataの上位桁にあるオクターブ番号をインクリメント
して(10−4)、dataの1桁目をcknoの剥除
とする(10−5)、例えば、パターンメモリ8から読
み出したパターンデータが第3オクターブの第4コード
構成音を表わす和声音識別データ34だとし、現在のコ
ードが、3つの構成音から成るコード(例えば、メジャ
ーコード)だとすると、この処理の結果、第4オクター
ブの第1コード構成音を表わすデータ41に変換される
0次に、コード構成音データccの桁(音名)をカウン
トするjに“−1”をセットし、41′である桁(構成
音)をカウントするCを“O”に初期化する(io−s
)、そして音名カウンタjをインクリメントして(10
−7)、その音名の位置に構成音があるかどうかを調べ
(10−8)、構成音が見つかったら構成音カウンタC
をインクリメントしく1O−9)、その値がパターンデ
ータの示すコード構成音番号に達したかどうかを調べる
(10−10)、この1O−7〜10−10のループ処
理により、パターンデータのコード構成音番号に対応す
る音名jが得られる。
したがって、10−11で伴奏データとして、j(音名
)+1O016×dataのオクターブ情報を得、ME
Dに入れる。
このように、和声音データ生成処理では、パターンデー
タの示す和声音識別データを、現在のコード情報を使っ
て、音高表現のデータMEDに変換している。
パターンメモリ8から読み出したパターンデータが非和
声音識別データのときに実行される非和声音データ生成
処理8−8の詳細を第12図に示す、この処理では、非
和声音の付加のために、調性処理が施されたスケールデ
ータ5CALE、非和声音を分類する知識を表現するプ
ロダクションルールが利用される。付加される非和声音
は次の条件を満足する必要がある。
(イ)所定の音域内の音であること (ロ)調性処理済のスケールデータが示すスケール音で
あること (ハ)プロダクションルールメモリ9を使って推論した
結果と、伴奏パターンが示す非和声音の種類とが一致す
ること プロダクションルールを適用するためには、既に確定し
ている伴奏ラインの状況を評価する必要がある(非和声
音の性格がラインの状況に依存するため)、第12図の
12−1で行っている直前の和声音データの読み込み処
理、12−2で行っている直後の和声音データの読み込
み処理、12−7で行っているfの計算は、確定ライン
の状況を評価するための処理である。また、12−3で
は、非和声音の候補となる音域を前後の和声音から決定
している。12−4は、プロダクションルールメモリ9
にあるプロダクションルールデータの読み込み処理であ
る。
直前の和声音データを読み込む処理12−1の詳細は第
13図に示される。まず、着目している非和声音識別デ
ータのアドレスを示すポインタPの値をpbにセットし
く13−1)、Pbをデクリメントしていって、アドレ
スPbにあるパターンデータが和声音識別データを示す
ときにそのアドレスをbefに格納する(13−2〜1
3−4)、なお、13−3のチエツクが木Pb=0(発
音タイミングではない)になっている理由は、和声音と
和声音の間には高々1つの非和声音しか付加されないよ
うな伴奏パターンを想定しているためである。最後に、
befにある和声音識別データを音高表現の和声音デー
タに変換する(13−5)、この処理は、第10図の和
声音データ生成と同様である。
直後の和声音データを読み込む処理12−2の詳細は第
14図に示される。ポインタPaが現在位置Pからイン
クリメントされる点を除いて第13図の処理と同様であ
るので説明は省略する。
非和声音の候補とする音域の下限の音高見0と上限の音
高upを設定する処理12−3の詳細は第15図に示さ
れる。この例では、前後の和声音bef、aftのうち
高い方の和声音より5半音上の音を上限の音高upとし
、前後の和声音のうち低い方の和声音より5半音下の音
を下限の音高文Oにしている(15−1〜15−5)。
プロダクションルールの読み込み処理12−4の詳細は
第16図に示される。第16図の下方に例示するように
、プロダクションルールメモリ9のデータ形式は、ルー
ル1つ当り、5つのデータL、X、U、Y、 Nから構
成される。L、X、Uは、ルールの前提部L≦Fx≦U
を表わし、関数の種類Xの値Fxが、下限りから上限U
の間にあるかを意味する。Yには前提部が成立するとき
に次にアクセスすべきルールのポインタ(次にアクセス
すべきルールがないときには推論結果)が入り、Nには
前提部が成立しないときに次にアクセスすべきルールの
ポインタ(次にアクセスすべきルールがないときには推
論結果)が入る。参考までに、第16図の下方に示すプ
ロダクションルールデータを知識のネットワークで表現
した図を第17図に示す。
第16図の処理においては、まずプロダクションルール
メモリ9のアドレスカウンタPを“0′に初期化しく1
6−1)、ルール番号のカウンタiを“0”に初期化し
、Pにあるルールデータをaに読み込み(16−3)、
Pの5の余りを算出しく16−5)、余り0ならPは下
限りのデータを指しており、下限データは新しいルール
の先頭データであるので、ルールカウンタiをインクリ
メントし、レジスタLiにルールデータaを入れる(1
6−6〜16−8)、同様に余り1のときは1番目ルー
ルの関数の種類としてルールデータaをXtに入れ(1
6−9〜16−10)、余り2のときはi番目のルール
の上限データとしてルールデータatUiに入れ(18
−11,16−12)、余り3のときはi番目のルール
の肯定結論データYとしてルールデータaをYiに入れ
(16−13,16−14)、余り4のときはi番目の
ルールの否定結論データNとしてルールデータaをNi
に入れる(16−15)、そしてアドレスカウンタPを
インクリメントして(16−16)、16−3以降の処
理をくり返す、読み込んだルールデータが終了コードE
OFを示すとき(16−4)、iに入っているルール数
をrulen。
にセットして(16−17)フローを抜ける。
その後は、第12図に示すように、音高の下限noから
上限upまでの非和声音音高候補jに対し、jがスケー
ル音かどうかをチエツクしく12−6)、成立すれば前
後和声音と非和声音候補とから関数fを計算しく12−
7)、この計算結果をプロダクションルールに適用して
前向推論を行い(12−8)、推論の結論が伴奏パター
ンの非和声音識別子と一致するかどうかを調べる(12
−9)、ここで一致するときは、音高jは上述した非和
声音の付加条件をすべて満足する音である。したがって
、この音高jを伴奏データMEDにセットする。jがス
ケール音でない場合や、推論の結論が伴奏パターンが指
示する非和声音の種類と一致しないときは、jをインク
リメントして、次の音高に対する非和声音の条件検査を
くり返す、12−11でj>UPが成立するときは。
前後の和声音の状況のために、伴奏パターンが指示する
種類の非和声音を付加することができなかったことを意
味する。したがって、伴奏データMEDは生成せず、メ
インフローに戻る。
第12図のス・ケールチエツク12−6の詳細を第18
図に示す、非和声音の候補の音高jの音名を2jAff
から求めてaに入れる(18−1)。
ここに、aは最下位ビットに“1”が立つとき、音名C
を、第2ビツトに“l”が立つとき音名りを表わし同様
にして第12ビツトに“l”が立つとき音名Bを表わす
、この音名データaを、メインフローで求めておいたス
ケールデータ5CALE、すなわち調性処理の施された
スケールデータと比較して音名データaがスケールデー
タ5CALEの部分集合か否かをチエツクする(18−
2)、スケールデータは各ビット位置が各音名に対応し
、“1″が立っているビットがスケール音を表わすデー
タ形式になっている。したがって、候補の音名データa
とスケールデータ5CALEとの論理積(八)をとり、
その結果がO”であれば、候補の音はスケール音でない
ことがわかる0例えば、Gを主音とするダイアトニック
のスケールデータは、 101011010101 (2進) で与えられる。一方、Bbの音名データはで表わされる
。論理積をとると、 ooooooooooo。
となり、BbはGを主音とするダイアトニックスケール
上にないことが判明する。したがって、aAscALE
=oのときは候補の音高jはスケール音でないと結論し
く1g−4)、aASCALE=0でないときは候補の
音高はスケール音であると結論している(18−5)。
第12図におけるfの計算12−7の詳細を第19図に
示す、直後の和声音aftと直前の和声音befとの音
高の差をfl としく19−1)。
直後の和声音の音高aftと非和声音の候補の音高jと
の差をf2としく19−2)、非和声音の候補の音高j
と直前の和声音の音高befとの差をf3としている(
19−3)。
第12図における前向推論12−8の詳細を第20図に
示す、最初、ルールポインタPをルートのルールを指す
“1″′に初期化する(2〇−1)、その後、ポインタ
Pで示されるルールの肯定結論部のデータypをaにセ
ットしく2〇−2)、LP>fxpまたはfXp>up
が成立するとき(20−3,2O−5)、すなわち、ル
ールの前提部Lp≦fXll≦upが成立しないときに
は、aをルールの否定結論部のデータNpに書き換える
。aをPにセットしく2O−7)、Pが負かどうかすな
わち、プロダクションルールの推論結果を意味している
か、推論を続けるために次にアクセスすべきルールを指
しているかをチエツクする(20−8)、Proのとき
は、20−2以下の推論処理を続行し、P<0のときは
、Pの絶対値を結論に入れて処理を完了する(20−9
)。
いま、プロダクションルールとして第17図に示すルー
ルが使用されるものとし、直前和声音は“ド”、直後の
和声音は“ミ”、非和声音の候補の音高は“し”である
としてみる、この場合、前後の和声音の音高差f1は長
3度を示す4”となり、直後の和声音と候補との音高差
f2は長2度を表わす“2”となり、候補と直前和声音
との音高差f3は長2度を表わす“2”となる、この場
合、前向推論は次のようにして実行される。
P=1のとき、ルールlの前提部0≦f1≦0は、f1
=4であるため成立しない、このため、ルール1の否定
結論部N!にあるデータ“3”が次にアクセスすべきル
ールとなる(P←3)。
P=3のとき、ルール3の前提部−2≦f2≦2は、f
2=2であるため成立する。ルール3の肯定結論部Y3
のデータは“−1”の負であり、その絶対値が、経過音
の非和声音識別子を表わしている。この結果、ドレミに
おけるしの音は経過音と結論されることになる。
このように、非和声音の伴奏データの生成処理において
は、非和声音の候補が1前後の和声音に対して所定の音
域内にあり、調性処理が施されたスケール上の音であり
、プロダクションルールによる推論結果と伴奏パターン
が指示する非和声音の種類とが一致することを条件とし
て、非和声音を和声音の伴奏ラインに付加している。し
たがって、付加される非和声音は、調性上好ましい音で
あるとともに、非和声音の分類に関する音楽知識からも
適当とされる音である。
なお、スケールデータ5CALEの初期設定については
図示していないが、(イ)電源投入時にCのダイアトニ
ックスケールをセットする、(ロ)演奏の最初に判別さ
れたコードがメジャー系であればコード根音を主音とす
るダイアトニックスケール、マイナー系であればコード
根音より短3度上を主音とするダイアトニックスケール
をセットする、(ハ)演奏者に初期値のみ入力してもら
う、等のいずれかにより実現できる。
なお、上記実施例は単なる例示にすぎず、種々の変形、
変更、改良が可能である。
1つの好ましい改良は、上述した伴奏ライン生成機能に
、伴奏パターンの転回機能を付加することである0例え
ば、転回数として“i”が指定されているときには、パ
ターンメモリ8にある伴奏パターンデータのうち、和声
音識別データに対し、転回数の数だけ転回したものを、
伴奏パターンとして用いる0例えば、和声音識別データ
が第3オクターブの第1コード構成音を示す“31”の
データとし、指定転回数が“2”であるとすると、この
データは第3オクターブの3番目のコード構成音を表わ
す“33”のデータに転回される。第9図の下方に、転
回数“O”のときの伴奏ラインの楽譜と、転回数“2”
のときの伴奏ラインの楽譜を示しである0本件出願人に
係る特願昭62−188913号(昭和62年7月30
日出願)には、転回数をコード進行等から自動的に推定
する技術が示されており、この技術を利用することが可
能である。
[発明の効果] 以上のように、本発明による自動伴奏装置は演奏入力手
段から新たなコードが与えられた場合に、それまでのコ
ードの系列を考慮して現区間の調を判別する調判別手段
を備え、それによって判別された調を主音とするスケー
ルの音のなかから和声音の伴奏ラインに付加すべき非和
声音を選択する構成になっている。したがって、調性上
、好ましい伴奏ラインを生成することができ、従来技術
では実現し得なかった伴奏を行うことができる。
さらに、上記の構成に加え、非和声音を付加するか否か
につき、非和声音を分類する知識ベースを用いて所望の
非和声音を和声音の伴奏ラインに付加する構成もとり得
る。この構成の場合、−層、音楽性豊かな伴奏ラインを
生成することができる。
【図面の簡単な説明】
第1図はこの発明の実施例に係る自動伴奏装置の全体構
成図、第2図は本実施例のメインフローを示す図、第3
図は調性を考慮してスケールデータを生成するフローチ
ャート、第4図は第3図の手段(1)のフローチャート
、第5図は第3図の手段(2)のフローチャート、第6
図はコードとスケールとの対応関係を示す図、第7図は
主音とスケールの種類からスケールデータを生成するフ
ローチャート、第8図は伴奏データの生成が行われるイ
ンターラブドルーチンのフローチャート、第9図はパタ
ーンメモリに記憶されるパターンデータ例とともに、生
成結果である伴奏ラインを例示する図、第10図は伴奏
ラインの和声音データを生成するフローチャート、第1
1図はコードデータから構成音データを生成するフロー
とともに構成音メモリのデータ例を示す図、第12図は
伴奏ラインの非和声音データを生成するフローチャート
、第13図は非和声音候補の直前にある和声音を読み取
るフローチャート、第14図は非和声音候補の直後にあ
る和声音を読み取るフローチャート、第15図は非和声
音候補の上限と下限の音高を設定するフローチャート、
第16図はプロダクションルールの読み込みのフローと
ともにプロダクションルールのデータ例を示す図、第1
7図はプロダクションルールデータで表現される非和声
音の分類知識をネットワークで示した図、第18図はス
ケールのチエツクのフローチャート、第19図はfの計
算のフローチャート、第20図はプロダクションルール
による前向推論のフローチャートである。 3・・・・・・伴奏鍵盤、5・・・・・・コード判別根
音検出部、6・・・・・・伴奏データ形成装置、8・・
・・・・パターンメモリ。 特許出願人  カシオ計算機株式会社 主 体 構 尿 ス汀−九テ”−夕生泳 f−C’J     rつ ト ン− φ ヱ 1’:、E−et=泪写L1″IヨΦヨn εεにε℃
ロシεまε + 娩(2) 米飯 残    丁−タ ダイアトニック     AB5 ホールトーン   555 テ′°−タイタ11 第7図 を音t7汀−几り社嬰旬より5CALE生ベイ5ターフ
アトノL−+ン M     テーク   飯螺。 2      049+6    dim3     
11h6   0u9 t、      0a116   5us45    
  49+lF+     7th6     489
16    m7th第11図 コードテ”−夕xりCC庄仄 t)el 第15図 イ茨ネπ烏の二隈Y下1及 第17図 フ0ロr/7zョンルールの掬りき図 第20図

Claims (2)

    【特許請求の範囲】
  1. (1)演奏入力手段から与えられたコードに基づいて、
    和声音と非和声音の音列から成る伴奏ラインを生成する
    自動伴奏装置において、 与えられたコードの系列から、現在のコードの区間にお
    ける調を判別する調判別手段と、現在のコードに基づい
    て、現在のコードの区間における和声音の伴奏ラインを
    生成する和声ライン生成手段と、 上記調判別手段により判別された調を主音とする音階の
    なかから非和声音を選択して、上記和声音の伴奏ライン
    に付加する非和声音付加手段と、を有することを特徴と
    する自動伴奏装置。
  2. (2)演奏入力手段から与えられたコードに基づいて和
    声音と非和声音の音列から成る伴奏ラインを生成する自
    動伴奏装置において、 伴奏ラインの基になる伴奏パターンデータとして、コー
    ド構成音の種類を表わす和声音識別データと、各和声音
    識別データに対応する和声音を発音するタイミングと、
    非和声音の種類を表わす非和声音識別データと、各非和
    声音識別データに対応する非和声音を発音するタイミン
    グとから成る伴奏パターンデータを生成する伴奏パター
    ンデータ生成手段と、現在のコードに基づいて、上記伴
    奏パターンデータの各和声音識別データをデコードして
    和声音の伴奏ラインを生成する和声ライン生成手段と、
    与えられたコードの系列から現在のコードの区間におけ
    る調を判別する調判別手段と、 非和声音の種類を分類する分類知識を記憶する記憶手段
    と、 上記調判別手段により判別された調を主音とする音階の
    なかから、上記伴奏パターンデータの非和声音識別デー
    タが示す非和声音の種類をもつ音を上記分類知識を使っ
    て推論する推論手段と、上記推論手段が推論した音を上
    記和声音の伴奏ラインに付加する非和声音付加手段と、 を有することを特徴とする自動伴奏装置。
JP62333595A 1987-12-28 1987-12-28 自動伴奏装置 Expired - Fee Related JP2638021B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP62333595A JP2638021B2 (ja) 1987-12-28 1987-12-28 自動伴奏装置
US07/290,295 US5003860A (en) 1987-12-28 1988-12-22 Automatic accompaniment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62333595A JP2638021B2 (ja) 1987-12-28 1987-12-28 自動伴奏装置

Publications (2)

Publication Number Publication Date
JPH01173099A true JPH01173099A (ja) 1989-07-07
JP2638021B2 JP2638021B2 (ja) 1997-08-06

Family

ID=18267796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62333595A Expired - Fee Related JP2638021B2 (ja) 1987-12-28 1987-12-28 自動伴奏装置

Country Status (2)

Country Link
US (1) US5003860A (ja)
JP (1) JP2638021B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212672A (ja) * 2006-02-08 2007-08-23 Yamaha Corp 演奏補助装置及びプログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2733998B2 (ja) * 1988-09-21 1998-03-30 ヤマハ株式会社 自動調決定装置
US5235125A (en) * 1989-09-29 1993-08-10 Casio Computer Co., Ltd. Apparatus for cross-correlating additional musical part with principal part through time
US5182414A (en) * 1989-12-28 1993-01-26 Kabushiki Kaisha Kawai Gakki Seisakusho Motif playing apparatus
JP2516085B2 (ja) * 1990-04-02 1996-07-10 株式会社河合楽器製作所 自動演奏装置
JP3211839B2 (ja) 1990-04-09 2001-09-25 カシオ計算機株式会社 調性判定装置及び自動伴奏装置
US5179241A (en) * 1990-04-09 1993-01-12 Casio Computer Co., Ltd. Apparatus for determining tonality for chord progression
JP2995303B2 (ja) * 1990-08-30 1999-12-27 カシオ計算機株式会社 メロディ対コード進行適合性評価装置及び自動コード付け装置
US5250746A (en) * 1991-04-09 1993-10-05 Kabushiki Kaisha Kawai Gakki Seisakusho Chord detecting apparatus
JPH06167975A (ja) * 1991-05-27 1994-06-14 Gold Star Co Ltd 電子楽器システムの伴奏和音自動発生方法
US5302777A (en) * 1991-06-29 1994-04-12 Casio Computer Co., Ltd. Music apparatus for determining tonality from chord progression for improved accompaniment
JPH05108364A (ja) * 1991-10-16 1993-04-30 Nec Corp フアジイ推論演算方法および装置
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
JP3356182B2 (ja) * 1992-02-07 2002-12-09 ヤマハ株式会社 作編曲アシスト装置
JP3436377B2 (ja) * 1992-03-30 2003-08-11 ヤマハ株式会社 自動編曲装置および電子楽器
JP2963585B2 (ja) * 1992-09-08 1999-10-18 ヤマハ 株式会社 調決定装置
US5496962A (en) * 1994-05-31 1996-03-05 Meier; Sidney K. System for real-time music composition and synthesis
US5606144A (en) * 1994-06-06 1997-02-25 Dabby; Diana Method of and apparatus for computer-aided generation of variations of a sequence of symbols, such as a musical piece, and other data, character or image sequences
US6057503A (en) * 1995-08-28 2000-05-02 Shinsky; Jeff K. Fixed-location method of composing and performing and a musical instrument
US6156965A (en) * 1995-08-28 2000-12-05 Shinsky; Jeff K. Fixed-location method of composing and performing and a musical instrument
US5783767A (en) * 1995-08-28 1998-07-21 Shinsky; Jeff K. Fixed-location method of composing and peforming and a musical instrument
US5650584A (en) * 1995-08-28 1997-07-22 Shinsky; Jeff K. Fixed-location method of composing and performing and a musical instrument
JP2000066675A (ja) * 1998-08-19 2000-03-03 Yamaha Corp 自動演奏装置及びそのための記憶媒体
AUPR150700A0 (en) * 2000-11-17 2000-12-07 Mack, Allan John Automated music arranger
US6576827B2 (en) 2001-03-23 2003-06-10 Yamaha Corporation Music sound synthesis with waveform caching by prediction
US7026535B2 (en) * 2001-03-27 2006-04-11 Tauraema Eruera Composition assisting device
SE528839C2 (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
JP5728829B2 (ja) * 2010-05-14 2015-06-03 ヤマハ株式会社 電子音楽装置およびハーモニー音生成方法を実現するためのプログラム
US9286877B1 (en) 2010-07-27 2016-03-15 Diana Dabby Method and apparatus for computer-aided variation of music and other sequences, including variation by chaotic mapping
US9286876B1 (en) 2010-07-27 2016-03-15 Diana Dabby Method and apparatus for computer-aided variation of music and other sequences, including variation by chaotic mapping
EP2690620B1 (en) 2011-03-25 2017-05-10 YAMAHA Corporation Accompaniment data generation device
US9798805B2 (en) 2012-06-04 2017-10-24 Sony Corporation Device, system and method for generating an accompaniment of input music data
US11024276B1 (en) 2017-09-27 2021-06-01 Diana Dabby Method of creating musical compositions and other symbolic sequences by artificial intelligence
US10614785B1 (en) 2017-09-27 2020-04-07 Diana Dabby Method and apparatus for computer-aided mash-up variations of music and other sequences, including mash-up variation by chaotic mapping
JP7157377B2 (ja) * 2018-10-03 2022-10-20 カシオ計算機株式会社 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261099A (ja) * 1985-09-12 1987-03-17 ヤマハ株式会社 電子楽器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2806978C2 (de) * 1977-02-24 1981-09-24 Nippon Gakki Seizo K.K., Hamamatsu, Shizuoka Elektronisches Musikinstrument
US4217804A (en) * 1977-10-18 1980-08-19 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instrument with automatic arpeggio performance device
JPS5565994A (en) * 1978-11-10 1980-05-17 Nippon Musical Instruments Mfg Electronic musical instrument
JPS56106286A (en) * 1980-01-28 1981-08-24 Nippon Musical Instruments Mfg Electronic musical instrument
EP0035636B1 (en) * 1980-01-28 1986-07-16 Nippon Gakki Seizo Kabushiki Kaisha Chord generating apparatus of electronic musical instrument
GB2083669B (en) * 1980-09-05 1985-01-03 Casio Computer Co Ltd Key data entry system
US4450742A (en) * 1980-12-22 1984-05-29 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instruments having automatic ensemble function based on scale mode
US4489636A (en) * 1982-05-27 1984-12-25 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instruments having supplemental tone generating function
JPS59181394A (ja) * 1983-03-31 1984-10-15 ヤマハ株式会社 電子楽器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261099A (ja) * 1985-09-12 1987-03-17 ヤマハ株式会社 電子楽器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212672A (ja) * 2006-02-08 2007-08-23 Yamaha Corp 演奏補助装置及びプログラム
JP4572839B2 (ja) * 2006-02-08 2010-11-04 ヤマハ株式会社 演奏補助装置及びプログラム

Also Published As

Publication number Publication date
JP2638021B2 (ja) 1997-08-06
US5003860A (en) 1991-04-02

Similar Documents

Publication Publication Date Title
JPH01173099A (ja) 自動伴奏装置
US4508002A (en) Method and apparatus for improved automatic harmonization
US6395970B2 (en) Automatic music composing apparatus that composes melody reflecting motif
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
US4704933A (en) Apparatus for and method of producing automatic music accompaniment from stored accompaniment segments in an electronic musical instrument
JPS5887593A (ja) 和音付け装置
JPS59197090A (ja) 電子楽器
US4232581A (en) Automatic accompaniment apparatus
JP2900753B2 (ja) 自動伴奏装置
US4475429A (en) Electronic equipment with tone generating function
JPH0769698B2 (ja) 自動伴奏装置
JP3216143B2 (ja) 楽譜解釈装置
JPH05181409A (ja) 自動作曲機
JP3219252B2 (ja) 自動伴奏装置
JP3271331B2 (ja) メロディ分析装置
JP2570045B2 (ja) 電子楽器
JPS61292689A (ja) 自動伴奏装置付き電子楽器
JP3528361B2 (ja) 自動作曲機
JP2639381B2 (ja) 電子楽器
JP3271332B2 (ja) 和音付装置
JP2638021C (ja)
JP3177991B2 (ja) 楽譜解釈装置
JP2526830B2 (ja) 自動和音付加装置
JP3290187B2 (ja) 楽譜解釈装置
JP3334809B2 (ja) 自動伴奏装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees