JP3196604B2 - 和音分析装置 - Google Patents
和音分析装置Info
- Publication number
- JP3196604B2 JP3196604B2 JP27351995A JP27351995A JP3196604B2 JP 3196604 B2 JP3196604 B2 JP 3196604B2 JP 27351995 A JP27351995 A JP 27351995A JP 27351995 A JP27351995 A JP 27351995A JP 3196604 B2 JP3196604 B2 JP 3196604B2
- Authority
- JP
- Japan
- Prior art keywords
- chord
- information
- section
- harmony
- register
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 description 27
- 238000000034 method Methods 0.000 description 23
- 239000000470 constituent Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003936 working memory Effects 0.000 description 3
- 101100326509 Catharanthus roseus CYP76B6 gene Proteins 0.000 description 2
- 101100326510 Swertia mussotii CYP76B10 gene Proteins 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/555—Tonality processing, involving the key in which a musical piece or melody is played
- G10H2210/565—Manual designation or selection of a tonality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
- G10H2210/616—Chord seventh, major or minor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S84/00—Music
- Y10S84/22—Chord organs
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Description
いるに好適な和音分析装置に関し、特に発音タイミング
及び音高関係に基づいて和声音(和音構成音)を検出す
ることにより曲の流れに適合した和音決定を可能にした
ものである。
演奏情報について隣り合う音の音高差を調べて和声音を
検出し、検出された和声音に基づいて伴奏用の和音を決
定するものが提案されている。
ると、例えば図9(A)に示すようなメロディ演奏情報
が与えられた場合、図9(B)で矢印を付して示すよう
に和声音を検出し、図9(B)に示すようにF、Dm 、
Am 、G7…のような和音決定を行なうことができる。
が、これと音符並びが同じで弱拍から始まる図9(C)
のような場合にあっては、矢印を付して示すような和声
音に基づいてC、Dm 、Em 、G7…のような和音決定
を行なうのが普通である。しかし、上記した従来技術で
は、隣り合う音の音高差を調べるだけで和声音を検出す
るため、図9(C)の場合にも図9(B)に示すような
和音決定を行なうことしかできなかった。
音決定をなしうる新規な和音分析装置を提供することに
ある。
装置は、所定の拍数の演奏区間について発音タイミング
及び音高関係を表わすパターン情報を複数記憶すると共
に各パターン情報毎に和声音情報を記憶する記憶手段
と、所定の曲の演奏情報における前記所定の拍数の区間
内の発音タイミング及び音高関係に対応するパターン情
報を前記記憶手段にてサーチするサーチ手段と、このサ
ーチ手段でサーチされたパターン情報に対応する和声音
情報を前記記憶手段から読出す読出手段と、 この読出手
段で読出された和声音情報に基づいて前記所定の曲の演
奏情報における前記所定の拍数の区間の和音を検出する
和音検出手段とを備えたものである。
毎に和声音情報を記憶しておき、所定の拍数の区間内の
発音タイミング及び音高関係に対応するパターン情報を
サーチして該パターン情報に対応する和声音情報を読出
すようにしたので、音高関係の他に発音タイミングを考
慮した和声音検出が可能となり、曲の流れに適合した和
音決定が可能となる。
の演奏情報を所定の拍数毎に区間分割し、各区間毎に上
記のような和声音検出を行なうと共に各区間毎に和声音
検出結果に基づいて和音決定を行なうようにすると、強
拍から始まる曲又は弱拍から始まる曲のいずれにも対処
可能となる。
演奏装置を示すもので、この装置では、和音分析、自動
演奏等がマイクロコンピュータによって制御されるよう
になっている。
イッチ回路14、CPU(中央処理装置)16、プログ
ラムメモリ18、ワーキングメモリ20、演奏情報メモ
リ22、テーブルメモリ24、トーンジェネレータ26
等が接続されている。
なるもので、所望の曲の演奏情報をマニアル操作により
入力可能である。
御に関する各種スイッチを含むもので、この発明の実施
に関係するスイッチとしては、調、拍子、小節線等を入
力するためのスイッチを含んでいる。
・メモリ)からなるメモリ18にストアされたプログラ
ムに従って和音分析、自動演奏等のための各種処理を実
行するもので、和音分析のための各種処理については、
図3〜5,7,8を参照して後述する。
ム・アクセス・メモリ)からなるもので、CPU16に
よる各種処理に際してレジスタ等として使用される記憶
領域を含んでいる。この発明の実施に関係するレジスタ
としては、区間番号レジスタn、検出和音レジスタR
1、和声音レジスタR2、候補和音レジスタR3、和音
進行レジスタR4等がある。
ので、入力装置12から入力された曲の演奏情報を記憶
するものである。メモリ22には、図示しないフロッピ
ィディスク装置等から読出した演奏情報を記憶すること
もできる。
ので、和音テーブル、和声音テーブル等を記憶してい
る。和音テーブルとしては、Cメジャ等の多数の和音名
を記憶すると共に各和音名毎に和音の構成音の音名(例
えばCメジャならばC,E,G)を記憶している。和声
音テーブルについては、図2を参照して後述する。
ドの選択中にメモリ22から読出される演奏情報に基づ
いてメロディ音信号を発生すると共にメモリ22内の和
音進行レジスタR4から読出される和音名情報に従って
和音信号を発生するものである。
ータ26からのメロディ音信号、和音信号等の楽音信号
を音響に変換するものである。自動演奏モードの選択中
には、サウンドシステム28から自動メロディ音が奏出
されると共に自動伴奏音として和音が奏出される。
ーブルの一例を示すものである。和声音テーブルとして
は、2拍分の演奏区間について発音タイミングパターン
T1,T2,T3…Tm ,Tm+1 …とこれらのパターン
にそれぞれ対応する音高差パターンP1,P2,P3…
Pm ,Pm+1 …と、これらのパターンにそれぞれ対応す
る和声音情報とが記憶される。
符の情報T1、2分音符の情報T2、4つの8分音符の
情報T3,T4、2つの8分音符と4分休符の情報T
m ,Tm+1 等が記憶される。
にそれぞれ対応するマーク情報P1,P2、情報T3,
T4,Tm ,Tm+1 にそれぞれ対応する音高差情報P
3,P4,Pm ,Pm+1 等が記憶される。各音高差情報
は、隣り合う音の音高差を半音数で表わし、マイナス符
号は低いことを、プラス符号は高いことをそれぞれ表わ
す。音高差情報P3は、第1音及び第2音間の音高差D
1 、第2音及び第3音間の音高差D2 、第3音及び第4
音間の音高差D3 としていずれも±1又は±2を表わ
す。音高差情報P4は、音高差D1 ,D2 としていずれ
も±1又は±2を表わすと共に音高差D3 として+3以
上又は−3以下を表わす。音高差情報Pm は、第1音及
び第2音間の音高差Dとして0(すなわち同音)を表わ
す。音高差情報Pm+1 は、音高差Dとして±1又は±2
を表わす。
1が休符であるため、和声音なしを表わす。情報P2に
対応する和声音情報は、情報T2の2分音符に対応する
第1音の音名を表わす。情報P3に対応する和声音情報
は、情報T3における第1,3音の音名を表わす。情報
P4に対応する和声音情報は、情報T4における第1,
3,4音の音名を表わす。情報Pm に対応する和声音情
報は、情報Tm における第1,2音の音名を表わす。情
報Pm+1 に対応する和声音情報は、情報Tm+1における
第1音の音名を表わす。
この処理は、和音分析モードが選択されたときにスター
トする。
望の曲の演奏情報を入力すると共に、スイッチ回路14
のスイッチにより曲の調、拍子、小節線を入力する。入
力した演奏情報は、調情報、拍子情報、小節線情報と共
にメモリ22に記憶させる。一例として、図9(A)に
示すような4/4拍子の演奏情報を入力するものとす
る。
憶した演奏情報を2拍毎に区間分割する。そして、ステ
ップ34に移り、レジスタR1〜R4には0を、レジス
タnには1をそれぞれセットする。
な和音検出処理を行なう。図4のステップ60では、n
(レジスタnの値)番目の区間の音すべてを和音構成音
として含む和音を検出する。この検出処理では、n番目
の区間のすべての音符の音名情報とメモリ24の和音テ
ーブル内の和音名毎の音名情報とを比較し、音名情報一
致に係る和音名情報を和音テーブルから読出してレジス
タR1に記憶させる。そして、ステップ62に移る。
基づいて和音が検出されたか判定する。この判定結果が
肯定的(Y)であればステップ64に移り、レジスタR
1の内容に基づいて検出和音が複数か判定する。
あったときは、検出和音が1つであったことになり、ス
テップ66に移る。ステップ66では、検出された和音
をn番目の区間の和音として決定し、レジスタR4にお
いてn番目の区間に対応する記憶領域に決定和音に対応
する和音名情報を記憶させる。
(Y)であったときは、ステップ68に移る。ステップ
68では、検出された複数の和音をn番目の区間の候補
和音とし、レジスタR3においてn番目の区間に対応す
る記憶領域に候補和音に対応する和音名情報を記憶させ
る。
あったとき、あるいはステップ66又は68の処理が終
ったときは、図3のルーチンにリターンする。
な和声音検出処理を行なう。図5のステップ70では、
n番目の区間の発音タイミングパターンをサーチする。
このサーチ処理では、n番目の区間において単一の休符
又は単一の音符のみが存在する時は該休符の種類又は該
音符の種類を表わす情報を発音タイミングパターンとし
て発生し、休符と音符が混在するとき又は複数の音符が
存在するときは該休符乃至該音符の並び状態を表わす情
報を発音タイミングパターンとして発生する。そして、
発生した発音タイミングパターンをメモリ24の和声音
テーブル内の発音タイミングパターンT1,T2,T3
…Tm ,Tm+1 …と順次に比較し、一致を検出する。
区間の音高差パターンをサーチする。このサーチ処理で
は、n番目の区間において単一の休符又は単一の音符の
み存在するときは、ステップ70で一致を検出した発音
タイミングパターンに対応するマーク情報(例えばP1
又はP2)を検出する。また、休符と音符が混在すると
き又は複数の音符が存在するときは、隣り合う音毎に音
高差を表わす情報を音高差パターンとして発生し、発生
した音高差パターンをメモリ24の和声音テーブル内の
音高差パターンP1,P2,P3…Pm ,Pm+1 …と順
次に比較し、一致を検出する。
サーチした音高差パターンに対応する和声音情報をメモ
リ24の和声音テーブルから読出し、レジスタR2に記
憶させる。この後、図3のルーチンにリターンする。
イミングパターンT3、T4がサーチされたとき、ステ
ップ72で音高差D1,D2としていずれも+1を表わ
し且つ音高差D3として+3を表わす音高差パターンが
発生されると、音高差パターンP4がサーチされる。そ
して、ステップ74では、音高差パターンP4に対応し
て第1,3,4音の音名を表わす和声音情報が読出さ
れ、レジスタR2にセットされる。
内容に基づいて和声音が検出されたか判定する。この判
定結果が肯定的(Y)であればステップ42に移り、n
番目の区間の和声音すべてを和音構成音として含む和音
を検出する。この検出処理では、レジスタR2内の和声
音情報で表わされる音名情報とメモリ24の和音テーブ
ル内の和音名毎の音名情報とを比較し、音名情報一致に
係る和音名情報を和音テーブルから読出してレジスタR
1に記憶させる。
42で検出された和音の合計が複数であるかレジスタR
1の内容に基づいて判定する。この判定結果が否定的
(N)であれば検出和音が1つであったことになり、ス
テップ46に移る。ステップ46では、検出された和音
をn番目の区間の和音として決定し、レジスタR4にお
いてn番目の区間に対応する記憶領域に決定和音に対応
する和音名情報を記憶させる。この場合、レジスタR4
に記憶される和音名情報は、ステップ42で検出された
和音に対応するものである。
(Y)であったときは、ステップ48に移る。ステップ
48では、ステップ36及び/又は42で検出された複
数の和音をn番目の区間の候補和音とし、レジスタR3
においてn番目の区間に対応する記憶領域に候補和音に
対応する和音名情報を記憶させる。この結果、レジスタ
R3には、複数の和音名情報が記憶される。
あったとき、あるいはステップ46又は48の処理が終
ったときは、ステップ50に移り、最後の区間に達した
か判定する。この判定結果が否定的(N)であればステ
ップ52でnの値を1増加してからステップ36に戻
り、それ以降の処理を上記したと同様に繰返す。
か繰返しているうちに最終の区間の処理が終ると、ステ
ップ50の判定結果が肯定的(Y)となり、ステップ5
4に移る。ステップ54では、図8について後述するよ
うに和音決定処理を行なう。そして、和音進行決定処理
をエンドとする。
ので、この和声音テーブルは、図2の和声音テーブルに
代えてメモリ24に記憶される。図6の記憶フォーマッ
トは、図2の記憶フォーマットにおいて発音タイミング
と音高差を分けずに発音パターンとしてまとめたものに
相当する。
間について発音パターンS1,S2,S3,S4…と、
これらのパターンにそれぞれ対応する和声音情報とが記
憶される。
1、2分音符の情報S2、4つの8分音符の情報S3、
S4等が記憶される。この場合、S3,S4等の複数音
符の情報は、先頭音と後続音との音高差の情報を含む形
で記憶される。例えば、情報S3は、先頭音(第1音)
と第2音との音高差Q1、先頭音と第3音との音高差Q
2、先頭音と第4音との音高差Q3としていずれも0
(すなわち同音)を表わす情報を含む。また、情報S4
は、音高差Q1 ,Q2 ,Q3 としてそれぞれ半音数2,
4,5を表わす情報を含む。Q1 =2、Q2 =4、Q3
=5の音高関係は、一例として音名C、D、E、Fの並
びにおいて認められる。
なしを表わす。情報S2に対応する和声音情報は、情報
S2の2分音符に対応する第1音の音名を表わす。情報
S3に対応する和声音情報は、情報S3における第1〜
4音の音名を表わす。情報S4に対応する和声音情報
は、情報S4における第1,3音の音名を表わす。
ので、この処理は、図6の和声音テーブルを用いて図5
の処理の代りに行なわれる。
ターンをサーチする。このサーチ処理では、n番目の区
間において単一の休符又は単一の音符のみが存在すると
きは該休符の種類又は該音符の種類を表わす情報を発音
パターンとして発生し、休符と音符が混在するとき又は
複数の音符が存在するときは該休符乃至該音符の並び状
態と先頭音及び後続音間の音高差とを表わす情報を発音
パターンとして発生する。そして、発生した発音パター
ンをメモリ24の和声音テーブル内の発音パターンS
1,S2,S3,S4…と順次に比較し、一致を検出す
る。
75で発音パターンがサーチされたか判定する。この判
定結果が肯定的(Y)であればステップ77に移り、サ
ーチされた発音パターンに対応する和声音情報を図6の
和声音テーブルから読出し、レジスタR2に記憶させ
る。
あったとき又はステップ77の処理が終ったときは、図
3のルーチンにリターンする。
ップ80では、最後の区間の和音が決定済みであるかレ
ジスタR4の内容に基づいて判定する。レジスタR4に
おいて最後の区間に対応する記憶領域に和音名情報があ
れば判定結果が肯定的(Y)となり、なければ否定的
(N)となる。判定結果が否定的(N)であればステッ
プ82に移る。
基づいて最後の区間に候補和音ありか判定する。この判
定結果が肯定的(Y)であればステップ84に移る。
れた候補和音の中から曲の調において最も優先順位が高
い和音を選択して最後の区間の和音として決定する。そ
して、レジスタR4において最後の区間に対応する記憶
領域に決定和音に対応する和音名情報を記憶させる。
(N)であったときは、ステップ36で和音が検出され
なかったか又はステップ38で和声音が検出されなかっ
た場合であり、ステップ86に移る。ステップ86で
は、曲の調の主和音を最後の区間の和音として決定し、
レジスタR4において最後の区間に対応する記憶領域に
決定和音に対応する和音名情報を記憶させる。
あったとき、あるいはステップ84又は86の処理が終
ったときは、ステップ88に移る。ステップ88では、
レジスタnに最後から2番目の区間の番号をセットす
る。そして、ステップ90に移る。
番目の区間の和音が決定済みかレジスタR4の内容に基
づいて判定する。この判定は、ステップ80で述べたと
同様に行なわれ、判定結果が否定的(N)であればステ
ップ92に移る。
基づいてn番目の区間に候補和音ありか判定する。この
判定結果が肯定的(Y)であればステップ94に移る。
及び候補和音の中から曲の調において最も優先順位が高
い和音を選択してn番目の区間の和音として決定する。
ここで、直後の区間の決定和音は、レジスタR4におい
て(n+1)番目の区間に対応する記憶領域に記憶され
た和音名情報を参照することで判明し、候補和音は、レ
ジスタR3においてn番目の区間に対応する記憶領域に
記憶された複数の和音名情報を参照することで判明す
る。n番目の区間の和音を決定した後、レジスタR4に
おいてn番目の区間に対応する記憶領域に決定和音に対
応する和音名情報を記憶させる。
(N)であったときは、和音又は和声音が検出されなか
った場合であり、ステップ96に移る。ステップ96で
は、直後の区間の決定和音及び直前の区間の候補和音の
中から曲の調において最も優先順位が高い和音を選択し
てn番目の区間の和音として決定する。ここで、直後の
区間の決定和音は、レジスタR4において(n+1)番
目の区間に対応する記憶領域に記憶された和音名情報を
参照することで判明し、候補和音は、レジスタR3にお
いて(n−1)番目の区間に対応する記憶領域に記憶さ
れた複数の和音名情報を参照することで判明する。n番
目の区間の和音を決定した後、レジスタR4においてn
番目の区間に対応する記憶領域に決定和音に対応する和
音名情報を記憶させる。
あったとき、あるいはステップ94又は96の処理が終
ったときは、ステップ98に移り、最初の区間に達した
か判定する。この判定結果が否定的(N)であればステ
ップ100でnの値を1減少させてからステップ90に
戻り、それ以降の処理を上記したと同様に繰返す。
回か繰返しているうちに最初の区間の処理が終ると、ス
テップ98の判定結果が肯定的(Y)となり、図3のル
ーチンにリターンする。
に関して2拍の区間毎に発音タイミング及び音高関係に
基づいて和声音を検出すると共に検出和声音に基づいて
和音を決定するので、図9(B)に示すように強拍で始
まる曲についても、図9(C)に示すように弱拍で始ま
る曲についても矢印で示すような和声音を検出して図9
(B),(C)に示すような和音決定を自動的に遂行す
ることができる。
は、図9(B)又は(C)に示すような一連の和音名情
報が記憶される。和音分析モードから自動演奏モードに
移行してメモリ22の演奏情報に基づいてメロディの自
動演奏を行なう場合には、演奏進行に伴ってレジスタR
4から和音名情報を読出してトーンジェネレータ26を
制御することにより図9(B)又は(C)に示すような
和音進行に従って自動伴奏を行なうことができる。
るものではなく、種々の改変形態で実施可能なものであ
る。例えば、次の(1)〜(3)のような変更が可能で
ある。
で区間分割してもよく、3拍子の場合、2拍と1拍に分
割してもよい。
代りに、演奏情報に基づいて自動的に決定するようにし
てもよい。
ターン、発音パターンは、リズム種類毎に応じて異なる
ものを記憶し、使用してもよい。
の拍数の区間内の発音タイミング及び音高関係に対応す
るパターン情報をサーチして該パターン情報に対応する
和声音情報を読出すことにより和声音検出を行なうよう
にしたので、曲の流れに適合した和音決定が可能とな
り、弱起の曲にも対応可能となる効果が得られるもので
ある。
ック図である。
の一例を示す図である。
る。
である。
の他の例を示すフローチャートである。
トである。
譜を示す図である。
回路、16:CPU、18:プログラムメモリ、20:
ワーキングメモリ、22:演奏情報メモリ、24:テー
ブルメモリ、26:トーンジェネレータ、28:サウン
ドシステム。
Claims (2)
- 【請求項1】所定の拍数の演奏区間について発音タイミ
ング及び音高関係を表わすパターン情報を複数記憶する
と共に各パターン情報毎に和声音情報を記憶する記憶手
段と、 所定の曲の演奏情報における前記所定の拍数の区間内の
発音タイミング及び音高関係に対応するパターン情報を
前記記憶手段にてサーチするサーチ手段と、 このサーチ手段でサーチされたパターン情報に対応する
和声音情報を前記記憶手段から読出す読出手段と、 この読出手段で読出された和声音情報に基づいて前記所
定の曲の演奏情報における前記所定の拍数の区間の和音
を検出する和音検出手段と を備えた和音分析装置。 - 【請求項2】所定の拍数の演奏区間について発音タイミ
ング及び音高関係を表わすパターン情報を複数記憶する
と共に各パターン情報毎に和声音情報を記憶する記憶手
段と、 所定の曲の演奏情報を前記所定の拍数毎に区間分割する
分割手段と、 この分割手段で分割された各区間毎に該区間内の発音タ
イミング及び音高関係に対応するパターン情報を前記記
憶手段にてサーチするサーチ手段と、 このサーチ手段でサーチされたパターン情報に対応する
和声音情報を前記各区間毎に前記記憶手段から読出す読
出手段と、 この読出手段で読出された和声音情報に基づいて前記各
区間毎に和音を検出する和音検出手段とを備えた和音分
析装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP27351995A JP3196604B2 (ja) | 1995-09-27 | 1995-09-27 | 和音分析装置 |
| US08/719,328 US5763802A (en) | 1995-09-27 | 1996-09-25 | Apparatus for chord analysis based on harmonic tone information derived from sound pattern and tone pitch relationships |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP27351995A JP3196604B2 (ja) | 1995-09-27 | 1995-09-27 | 和音分析装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0990952A JPH0990952A (ja) | 1997-04-04 |
| JP3196604B2 true JP3196604B2 (ja) | 2001-08-06 |
Family
ID=17528994
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP27351995A Expired - Fee Related JP3196604B2 (ja) | 1995-09-27 | 1995-09-27 | 和音分析装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US5763802A (ja) |
| JP (1) | JP3196604B2 (ja) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7228280B1 (en) | 1997-04-15 | 2007-06-05 | Gracenote, Inc. | Finding database match for file based on file characteristics |
| US8326584B1 (en) | 1999-09-14 | 2012-12-04 | Gracenote, Inc. | Music searching methods based on human perception |
| JP3666364B2 (ja) * | 2000-05-30 | 2005-06-29 | ヤマハ株式会社 | コンテンツ生成サービス装置、システム及び記録媒体 |
| JP2004536348A (ja) * | 2001-07-20 | 2004-12-02 | グレースノート インコーポレイテッド | 録音の自動識別 |
| JP3753087B2 (ja) * | 2002-03-14 | 2006-03-08 | ヤマハ株式会社 | 電子楽器、差音出力装置、プログラムおよび記録媒体 |
| JP4203308B2 (ja) * | 2002-12-04 | 2008-12-24 | パイオニア株式会社 | 楽曲構造検出装置及び方法 |
| JP4313563B2 (ja) * | 2002-12-04 | 2009-08-12 | パイオニア株式会社 | 楽曲検索装置及び方法 |
| US7966034B2 (en) * | 2003-09-30 | 2011-06-21 | Sony Ericsson Mobile Communications Ab | Method and apparatus of synchronizing complementary multi-media effects in a wireless communication device |
| JP2006119320A (ja) * | 2004-10-21 | 2006-05-11 | Yamaha Corp | 電子音楽装置システム、サーバ側電子音楽装置およびクライアント側電子音楽装置 |
| JP6047985B2 (ja) * | 2012-07-31 | 2016-12-21 | ヤマハ株式会社 | 伴奏進行生成装置及びプログラム |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4144788A (en) * | 1977-06-08 | 1979-03-20 | Marmon Company | Bass note generation system |
| DE3166269D1 (en) * | 1980-04-30 | 1984-10-31 | Matsushita Electric Industrial Co Ltd | Electronic musical instrument |
| US4951544A (en) * | 1988-04-06 | 1990-08-28 | Cadio Computer Co., Ltd. | Apparatus for producing a chord progression available for a melody |
| JP2551245B2 (ja) * | 1991-03-01 | 1996-11-06 | ヤマハ株式会社 | 自動伴奏装置 |
| US5250746A (en) * | 1991-04-09 | 1993-10-05 | Kabushiki Kaisha Kawai Gakki Seisakusho | Chord detecting apparatus |
| JP3436377B2 (ja) * | 1992-03-30 | 2003-08-11 | ヤマハ株式会社 | 自動編曲装置および電子楽器 |
| JP3049989B2 (ja) * | 1993-04-09 | 2000-06-05 | ヤマハ株式会社 | 演奏情報分析装置および和音検出装置 |
| US5563361A (en) * | 1993-05-31 | 1996-10-08 | Yamaha Corporation | Automatic accompaniment apparatus |
-
1995
- 1995-09-27 JP JP27351995A patent/JP3196604B2/ja not_active Expired - Fee Related
-
1996
- 1996-09-25 US US08/719,328 patent/US5763802A/en not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| JPH0990952A (ja) | 1997-04-04 |
| US5763802A (en) | 1998-06-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3704980B2 (ja) | 自動作曲装置と記録媒体 | |
| US5003860A (en) | Automatic accompaniment apparatus | |
| US6294720B1 (en) | Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif | |
| JP2562370B2 (ja) | 自動伴奏装置 | |
| US6100462A (en) | Apparatus and method for generating melody | |
| JP3196604B2 (ja) | 和音分析装置 | |
| JPH05273975A (ja) | 自動伴奏装置 | |
| US4704933A (en) | Apparatus for and method of producing automatic music accompaniment from stored accompaniment segments in an electronic musical instrument | |
| US4448104A (en) | Electronic apparatus having a tone generating function | |
| JP5293710B2 (ja) | 調判定装置および調判定プログラム | |
| JPH07219536A (ja) | 自動編曲装置 | |
| JPH0651761A (ja) | 自動演奏装置 | |
| US4472992A (en) | Electronic musical instrument | |
| JPH07129158A (ja) | 演奏情報分析装置 | |
| JP2768233B2 (ja) | 電子楽器 | |
| JPH04277797A (ja) | 電子楽器 | |
| JPH0769698B2 (ja) | 自動伴奏装置 | |
| JP3261929B2 (ja) | 自動伴奏装置 | |
| JP2694278B2 (ja) | 和音検出装置 | |
| JP2003216156A (ja) | 和音検出装置及びプログラム | |
| JP2640992B2 (ja) | 電子楽器の発音指示装置及び発音指示方法 | |
| JP3661963B2 (ja) | 電子楽器 | |
| JP3364940B2 (ja) | 自動作曲機 | |
| JP3427413B2 (ja) | 自動編曲装置 | |
| JPH02157799A (ja) | 旋律分析方式 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080608 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090608 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100608 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100608 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110608 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120608 Year of fee payment: 11 |
|
| LAPS | Cancellation because of no payment of annual fees |