JPH0869283A - Music session device and system - Google Patents

Music session device and system

Info

Publication number
JPH0869283A
JPH0869283A JP6203244A JP20324494A JPH0869283A JP H0869283 A JPH0869283 A JP H0869283A JP 6203244 A JP6203244 A JP 6203244A JP 20324494 A JP20324494 A JP 20324494A JP H0869283 A JPH0869283 A JP H0869283A
Authority
JP
Japan
Prior art keywords
music
parameter
performance
listening
solo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6203244A
Other languages
Japanese (ja)
Inventor
Haruhiro Katayose
晴弘 片寄
Tsutomu Kanamori
務 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMEEJI JOHO KAGAKU KENKYUSHO
Original Assignee
IMEEJI JOHO KAGAKU KENKYUSHO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMEEJI JOHO KAGAKU KENKYUSHO filed Critical IMEEJI JOHO KAGAKU KENKYUSHO
Priority to JP6203244A priority Critical patent/JPH0869283A/en
Publication of JPH0869283A publication Critical patent/JPH0869283A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE: To realize a music session having ample individuality from a musical odd feeling by making possible musical communication by introduction of respective parameters and having an individuality profile given from an individuality data base. CONSTITUTION: This device includes a music hearing section 12, a music forming section 14 and the individuality data base 16. Music primitive is recognized by a music primitive recognition agent group 18 of the music hearing section 12 and respective means extract the tension parameter TTV, music interest parameter MIV and partner insistence parameter PIV according to the individuality set in the individuality data base 16 from the recognized music primitive. Solo/accompaniment patterns are formed according to these parameters and the formation is controlled in the music forming section 14.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は音楽セッション装置に
関し、特にたとえば、音楽セッションにおける演奏をリ
アルタイムで合成する、音楽セッション装置およびシス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music session device, and more particularly to a music session device and system for synthesizing performances in a music session in real time.

【0002】[0002]

【従来の技術】音楽は、従来、リアルタイム性をもった
時間芸術であったが、レコードや音楽テープなどの普及
によって、音楽は記録され得るものであるという認識が
定着した。コンピュータ音楽においても、元来はテープ
を用いたものが中心であったが、近年のエレクトロニク
スの進歩発展に伴って、ライブ性、すなわちリアルタイ
ムでの人間の介在という方向が再認識されるに至ってい
る。音楽分野における人間と機械とのインタラクション
(Interaction) に関するアプローチは、大きく、インタ
ラクティブコンポージングシステム,自動伴奏システ
ム,および音楽セッションシステムに分けることができ
る。
2. Description of the Related Art Music has traditionally been a time art with a real-time characteristic, but the widespread use of records and music tape has established the recognition that music can be recorded. Originally, computer music mainly used tapes, but with the recent advancement and development of electronics, the direction of liveness, that is, human intervention in real time has been re-recognized. . Interaction between human and machine in music field
The (Interaction) approach can be broadly divided into interactive composing systems, automatic accompaniment systems, and music session systems.

【0003】インタラクティブコンポージングシステム
とは、コンピュータ内にアルゴリズムをもたせ、人間と
機械との相互作用によって作曲できるようにしたシステ
ムである。自動伴奏システムとは、コンピュータが予め
楽譜データをもっていて、人間の演奏表現やミスの入っ
たソリスト演奏に対し、追随する伴奏を行うシステムで
ある。
The interactive composing system is a system in which an algorithm is provided in a computer so that the composition can be made by the interaction between human and machine. An automatic accompaniment system is a system in which a computer has musical score data in advance and performs an accompaniment to follow a human performance expression or a soloist performance with a mistake.

【0004】他方、この発明が向けられる音楽セッショ
ンシステムとは、複数の人間が音楽を演奏し、即興性を
楽しむセッションという形態を模擬するシステムの構築
を目指すものである。音楽セッションシステムと自動伴
奏システムとの大きな相違は、楽譜データに対する依存
度であり、前者においては、リアルタイムでの音楽認
識、および演奏生成をどのように実現するかが課題であ
る。
On the other hand, the music session system to which the present invention is directed is intended to construct a system simulating a session in which a plurality of people play music and enjoy improvisation. The major difference between the music session system and the automatic accompaniment system is the degree of dependence on the score data, and in the former, how to realize real-time music recognition and performance generation is an issue.

【0005】たとえばNishizima M. and Kijima Y. "Le
arning on Sense of Rythm with aNeaural Network- Th
e NEAURO DRUMMER", Proc. ICMPC, (October 1989) ,
およびNishizima M. and Watanabe K. "Interactive Mu
sic Composer based on Naural Networks", Proc. ICMP
C, pp53-56(1992) に開示されているニューロミュージ
シャンは、ニューラルネットワークを用いて、ドラムス
の掛け合い、およびキーボード(鍵盤楽器)の掛け合い
を実現している。両者とも、前半に相当する演奏部,お
よびその応答に相当する後半部のセットを、それぞれ、
ニューラルネットワークの入力部,および出力部として
学習させ、そのモデルを用いて掛け合いを行う。複数の
演奏パターンにおける補間が一種の創造となることが主
張されている。しかしながら、学習セットに使われたメ
ロディに対して和声部の制約が暗黙的に使われているこ
とや、個性等を扱う際にはそれぞれのデータ例で一から
学習させなければならないという拡張性に関する問題、
すなわち内部がブラックボックス的に扱われていること
に帰する問題をもっている。
For example, Nishizima M. and Kijima Y. "Le
arning on Sense of Rythm with aNeaural Network- Th
e NEAURO DRUMMER ", Proc. ICMPC, (October 1989),
And Nishizima M. and Watanabe K. "Interactive Mu
sic Composer based on Naural Networks ", Proc. ICMP
The neuro-musician disclosed in C, pp53-56 (1992) uses a neural network to realize the interaction of drums and the interaction of a keyboard (keyboard musical instrument). In both cases, the set of the performance part corresponding to the first half and the latter part corresponding to the response, respectively,
The neural network is trained as an input part and an output part, and the model is used for multiplication. It is argued that interpolation in multiple playing patterns is a kind of creation. However, the constraint of the harmony part is implicitly used for the melody used for the learning set, and the extensibility that each data example must be learned from the beginning when handling individuality etc. Problems with
In other words, it has a problem that the inside is treated as a black box.

【0006】内部モデルを考慮したシステムとしては、
Rowe R.: "Machine listening andcomposing with Cyph
er", CMJ, Vol.16 No.1, pp43-63(Spring 1992)やPenny
cook B. et al.: "Toward a ComputerModel of a Jazz
Improviser", Proc. ICMC,pp228-231(1993) に開示され
ている、Cypherというシステムが知られている。
このシステムはリスナ部とプレイヤ部とからなり、リス
ナ部においてはマルチエージェントモデルを用いて音の
密度,音域,強弱等の他、コード,フレーズ等の認識が
行われる。ユーザはリスナ部で得られた認識結果に対し
て、シーケンスデータの演奏,作曲プログラムの呼出
し,および入力されたMIDI信号の直列的加工の3種
からなる応答の仕方を定義付けて、外部からの演奏に応
じた反応を行う。Cypherはインタラクティブコン
ポージングを目指したシステムであり、セッションにお
けるメッセージの伝達や制御に関してはあまり触れられ
ていない。
As a system considering the internal model,
Rowe R .: "Machine listening and composing with Cyph
er ", CMJ, Vol.16 No.1, pp43-63 (Spring 1992) and Penny
cook B. et al .: "Toward a ComputerModel of a Jazz
A system called Cypher, which is disclosed in Improviser ", Proc. ICMC, pp228-231 (1993), is known.
This system consists of a listener section and a player section. In the listener section, a multi-agent model is used to recognize chords, phrases, etc. in addition to sound density, range, and strength. From the outside, the user defines the response method consisting of three types of sequence data performance, composition program calling, and input MIDI signal serial processing for the recognition result obtained in the listener section. Perform reactions according to the performance. Cypher is a system aiming at interactive composing, and is not touched on the transmission and control of messages in a session.

【0007】ジャズセッションにおける感性的な反応に
主眼おいたシステムとしては、和気他.「演奏者の感情
を考慮した協調型演奏システム−JASPER」,音楽
情報科学研究会夏のシンポジウム予稿集、pp43-46(198
9) がある。JASPERは、12小節ブルースを対象
とし、ピアノのソロに対し、ドラムス,およびベースの
伴奏をコンピュータが行うシステムである。ピアノ演奏
の音域,強弱,および音数から、演奏者の盛り上がりに
相当するテンションパラメータを選択し、さらにテンシ
ョンパラメータが低い状態が続いたときには、伴奏パタ
ーンに変化を与えるという形で応答性を実現している。
As a system focusing on the sensual reaction in a jazz session, Waki et al. "Cooperative Performance System Considering Performers'Feelings-JASPER", Proceedings of Summer Symposium on Music Information Science, pp43-46 (198)
9) There is. JASPER is a system in which a computer performs accompaniment of drums and bass to a piano solo, targeting 12-bar blues. From the range, strength, and number of notes of the piano performance, a tension parameter corresponding to the excitement of the performer is selected, and when the tension parameter remains low, responsiveness is realized by changing the accompaniment pattern. ing.

【0008】[0008]

【発明が解決しようとする課題】上述のJASPER
は、感性的な情報を考慮した興味深いシステムである
が、たとえば激しい演奏さえすれば音楽的に意味のない
場合でも同様の答えが出てしまう。これは、制御変数を
全てテンションパラメータという一次元的な信号にまで
落とし、その過程で音楽的な認識が行なわれていないか
らである。換言すれば、JASPERおいては、主観的
な認識は考慮されてはいるが、音楽的な認識が不十分で
あるという問題がある。
[Problems to be Solved by the Invention]
Is an interesting system that takes into account sensitive information, but even if it is played hard, even if it makes no sense musically, a similar answer will appear. This is because all the control variables are reduced to a one-dimensional signal called a tension parameter, and no musical recognition is performed in the process. In other words, in JASPER, although subjective recognition is taken into consideration, there is a problem that musical recognition is insufficient.

【0009】それゆえに、この発明の主たる目的は、新
規な音楽セッション装置を提供することである。この発
明の他の目的は、主観のみならず音楽的な認識も十分行
われ得る、音楽セッション装置を提供することである。
Therefore, a primary object of the present invention is to provide a new music session device. Another object of the present invention is to provide a music session device capable of not only subjectivity but also musical recognition.

【0010】[0010]

【課題を解決するための手段】この発明は、音楽信号を
受けて聴取パラメータを出力する音楽聴取手段、聴取パ
ラメータを受けて音楽を生成する音楽生成手段、および
音楽聴取手段および音楽生成手段に個性プロファイルを
付与する個性プロファイル付与手段を備える、音楽セッ
ション装置である。
According to the present invention, there are provided a music listening means for receiving a music signal and outputting a listening parameter, a music generating means for receiving a listening parameter and generating music, and an individual characteristic of the music listening means and the music generating means. The music session apparatus is provided with a personality profile assigning means for assigning a profile.

【0011】[0011]

【作用】音楽信号、たとえばMIDI信号が音楽聴取手
段に与えられる。音楽聴取手段は、たとえばマルチエー
ジェントの音楽プリミティブ認識手段を有し、それによ
ってコード,コード進行,次フレーズ等の音楽プリミテ
ィブを抽出する。この音楽プリミティブおよび個性プロ
ファイルに基づいて、たとえば聴取感性パラメータ抽出
手段が、聴取感性パラメータ、たとえばEC(Emotional
Character) やテンションパラメータ(Total Tension V
lue:TTV) を抽出する。それらの聴取感性パラメータ
が音楽生成手段に与えられ、音楽生成手段では、聴取感
性パラメータおよび個性プロファイルに応じてきまる演
奏パターンで音楽を生成する。
A music signal, for example, a MIDI signal is given to the music listening means. The music listening means has, for example, a multi-agent music primitive recognition means and extracts music primitives such as chords, chord progressions, and next phrases. Based on the music primitives and the personality profile, for example, the listening sensitivity parameter extraction unit may listen to the listening sensitivity parameter, for example, EC (Emotional).
Character) and tension parameters (Total Tension V
lue: TTV) is extracted. The listening sensitivity parameters are given to the music generating means, and the music generating means generates music with a performance pattern that depends on the listening sensitivity parameter and the individuality profile.

【0012】[0012]

【発明の効果】この発明によれば、聴取感性パラメータ
を導入することで、より音楽的なコミュニケーションが
可能となり、さらに、聴取感性パラメータおよび個性プ
ロファイルに応じて演奏パターンを生成するので、個性
豊かな、しかも音楽的に違和感のない音楽セッションを
実現することができる。
According to the present invention, by introducing the listening sensitivity parameter, more musical communication becomes possible, and since the performance pattern is generated according to the listening sensitivity parameter and the individuality profile, the individuality is rich. Moreover, it is possible to realize a music session that is musically comfortable.

【0013】さらに、音楽セッション装置を複数設け、
それぞれに異なる個性プロファイルを与えておくことに
よって、多様性のある音楽セッションが実現できる。こ
の場合、各装置が異なる楽器ないしパートを担当するよ
うにすればよい。この発明の上述の目的およびその他の
目的と特徴は図面を参照して行う以下の実施例の詳細な
説明から一層明らかとなろう。
Further, a plurality of music session devices are provided,
By giving different personality profiles to each, a variety of music sessions can be realized. In this case, each device may be in charge of a different musical instrument or part. The above-mentioned objects and other objects and features of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.

【0014】[0014]

【実施例】ここで、実施例の詳細な説明に先立って、こ
の発明の音楽セッション装置において考慮されたジャズ
セッションの特徴を説明する。ジャズ演奏では、各奏者
間に固定された支配関係は存在しない。演奏の進行とと
もに、主張する演奏,それを認める演奏,無視する演
奏,あるいはその結果新しく主張する演奏と、その役割
は自在に変化する。また、主張に対する反応の度合いも
一定ではなく、強い主張に対しより強い演奏で反応した
り、合奏の形態を離れ、奏者全員の合意の下に、特に強
く主張を希望する奏者を1人選び、彼のソロ演奏に移行
し、他の奏者は鑑賞者にまわることもある。実際のセッ
ションにおいては、参加する者の個性によって全体の制
御が行われており、この個性のモデル化が極めて重要で
ある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Before the detailed description of the embodiments, the features of the jazz session considered in the music session device of the present invention will be described. In jazz performance, there is no fixed governing relationship between the players. As the performance progresses, the role of the asserted performance, the admitted performance, the ignored performance, or the newly claimed performance can change freely. In addition, the degree of reaction to the assertion is not constant, and responds to the strong assertion with a stronger performance, or leaves the form of the ensemble, and with the agreement of all the players, selects one player who particularly strongly wants the assertion, Others may turn to the viewer, moving to his solo performance. In the actual session, the overall control is performed by the individuality of the participants, and modeling of this individuality is extremely important.

【0015】当然のことながら、セッション装置におい
ては、相手がどのような音楽演奏をしようとしているの
かを理解しておく必要がある。たとえば、相手がソロを
取ろうとしているかどうか,転調しようとしているして
いるかどうか,あるいはテンションの高いソロを行って
いるかどうか、等を監視しておく必要がある。その他、
音楽的にトレースできているかどうかも重要な監視対象
となる。
As a matter of course, in the session device, it is necessary to understand what kind of music the partner is trying to perform. For example, it is necessary to monitor whether or not the other party is trying to take a solo, is trying to transpose, or is performing a high tension solo. Other,
Whether or not the music can be traced musically is also an important monitoring target.

【0016】また、ジャズにおいては、故意に多義性を
残した演奏で独特の緊張感を表現することがある。たと
えば、メロディラインの解釈において、IIm7 - V7 - Im
aj7の進行時に、V7の代理としてII♭7 が多用される。
演奏において、或る時点での状況からはV7とII♭7 のど
ちらを通るかわからないとき、コード奏者は、一瞬演奏
を止めるか、あるいはV7とII♭7 の共通音(3度,7
度)だけを弾いて、ベース奏者の出方を待つことが普通
に行われる。こうした状態では、テンションノート(9
度,13度)の指示をコード奏者が行わないため、メロ
ディラインに自由度が増し、メロディ奏者も当然この事
実を認識しながら演奏を進める。ここに奏者間の緊張の
共有が生まれ、こうしたことが即興演奏を主な目的とす
るジャズ演奏の特徴であり醍醐味の一つとなっている。
In jazz, a peculiar sense of tension may be expressed by intentionally leaving a sense of polysemy. For example, in interpreting a melody line, IIm7-V7-Im
II ♭ 7 is often used as a substitute for V7 when aj7 progresses.
In the performance, when the situation at a certain point of time makes it impossible to know whether to pass V7 or II ♭ 7, the chord player either stops the performance for a moment or the common note of V7 and II ♭ 7 (3rd, 7th
It is common practice to play only the degree) and wait for the bass player to emerge. In such a state, the tension note (9
Since the chord player does not give the instruction of (13, 13 degrees), the degree of freedom is increased in the melody line, and the melody player naturally advances the performance while recognizing this fact. This created sharing of tension between the players, and this is one of the characteristics and the real charm of jazz performance whose main purpose is improvisation.

【0017】音楽セッション装置の最も簡単な構成法
は、人間の奏者を観察したその演奏様式に従って演奏の
スケジュールを決定し、セッションの全てのパートを制
御するという方法である。しかしながら、この方法で
は、或る種の確率モデルを導入することがなければ、コ
ンピュータの出力する演奏パターンは決定的になり、独
特の緊張感をもつジャズ演奏を実現することは不可能で
ある。
The simplest method of constructing a music session apparatus is to determine a performance schedule according to the performance style of a human player who observes it, and control all parts of the session. However, with this method, the performance pattern output from the computer becomes definite and a jazz performance with a unique sense of tension cannot be realized without introducing a certain kind of stochastic model.

【0018】また、確率モデルを全面的に導入する場
合、コミュニケーションの観点からその制御は困難であ
る。ジャズセッションでは、奏者の個性,身体の状態,
曲についての簡単な事前の打合せ(シナリオ)と合図,
および観客も含めた周囲の状況等が演奏を左右する重要
な要素となる。そこで、以下の実施例においては、演奏
に参加する奏者を音楽聴取部,音楽生成部,および個性
プロファイルからなるエージェントとみたて、そのイン
タラクティブモデルを構築しようとするものである。
Further, when the probabilistic model is entirely introduced, it is difficult to control it from the viewpoint of communication. In a jazz session, the player's personality, physical condition,
Simple advance meetings (scenarios) and cues about songs,
In addition, the surrounding conditions including the audience are important factors that influence the performance. Therefore, in the following embodiment, the player participating in the performance is regarded as an agent including a music listening unit, a music generating unit, and a personality profile, and an interactive model thereof is constructed.

【0019】図1に示すこの実施例の音楽セッション装
置10は、音楽聴取部12,音楽生成部14,および個
性データベース16を含む。音楽聴取部12は、音楽プ
リミティブ認識エージェント群18を含む。音楽プリミ
ティブ認識エージェント群18は、マルチエージェント
モデル(多入力、一出力の簡単な処理を実現するエージ
ェントをネットワークで組み合わせることによって、複
雑な機能を実現する手法)を用いて、音楽プリミティブ
の認識を行う。音楽プリミティブ認識エージェント群1
8に含まれる後に詳細に説明する各エージェントは、デ
ータベースに蓄えられた音楽知識を有していて、その音
楽知識は、1960年代の和声理論を基本として用い
る。たとえば、酒井潮:「ジャズオルガンインプロビゼ
ーション1,2」,リットウミュージック(1970)や渡辺
貞夫:「ジャズスタディー」,エー・ティー・エス(197
0)など。この和声理論では一般的なジャズ和声より、1
人のプロミュージシャンとしての実践的経験則が優先さ
れている。これは、ジャズの本質的な性格から、その和
声が時代と共に変貌し、すべてを包括する理論として確
立したことがなく、経験則の集合が理論とされているか
らである。
The music session device 10 of this embodiment shown in FIG. 1 includes a music listening unit 12, a music generating unit 14, and a personality database 16. The music listening unit 12 includes a music primitive recognition agent group 18. The music primitive recognition agent group 18 recognizes music primitives by using a multi-agent model (a method of realizing a complicated function by combining agents that realize a simple processing of multiple inputs and one output in a network). . Music primitive recognition agent group 1
Each agent, which will be described later in detail in Section 8, has musical knowledge stored in a database, and this musical knowledge uses the harmony theory of the 1960s as a basis. For example, Ushio Sakai: “Jazz Organ Improvisation 1, 2”, Littow Music (1970) and Sadao Watanabe: “Jazz Study”, ATS (197)
0) etc. In this harmony theory, 1 rather than general jazz harmony
Practical rules of thumb as a professional musician are given priority. This is because, due to the essential nature of jazz, its harmony has changed over time, and it has never been established as a comprehensive theory, and the set of empirical rules is the theory.

【0020】一般に、人間が音楽を聞くときには、様々
なレベルでの認識を行っている。通常は、重積した音響
信号からそれに含まれる楽器種や音源などを理解した上
で、ハーモニやリズム、メロディ等の認識を行ってい
る。実施例の音楽セッションシステム10では、MID
I楽器の出力、すなわち、MIDI信号を受け、音楽プ
リミティブ認識エージェント群18は、まず、音響知覚
レベルとして音量,音数,音域等を抽出する。音数は、
たとえば、単位時間当たりのノートオンの個数で与えら
れる。また、音楽知覚レベルとしては、コード,メロデ
ィ,テンションノートおよびリズム等の基本的な音楽要
素(音楽プリミティブ:Musical Primitives)がある。
さらに、上位音楽知覚レベルとしては、コード進行や調
性,クロージャ等の音楽プリミティブがある。音楽プリ
ミティブ認識エージェント群18は、これらの解析をリ
アルタイムに行う。この音楽プリミティブ認識エージェ
ント群18で抽出した音楽プリミティブは、音楽生成部
14における演奏の物理的制約の基礎として使われるほ
か、後述の感性情報抽出の前段としても利用される。以
下には、代表的な音楽プリミティブの認識について説明
する。
Generally, when a person listens to music, he or she recognizes at various levels. Usually, the harmonics, rhythm, and melody are recognized after understanding the musical instrument type and sound source included in the accumulated acoustic signals. In the music session system 10 of the embodiment, the MID
Upon receiving the output of the I musical instrument, that is, the MIDI signal, the music primitive recognition agent group 18 first extracts the volume, the number of notes, the range, etc. as the acoustic perception level. The number of notes is
For example, it is given by the number of note-on per unit time. The musical perception level includes basic musical elements (musical primitives) such as chords, melodies, tension notes and rhythms.
Furthermore, as the higher music perception level, there are music primitives such as chord progression, tonality, and closure. The music primitive recognition agent group 18 performs these analyzes in real time. The music primitives extracted by the music primitive recognition agent group 18 are used not only as a basis for the physical constraints of the performance in the music generation unit 14, but also as a pre-stage of the sensitivity information extraction described later. The recognition of typical music primitives will be described below.

【0021】コード認識エージェント20は、コードパ
ート奏者からのMIDI信号とベースエージェント22
からの根音情報を入力として、それをこの音楽プリミテ
ィブ認識エージェント群18に予め形成した知識データ
ベース(図示せず)に蓄えられたコードフォームと比較
することによって、コードの候補として可能性のあるも
のを全て選び出す。データベースには、クローズドフォ
ームおよびオープンフォームとしての構成音の完全なも
のから根音,3度,5度の省略された不完全なものま
で、演奏可能な全てのコードフォームが登録されてい
る。実際の演奏データは、コードの各ノートを同時に演
奏してもその同時性はなく、数ミリ秒以上前後してエー
ジェントに達する。また、分散コードとして演奏される
こともある。エージェント20は、逆行認識によって、
常にこれらを検証しながら候補を出力する。コード認識
エージェント20は、通常、ベースエージェント22と
協働する。根音の情報がなければ、コード認識エージェ
ント20は単独ではコードネームを決定できないからで
ある。たとえばE,G,Bが弾かれたとしても、Cmaj7,
Em, G6 などである可能性があり、根音の情報なしには
1つのコードとして決定することはできない。このよう
にして得られたコード情報は、コード進行エージェント
24に送られ、そこでコード進行が決定される。また、
コード認識エージェント20は、後述の聴取感性パラメ
ータ抽出手段32に含まれるメロディテンションエージ
ェントに対しても情報を与える。
The chord recognition agent 20 receives the MIDI signal from the chord part player and the bass agent 22.
Possible as a chord candidate by inputting the root note information from the above and comparing it with a chord form stored in a knowledge database (not shown) formed in advance in the musical primitive recognition agent group 18 Select all. In the database, all chord forms that can be played are registered, from complete ones of closed form and open form to incomplete ones of root note, third and fifth. The actual performance data reaches the agent in a few milliseconds or more, even if the notes of the chord are played simultaneously. It may also be played as a distributed chord. By the retrograde recognition, the agent 20
The candidates are always output while verifying these. Code recognition agent 20 typically cooperates with base agent 22. This is because the chord recognition agent 20 cannot determine the chord name by itself without the root note information. For example, even if E, G, and B are played, Cmaj7,
It can be Em, G6, etc., and cannot be determined as a single chord without root note information. The chord information thus obtained is sent to the chord progression agent 24, where the chord progression is determined. Also,
The chord recognition agent 20 also gives information to the melody tension agent included in the listening sensitivity parameter extraction means 32 described later.

【0022】ベースエージェント22の主な機能は、ベ
ース奏者からのMIDI信号を受け、可能性のある根音
の候補を出力することである。この出力は、上述のよう
に、コード認識エージェント20に送られ、それに基づ
いてコードネームの最終的な決定が行われる。このベー
スエージェント22の機能は、音楽ジャンルに応じて変
化する。たとえば、ロック,8ビート,およびスイング
の2ビートにおいては、入力に対しコードの構成音を中
心に検出し、スイングの4ビートでは、入力はスケール
ノートとの比較を行う。ベースエージェント22は、ビ
ートトラッキングエージェント28と協働して、ビート
トラッキングも行う。
The main function of the bass agent 22 is to receive a MIDI signal from the bass player and output a possible root note candidate. This output is sent to the code recognition agent 20, as described above, on which the final determination of the codename is made. The function of the base agent 22 changes according to the music genre. For example, in 2 beats of rock, 8 beats, and swing, the chord component sound is mainly detected with respect to the input, and in 4 beats of the swing, the input is compared with the scale note. The base agent 22 also performs beat tracking in cooperation with the beat tracking agent 28.

【0023】コード進行エージェント24は、コード認
識エージェント20の出力するコードの候補と、ベース
エージェント22の根音情報とに基づいて、リハーモニ
ゼーション,およびテンションリゾルブを含むコード進
行を決定する。コード進行エージェント24は、隣合う
候補の全ての組み合わせを調べ、禁則ルールに従ってそ
の対象となるものを除外する。次に、残った組み合わせ
について、過去に遡りながらコード進行としての連続性
を調査し、一例として、最も長い連続を持つコード進行
を選択する。このコード進行エージェント24は局所的
な逆行認識によって処理するが、クリッシェや4度上行
進行など、その使用が様式的に確立しているコード進行
については、モデル駆動による仮説検定処理を併用する
ことによってパフォーマンスを高めている。コード進行
エージェント24は、コード進行を決定した後、トニッ
ク,サブドミナント,およびドミナント(以下、
「T」,「SD」,および「D」と呼ぶ。)の機能コー
ドとスケールを選択する。コード進行の決定のために
は、以下に述べる5種類の進行の可能性を検証する。た
だし、下記リストの上位ほど優先して選択される。
The chord progression agent 24 determines chord progressions including reharmonization and tension resolve based on the chord candidates output by the chord recognition agent 20 and the root note information of the bass agent 22. The chord progression agent 24 examines all combinations of adjoining candidates, and excludes those that are subject to the prohibition rules. Next, with respect to the remaining combinations, the continuity as chord progression is investigated while going back in the past, and as an example, the chord progression having the longest continuation is selected. The chord progression agent 24 processes by local retrograde recognition, but for chord progressions whose use is established stylistically, such as cliche and 4th ascending progression, by using model-driven hypothesis test processing together. Performance is improved. After determining the chord progression, the chord progression agent 24 determines the tonic, subdominant, and dominant (hereinafter,
Called "T", "SD", and "D". ) Function code and scale. In order to determine the chord progression, the following five possibilities of progression are verified. However, the higher the list below, the higher the priority.

【0024】(1) 定石進行 (2) 4度上行進行 (3) 増4度上行進行 (4) クロマチック下行進行 (5) クロマチック上行進行 (1) 定石進行としては、循環コード進行とそれ以外の定
石進行の知識をもっている。循環コード進行は十数種類
からなり、4個程度の4度上行進行を中心に連結された
進行である。定石進行は、或る意味では、コード進行エ
ージェント24の個性情報であり、以下にそれを例示す
る。
(1) Joseki progression (2) 4th ascending progression (3) Increase 4th ascending progression (4) Chromatic descending progression (5) Chromatic ascending progression (1) As for joseki progression, there are cyclic chord progressions and other He has the knowledge of the routine. Circular chord progressions are made up of more than a dozen types, and are progressions that are connected around four ascending progressions of 4 degrees. The joseki progression is, in a sense, the personality information of the chord progression agent 24, and is exemplified below.

【0025】(a) Dm7/G - G7 - Cmaj7 (b) Cm - Cm/B - Cm/B♭ - Cm/A - Cm/A♭- Cm/G (c) C - A7/C# - Dm (d) C - E7/B - Am - Am7/G D7/F 最近の演奏では、ベースラインも1つのメロディとして
考えられていて、ラインよりも旋律的に演奏されること
が多い。上の例はそのことを示している。(a) はIIm7 -
V7 進行を明確すぎるものと考え、その代理として使用
される。(b) は、クリッシェと呼ばれ、動きを抑えたコ
ードと対比して、クロマチック下行進行するベースライ
ンが独特の効果を生む。(c) および(d) は、多用される
4度上行進行からの回避策としてのクロマチック進行の
使用である。クロマチック進行は、コード進行の中でか
なり強い性格をもつため、最優先で解釈を行う。このよ
うにして機能コードを決定した後、コード進行エージェ
ント24は、ドミナントモーションの位置と、4小節単
位でコードを評価してトーナリティを決定する。
(A) Dm7 / G-G7-Cmaj7 (b) Cm-Cm / B-Cm / B ♭-Cm / A-Cm / A ♭-Cm / G (c) C-A7 / C #-Dm (d) C-E7 / B-Am-Am7 / G D7 / F In recent performances, the bass line is also considered as a melody, and it is often played in a melody rather than a line. The example above shows that. (a) is IIm7-
Considered V7 progress too clear and used as a proxy. In (b), which is called a cliche, a chromatic downward-progressing baseline produces a unique effect in contrast to a chord that suppresses movement. (c) and (d) are the use of chromatic progression as a workaround from the frequently used four-degree ascending progression. Chromatic progression has a fairly strong character in chord progression, so the interpretation is given the highest priority. After determining the function code in this way, the chord progression agent 24 evaluates the chord in units of four bars and the position of the dominant motion to determine the tonality.

【0026】ビートトラッキングエージェント26は、
ベースエージェント22からの情報とドラムスの演奏情
報とに基づいて、テンポとビートとを解析し、さらにリ
ズムパターンの変化を認知する。ビートトラッキングに
ついての認識アルゴリズムには、比較的多くの研究例が
ある。たとえば、Desain P. and Honing H.: "The Quan
tization of Musical Time: A Connectionnist Apploar
ch", MIT press computer Music Jounal, 13(3), pp56-
56(1989)、Rosenthal D.: "Machine Rythm: Computer E
moution of Human Rythm Perception", Ph.D. Thesis,
Media Lab. MIT(1992)、Allen P. and Dannenberg R.:
"Tracking Musical Beat in Real Time", Proc. ICMC,
pp140-143(1990) などである。ただし、この実施例で
は、各音楽ジャンルにおける実際の演奏状況を考慮し、
特にベースパート奏者に注目し、ドラムス奏者からのM
IDI信号は補助的に利用するだけである。
The beat tracking agent 26 is
Based on the information from the bass agent 22 and the performance information of the drums, the tempo and the beat are analyzed, and the change in the rhythm pattern is recognized. There are relatively many studies on the recognition algorithm for beat tracking. For example, Desain P. and Honing H .: "The Quan
tization of Musical Time: A Connectionnist Apploar
ch ", MIT press computer Music Jounal, 13 (3), pp56-
56 (1989), Rosenthal D .: "Machine Rythm: Computer E
moution of Human Rythm Perception ", Ph.D. Thesis,
Media Lab.MIT (1992), Allen P. and Dannenberg R .:
"Tracking Musical Beat in Real Time", Proc. ICMC,
pp140-143 (1990), etc. However, in this embodiment, considering the actual playing situation in each music genre,
Paying particular attention to the bass part player, M from the drums player
The IDI signal is only used supplementarily.

【0027】このビートトラッキングエージェント26
は、各ジャンルがもつ個別の特徴的なリズムパターンお
よびそのバリエーシヨンをデーターベースとしてもって
いる。音楽ジャンルとしては、現在、スイング(2ビー
ト,4ビート),ロック,ボサノバ,16ビート,ラテ
ン,およびサンバに分類されている。たとえばボサノバ
では、バスドラムでビートを維持し、カウベル,シンバ
ル,リムショット等の楽器にシコペーションが多用され
る。また、スイングでは、一般的に、ビートはシンバル
で維持され、スネアドラムやバスドラムでバリエーショ
ンがつけられるが、その演奏においては、ビートに集中
することを意識的に避けて演奏されるので、実施例で
は、この点を考慮するようにしている。そして、ビート
トラッキングエージェント26は、各ジャンルのリズム
パターン上の特徴点と入力から検出した特徴点の位置と
に基づいてビートを認識する。ただし、実際の演奏で
は、ベースラインの方が正確なビート情報を保持してい
る場合が多く、ドラムスの信号からは主としてバリエー
ションを抽出する。
This beat tracking agent 26
Has a database of the characteristic rhythm patterns of each genre and their variations. Music genres are currently classified into swing (2 beats, 4 beats), rock, bossa nova, 16 beats, Latin, and samba. For example, in bossa nova, bass beat is used to maintain the beat, and sycopation is often used for instruments such as cowbells, cymbals, and rim shots. In addition, in the swing, the beat is generally maintained with cymbals, and variations are added with the snare drum or bass drum, but in that performance, it is performed while consciously avoiding concentrating on the beat. In the example, this point is taken into consideration. Then, the beat tracking agent 26 recognizes the beat based on the characteristic points on the rhythm pattern of each genre and the positions of the characteristic points detected from the input. However, in actual performance, the bass line often holds more accurate beat information, and variations are mainly extracted from the drums signal.

【0028】また、フレーズ等の認識は、下位レベルで
のエージェントの変化点や文化的に形成された区切れ感
を表すエージェントの出力、たとえばドミナントモーシ
ョン検出時の出力に基づいて計算される。また、演奏生
成に必要な次フレーズ予測は、次フレーズ予測エージェ
ント28によって達成される。以下にそのアルゴリズム
の一例を示す。なお、クロージャ認識エージェント30
は、音楽知覚レベルにおいて変化のあった変化値(たと
えばメロディ中の或る音と或る音との間で跳躍があれば
その跳躍度合いを変化値とする)の足し合わせでクロー
ジャを与えるものとする。
The recognition of a phrase or the like is calculated based on the output of the agent indicating the changing point of the agent at a lower level or the sense of break formed culturally, for example, the output when a dominant motion is detected. The next phrase prediction required for performance generation is achieved by the next phrase prediction agent 28. An example of the algorithm is shown below. The closure recognition agent 30
Is to add a change value with a change in the musical perception level (for example, if there is a jump between a certain sound and a certain sound in the melody, the jumping degree is the change value) to give a closure. To do.

【0029】ステップS1:クロージャ認識エージェン
ト30−それはクロージャの始めにその強さの相対値を
出力する−から所定の閾値以上の大きな出力があったと
き、その時刻を記録し、次のクロージャ認識エージェン
ト30の大きな出力があったとき、その間のメロディシ
ーケンスをワーキングメモリに登録する。また、そのメ
ロディシーケンスの得点としては、それを挟むクロージ
ャ認識エージェント30の2つの出力の和から計算す
る。なお、ワーキングメモリに登録するメロディシーケ
ンスには重複があってもよい。
Step S1: When the closure recognition agent 30 outputs a relative value of its strength at the beginning of a closure-when there is a large output above a predetermined threshold, the time is recorded and the next closure recognition agent When there is a large output of 30, the melody sequence in the meantime is registered in the working memory. The score of the melody sequence is calculated from the sum of the two outputs of the closure recognizing agent 30 that sandwiches the score. The melody sequences registered in the working memory may overlap.

【0030】ステップS2:登録した複数のメロディシ
ーケンスと順次入力される音列のマッチングを行う。こ
のときに、マッチングの度合いおよび先に計算したメロ
ディシーケンスの得点に応じて、そのメロディシーケン
スの終了時刻におけるクロージャの期待度を計算する。
マッチングの度合いは、オンセットタイム(リズムの同
一性)とメロディ中における音程の変化度(および初期
音程)を使って計算する。
Step S2: Matching of a plurality of registered melody sequences and a sequence of tones sequentially input. At this time, the expected degree of closure at the ending time of the melody sequence is calculated according to the degree of matching and the score of the melody sequence calculated previously.
The degree of matching is calculated using the onset time (identity of the rhythm) and the degree of change of the pitch in the melody (and the initial pitch).

【0031】ステップS3:予想したクロージャの終了
時刻がクロージャ認識エージェント30からの大きな出
力と一致した場合は、メロディシーケンスの得点を高く
する。そのことによって、記憶が繰り返しによって増幅
されたことを示す。人間が音楽を聴取するときにはなに
がしかの情動が起こっており、それがセッション時の演
奏生成においても影響を与えていることはよく知られた
ことである。感性情報の定義に関しては様々な議論もあ
るが、この実施例では、システムのユーザインタフェー
スとしての妥当性という観点から、Emotional Characte
r(EC), Musical Interest Value(MIV), およびPartner'
s Insistence Value(PIV) の3つを考える。これらが演
奏を制御するパラメータとして使われる。
Step S3: If the expected closure end time matches the large output from the closure recognition agent 30, the score of the melody sequence is increased. This indicates that the memory was repeatedly amplified. It is well known that human beings have some emotion when they listen to music, which also affects the production of performance during the session. Although there are various discussions regarding the definition of the emotional information, in this embodiment, from the viewpoint of the validity as the user interface of the system, the Emotional Characte
r (EC), Musical Interest Value (MIV), and Partner '
s Consider three of the Insistence Value (PIV). These are used as parameters to control the performance.

【0032】ECとは聴取感性パラメータ抽出手段32
すなわちメロディテンションエージェントから、たとえ
ば明るい,軽い,暗い,重い等のような形容詞名とその
強さを表す値からなるデータセットで与えられるもので
ある。その中でも緊張感に相当するテンション Total T
ension Value(TTV) についてはセッションをコントロー
ルする際の重要なパラメータであると位置づけ、それぞ
れの音楽プリミティブに相当したECを算出している。
これらに個性データベース16、すなわち個性プロファ
イルに記述されたネットワークパラメータを掛けて合算
することにより、テンションパラメータTTVが算出さ
れる。個性プロファイル16を利用することにより、ハ
ーモニ重視型やリズム重視型といった個性が実現され
る。パートナ主張パラメータPIVは、後述のパートナ
主張パラメータ抽出手段34から出力される相手の主張
度を表すファクタであり、ソロをとっているときにその
値が大きくなるような計算が行われる。音楽的興味パラ
メータMIVとは、後述の音楽的興味パラメータ抽出手
段36から出力され、音楽的な興味を示すファクタであ
り、もしこれが低すぎると演奏をやめるというような役
割を持っている。
What is EC? Listening sensitivity parameter extraction means 32
That is, it is given by the melody tension agent as a data set consisting of adjective names such as bright, light, dark, heavy, etc. and a value representing its strength. Among them, Tension Total T, which is equivalent to tension
The tension value (TTV) is positioned as an important parameter when controlling the session, and the EC corresponding to each music primitive is calculated.
The tension parameter TTV is calculated by multiplying these by the individuality database 16, that is, the network parameter described in the individuality profile, and adding up. By using the individuality profile 16, individuality such as a harmony-oriented type or a rhythm-oriented type is realized. The partner claim parameter PIV is a factor representing the claim level of the other party output from the partner claim parameter extracting means 34, which will be described later, and is calculated such that its value increases when the solo is taken. The musical interest parameter MIV is a factor that is output from the musical interest parameter extraction means 36, which will be described later, and indicates a musical interest, and has a role to stop playing if it is too low.

【0033】個性データベース16は、音楽の聞き方,
演奏の生成の個性を記述したデータベースである。人に
よって音楽の聞き方は異なる。個性データベース16は
聴取においてどの音楽要素に反応しやすいか(たとえ
ば、リズム重視型とかメロディ重視型など)を記述した
ネットワークパラメータ群,ソロに入りやすいかあるい
は伴奏に徹するかを決定する自己主張パラメータ,聴取
感性パラメータを演奏感性パラメータに変換するための
パラメータ群,および伴奏パターン/ソロパターン生成
の傾向を記述したパターンなどをもつ。
The personality database 16 is used for listening to music,
This is a database that describes the individuality of performance generation. Different people have different ways of listening to music. The personality database 16 is a network parameter group that describes which musical elements are likely to respond to listening (for example, rhythm-oriented type or melody-oriented type), self-assertion parameters that determine whether it is easy to enter solo or stick to accompaniment, It has a parameter group for converting a listening sensitivity parameter into a performance sensitivity parameter, and a pattern describing the tendency of accompaniment pattern / solo pattern generation.

【0034】出力16a:メロディ重視型,リズム重視
型などのパラメータを0から1のレベルで与えたものを
出力する。 出力16b:3つの音楽興味パラメータMIVに対する
重みを0−1のレベルを与える。 出力16c:自己主張パラメータを0から1のレベルで
与えたものを出力する。
Output 16a: Outputs a parameter given at a level of 0 to 1 such as a melody-oriented type or a rhythm-oriented type. Output 16b: Gives weights for the three music interest parameters MIV to levels 0-1. Output 16c: Outputs the self-assertion parameter given at a level of 0 to 1.

【0035】出力16d:リーダーシップ度,あまのじ
ゃく度に相当するパラメータを0から1のレベルで与え
たものを出力する。 出力16e:演奏時におけるメロディ重視型,リズム重
視型などのパラメータを0から1のレベルで与えたもの
を出力する。 次に、音楽聴取部12に含まれる一般感性抽出データベ
ース38は、聴取感性パラメータ抽出手段32に判断の
基礎を与えるためのもので、音楽プリミティブ認識エー
ジェント群18から出力された音楽プリミティブがどの
ように感じられるかについて記述したデータベースであ
る。一般感性抽出データベース38では、主として、文
化圏において共通と思われるものを扱う。一例として、
メロディに対するデータベースを次の表1に示す。
Output 16d: Outputs the parameters corresponding to the degree of leadership and the degree of flaking at the level of 0 to 1. Output 16e: Outputs a parameter given at a level of 0 to 1 such as a melody-oriented type and a rhythm-oriented type during playing. Next, the general sensitivity extraction database 38 included in the music listening unit 12 serves to provide a basis for judgment to the listening sensitivity parameter extraction means 32, and how the music primitives output from the music primitive recognition agent group 18 are processed. It is a database that describes how it feels. The general sensitivity extraction database 38 mainly deals with what seems to be common in cultural areas. As an example,
The database for the melody is shown in Table 1 below.

【0036】[0036]

【表1】 [Table 1]

【0037】表1は、長音階スケール上の音とスケール
から派生するダイアトニックコードとの間に生じる感情
を示している。縦列にダイアトニックコードを示し、横
列にメロディラインに使用する音高の度数表現、たとえ
ばCメジャコードにおけるIはドの音を示す。縦横の交
差する箇所のc,t,aおよびdがそのとき起きる感情
を表現している。その意味は次のとおりである。 (c)コードの構成音(*は根音),安定感 (t)テンションパノート,緊張感 (a)アボイドノート,禁則感 (d)ディスコード,禁則感 (c)は安定感を生じ、(t)は緊張感を持ち、9度は
3度、13度は7度に対して全音またはクロマチックな
位置にあり、この衝突が起きるとさらに強度なものとな
る。(a)は各スケールのもつ忌避すべき音であり、も
し使用されるとても極めて短時間である。(d)はコー
ドの種類を決定する構成音とぶつかるものであり、
(a)と同様の性格をもち、ミストーンとしての性格が
強い。
Table 1 shows the emotions that occur between notes on the major scale and diatonic chords derived from the scale. The column shows the diatonic chord, and the row shows the frequency representation of the pitch used for the melody line, for example, I in the C major chord shows the do sound. C, t, a, and d at vertical and horizontal intersecting points express the emotions that occur at that time. The meaning is as follows. (C) chord sound (* is root sound), sense of stability (t) tension punch note, tension feeling (a) void note, prohibition feeling (d) discord, prohibition feeling (c) produces stability feeling, (T) has a tense feeling, and is in a whole tone or chromatic position with respect to 3 degrees at 9 degrees and 7 degrees at 13 degrees, and becomes stronger when this collision occurs. (A) is the sound that each scale has to avoid, which is a very short time to be used. (D) collides with the constituent sounds that determine the type of chord,
It has the same personality as (a) and has a strong personality as a mistone.

【0038】聴取感性パラメータ抽出手段32は、上述
のように、音楽プリミティブ認識エージェント群18の
コード認識エージェント20からの出力とメロディパー
ト奏者からのMIDI信号とに基づいてメロディライン
の解析を行うメロディテンションエージェントを含む。
メロディテンションエージェント(図示せず)は、次表
2のようなテンプレートを用いて上述の感情パラメータ
(Emotional Character: EC) を抽出する。これはコー
ドに対し、メロディラインのそれぞれの音から発生する
局所的なテンション値である。
As described above, the listening sensitivity parameter extracting means 32 analyzes the melody line based on the output from the chord recognition agent 20 of the music primitive recognition agent group 18 and the MIDI signal from the melody part player. Including agents.
The melody tension agent (not shown) uses the template shown in Table 2 below to describe the emotional parameters described above.
(Emotional Character: EC) is extracted. This is a local tension value generated from each sound of the melody line with respect to the chord.

【0039】[0039]

【表2】 [Table 2]

【0040】横列の並びを根音として注目すると、メジ
ャ、マイナごとに類似性がある。表2は各ダイアトニッ
クコードの種類別はそのままにして根音が同一になるま
で移調し、さらにメジャ、マイナとその他のコードにグ
ループわけしたものである。たとえば、IIm7であれば、
表3での横列の並びを左に全て全音ずらせている。表3
からは、明らかに、グループ毎に類似性が読み取れる。
メジャでは、4度と増4度に、マイナでは、5度と増5
度に違いがみられるだけである。表2に示すテンプレー
トは、メロディテンションフィルタと呼ばれる。また、
メロディラインにおけるテンション値は、メロディテン
ションフィルタの中からコードに相当する行を選択し、
それをメロディに作用させることで解釈される。したが
って、トーナリティが確実にわかっていない段階でも、
テンション値の解釈が行われることがこの実施例の一つ
の特徴である。また、コード進行ECエージェント(図
示せず)がまた、この聴取感性パラメータ抽出手段26
に含まれ、その機能は、音楽プリミティブ認識エージェ
ント群18のコード進行エージェント24からのコード
進行から、その和声学的意味を基に、それらコード進行
が提示するECを検出することである。このEC値は、
数小節以内での局所的感情を示すものである。たとえ
ば、ドミナントモーションは終止感をもたらし、IIm7 -
II♭7 - Imaj7 のコード進行は暗鬱感をもたらす。マク
ロ認識により、機能コード,4度上行進行,ダイヤトニ
ックコード,ドミナントモーション,一時転調等などか
らECを検出する。ECの一例が以下に示される。
If attention is paid to the row of rows as a root note, there is similarity between each major and minor. Table 2 shows the types of each diatonic chord as they are and transposes until the root note becomes the same, and further groups into major chords, minor chords, and other chords. For example, for IIm7,
All rows in Table 3 are shifted to the left by the whole note. Table 3
Clearly, the similarity can be read for each group.
Major increased to 4 and increased to 4 and Minor increased to 5 and increased 5.
Only differences can be seen. The template shown in Table 2 is called a melody tension filter. Also,
For the tension value on the melody line, select the line corresponding to the chord from the melody tension filter,
It is interpreted by acting on the melody. Therefore, even if you are not sure about the tonality,
It is one of the features of this embodiment that the interpretation of the tension value is performed. In addition, the chord progression EC agent (not shown) also uses the listening sensitivity parameter extraction means 26.
And its function is to detect the ECs presented by the chord progressions from the chord progressions from the chord progression agents 24 of the music primitive recognition agent group 18 based on their harmonic sense. This EC value is
It shows local emotions within a few measures. For example, Dominant Motion brings a feeling of end, IIm7-
II ♭ 7-Imaj7's chord progression creates a feeling of darkness. By macro recognition, EC is detected from a function code, 4 times ascending, a diatonic code, a dominant motion, a temporary modulation, etc. An example of an EC is shown below.

【0041】Et:トニックによる安定感 Et0:トーナリティの喪失感 Eds:トニックからサブドミナントへの進行時に感じ
る距離感 Ed:ドミナントによるトニックへの期待感 E4:4度上行による躍動感 Edi:ダイヤトニックコードによる安定感 Ev:ドミナントモーションによる終止感 Ei:偽終止による発展感 E25:II-V進行によるトニックへの期待感 Eb:クロマチック進行による暗鬱感 Ek:調性の変更による飛躍感 E37:構成音が3度、7度だけのセブンスコード Ecc:クロマチックまたは全音の衝突を含むコード このような各ECは、コード進行が確立した時点で、聴
取感性パラメータ抽出手段32のコード進行ECエージ
ェントから「0」または「1」のパラメータ値として出
力される。
Et: Stability due to tonic Et0: Loss of tonality Eds: Distance sensed when going from tonic to subdominant Ed: Expectation of tonic due to dominant E4: Dynamic feeling due to 4th ascending Edi: Diamond tonic code Stability due to Ev: Termination due to dominant motion Ei: Development due to false termination E25: Expectation for tonic due to progression of II-V Eb: Dentation due to chromatic progression Ek: Leap feeling due to change in tonality E37: Component sound Seventh code only 3 or 7 degrees Ecc: Code including chromatic or whole-tone collision Each such EC is "0" or from the chord progression EC agent of the listening sensitivity parameter extraction means 32 at the time when chord progression is established. It is output as a parameter value of "1".

【0042】先に述べたように、聴取感性パラメータ抽
出手段26は、入力された演奏の形容詞的な情報を抽出
する。形容詞的な情報とは名前(緊張感,暗鬱感など)
その原因となった音楽情報(メロディ,調性,コード
等)とその値のタプルで表されるものであり、一般感性
抽出データベース38をもとにほぼ文化的に共通と考え
られる感性情報の抽出を行う。この例としては短調が検
出されると暗さの名前をもったタプルの値が加えられ
る。一方、音楽の感じ方に関してはすべてが文化的に共
通といえるものではない。たとえば、メロディ重視の人
もいれば、リズム重視の人もいる。個性データベース1
6からは、どの音楽情報にウェイトをおいて個人が音楽
を聞くかというパラメータ群が入力される。このパラメ
ータ群と一般感性抽出データベース38とによって抽出
された値との積和演算によって、名前に相当した形容詞
情報の全体的な値が得られる。ここでは、セッションを
コントロールする要素として緊張感(テンション:TT
V)に注目している。以下、テンションに相当する情報
の処理を例にアルゴリズムを説明する。
As described above, the listening sensitivity parameter extracting means 26 extracts the adjective information of the input performance. Adjective information is a name (tension, depression, etc.)
The musical information (melody, tonality, chords, etc.) that causes it is represented by a tuple of its value, and based on the general emotional extraction database 38, the emotional information that is considered to be culturally common is extracted. I do. In this example, when a minor is detected, a tuple value with the name of darkness is added. On the other hand, not all can be said to be culturally common regarding how music is felt. For example, some people emphasize melody, while others emphasize rhythm. Personality database 1
From 6, the parameter group indicating which music information should be weighted by an individual to listen to music is input. The overall value of the adjective information corresponding to the name is obtained by the product-sum operation of this parameter group and the value extracted by the general affective extraction database 38. Here, tension (TT: TT) is an element that controls the session.
I am paying attention to V). The algorithm will be described below by taking the processing of information corresponding to tension as an example.

【0043】ステップS1:音楽プリミティブ認識エー
ジェント群18から出力を受ける。 ステップS2:それぞれの音楽プリミティブ(たとえ
ば、メロディ)が入力されたときは一般感性抽出データ
ベース38中に登録したものを参照し、メロディに相当
したテンションパラメータを算出する。 ステップS3:ステップS2において、メロディ,リズ
ム,ハーモニー等の各音楽プリミティブに相当したテン
ション(TV:Tension Value)が計算される。これに対し、
個性データベース16から入力されたどのプリミティブ
を重視するかのパラメータTTVを掛けて、足し合わせ
ることで、或る時間における音楽全体に相当するテンシ
ョンパラメータを算出する。
Step S1: Receive output from the music primitive recognition agent group 18. Step S2: When each music primitive (for example, melody) is input, the tension parameter corresponding to the melody is calculated by referring to the one registered in the general sensitivity extraction database 38. Step S3: In step S2, the tension (TV: Tension Value) corresponding to each music primitive such as melody, rhythm, and harmony is calculated. In contrast,
The tension parameter corresponding to the entire music at a certain time is calculated by multiplying by the parameter TTV input from the individuality database 16 which priority is given to the primitive and adding them together.

【0044】ステップS4:この聴取感性パラメータ抽
出手段26からライン12によってテンションパラメー
タTTVを送る。ECのもう1つの例として、重厚感の
パラメータ抽出例を示す。この重厚感は文化的には共通
していると考えられ、次の進行から生まれる。 Cm - Cm/B - Cm/B♭ - Cm/A - Cm/A♭ - Cm/G この感情の抽出には、同一コードの連続と、ベースの半
音下降進行の同時抽出を必要条件とする。またCmがCmad
d9というコードで演奏されDとEbの衝突が起きれば、
これからの緊張感により重厚感はさらに強調される。
Step S4: The tension parameter TTV is sent from the listening sensitivity parameter extracting means 26 through the line 12. As another example of EC, an example of extracting a parameter of profound feeling will be shown. It is thought that this profound feeling is culturally common, and is born from the next step. Cm-Cm / B-Cm / B ♭-Cm / A-Cm / A ♭-Cm / G The extraction of this emotion requires the continuous extraction of the same chord and the simultaneous extraction of the bass semitone downward progression. Also Cm is Cmad
If it is played with the chord d9 and there is a collision between D and Eb,
The tension from now on emphasizes the profound feeling.

【0045】パートナ主張パラメータ抽出手段34は、
外部の演奏者の自己主張度を抽出する。後に述べる緊張
感と完全に独立して求められるものではないが、ソロ/
伴奏を弾いているかどうかに大きく依存して演奏者の自
己主張度が検出される。自己主張度の抽出アルゴリズム
の例を以下に示す。この手段34は、まず、図2に示す
ように、メロディらしさ,コードストロークらしさ,ア
ルペジオらしさを抽出する3つのエージェント(図示せ
ず)をもち、小節毎に統計処理によって得られた8分音
符での音数,変化音の数,1小節の平均音高,コードト
ーン/テンションノートの数などのそれぞれの度合いを
抽出する。この抽出された度合いの中で1番高いのがメ
ロディであればソロ,コードストローク/アルペジオが
高いと伴奏と認識する。そして、このパートナ主張パラ
メータ抽出手段34は、パートナ主張パラメータPIV
を出力する。
The partner claim parameter extraction means 34
The self-assertiveness of the outside performer is extracted. It is not required to be completely independent of the tension described later, but solo /
The player's self-assertiveness is detected depending largely on whether or not the accompaniment is being played. An example of a self-assertion degree extraction algorithm is shown below. As shown in FIG. 2, this means 34 has three agents (not shown) for extracting melody-likeness, chord-stroke-likeness, and arpeggio-likeness, and uses an eighth note obtained by statistical processing for each measure. The number of notes, the number of changing notes, the average pitch of one bar, the number of chord tones / tension notes, etc. are extracted. If the highest melody among the extracted degrees is a melody, it is recognized as an accompaniment if the solo and chord stroke / arpeggio are high. Then, the partner claim parameter extracting means 34 determines the partner claim parameter PIV.
Is output.

【0046】音楽的興味パラメータの抽出に関してはマ
クロ的に認識されるもの(マクロ認識),傾向から予想
を行い逸脱を動機とするもの(予期認識),および音楽
的な進行が理解できたときの喜びを抽出するもの(逆行
認識)の3つのタイプがある。これらについて以下に説
明する。鑑賞者は聞いている音楽に対し、自分の持つ音
楽経験との類似点を探りながら認識している。我々は、
既知の旋律を聞いたとき、以前に聞いたときに心に浮か
んだ雰囲気や感情を思い起こす。全ての音楽要素(断
片)が、或る感情を呼び起こすと考えることは間違って
いるかもしれないが、それぞれの民族が持ち、かつ文化
的文脈のある音楽に含まれる音楽要素には一定の形容詞
的な意味合いがある。ポピュラソングの作曲家は、この
ような事象を意図的に、すなわち、タグとして使ってい
ることがある。
Regarding the extraction of the musical interest parameter, the one recognized macroscopically (macro recognition), the one motivated by the deviation from the tendency to make a deviation (anticipation recognition), and the one when the musical progression can be understood There are three types of things that extract joy (reverse recognition). These will be described below. Viewers are aware of the music they are listening to, looking for similarities to their own musical experience. we,
When you hear a known melody, it reminds you of the moods and emotions that came to your mind when you heard it before. It may be wrong to think that all musical elements (fragments) evoke certain emotions, but there are certain adjectives for the musical elements that are contained in the music that each race has and have a cultural context. Has implications. Poplar song composers may intentionally use such events as tags.

【0047】上述のマクロ認識の仕方はダイナミックパ
ターンマッチングを用いることでコンピュータ上に実現
することができる。これまでに演奏者の個性を示す大局
的情報を解析し、これを作曲の生成部で使用した研究の
例がある。このシステムにおいて、感情パラメータE
C,パートナ主張パラメータPIV,および音楽的興味
パラメータMIVの一部の抽出はこのようにマクロ的に
実現されるものである。ECの抽出においては、前述の
メロディの解析法のほかドミナントモーションによる解
決感,あるいはクリッシェにおける陰鬱感など文化的な
理由からほぼ共通と思われるものを含んでいる。音楽的
興味パラメータMIVの認識はいわゆる好みのパターン
がきたときに発火するものである。
The above macro recognition method can be realized on a computer by using dynamic pattern matching. So far, there is an example of research that analyzes global information that indicates the personality of a performer and uses it in the composition generator. In this system, the emotional parameter E
Extraction of part of C, the partner claim parameter PIV, and the musical interest parameter MIV is thus realized macroscopically. In the extraction of EC, in addition to the above-mentioned melody analysis method, there are things that are considered to be almost common for cultural reasons such as a feeling of solution by dominant motion or a feeling of depression in cliche. The recognition of the musical interest parameter MIV is triggered when a so-called favorite pattern comes.

【0048】したがって、マクロ認識手段40は、個性
データベース16からの情報に従って、音楽プリミティ
ブに対する興味をテンプレートマッチングによって抽出
する。すなわち、マクロ認識手段40は、特定の音楽要
素ないしパターンに興味をもつかどうかを判断する。例
として、コード進行の推論時に半音,全音の衝突に対す
る嗜好の抽出を示す。この衝突は緊張感をもたらす。コ
ード情報はデータベース内では、検索効率を上げるため
次のような構造となっている。
Therefore, the macro recognizing means 40 extracts the interest in the music primitive by template matching according to the information from the personality database 16. That is, the macro recognizing means 40 determines whether or not the user is interested in a particular music element or pattern. As an example, we show the extraction of preference for the collision of semitones and fulltones when inferring chord progression. This collision creates tension. The code information has the following structure in the database to improve search efficiency.

【0049】例 Cmaj7 構成音 データ列 (1) C,E,G,B 0,4,3,4 (2) E,G,B,C 8,3,4,1 (3) G,B,C,E 5,4,1,4 (4) B,C,E,G 1,1,4,3 全てのコードデータは実際の音名を記録するのではな
く、検索効率を上げるため根音決定ルーチンを他に分
け、隣同士の音程差を半音の数をデータとして持ってい
る。こうしたコード情報により検索数を12分の1とし
高速化を生み、根音の省略されたものも含めあらゆる展
開形が検索可能となっている。例で示すようにデータ列
の最初の数字は根音の位置を示し、最も低い音との差で
ある。たとえばCmaj7で(1) は最初の構成音がCで音程
差はなく、0である。(2) ではEに始まり、根音Cまで
の半音数は8となる、2番目以降の数は音程差を示す数
列である。衝突の抽出は候補として選び出されてくるコ
ードのデータベース内のデータ列に半音,全音の音程差
を示す1または2の存在を調査することで抽出される。
Example Cmaj7 constituent tone data string (1) C, E, G, B 0, 4, 3, 4 (2) E, G, B, C 8, 3, 4, 1 (3) G, B, C, E 5,4,1,4 (4) B, C, E, G 1,1,4,3 All chord data does not record the actual pitch name, but the root note to improve search efficiency. The decision routine is divided into other parts, and the pitch difference between adjacent parts is stored as the number of semitones. With such code information, the number of searches is reduced to one-twelfth, which speeds up the search, and it is possible to search for all expanded forms, including those in which the root sound is omitted. As shown in the example, the first number in the data string indicates the position of the root note, which is the difference from the lowest note. For example, in Cmaj7 (1), the first constituent sound is C, there is no pitch difference, and it is 0. In (2), the number of semitones starting from E to the root C is 8, and the second and subsequent numbers are numerical sequences showing pitch differences. The collision is extracted by investigating the existence of 1 or 2 indicating the pitch difference between the semitone and the whole tone in the data string of the chord database selected as a candidate.

【0050】音楽理論の基礎になるものの1つとして、
音楽的な遅延と逸脱を伴った暗意(Implication) と実現
(Realization) により情動が生まれ、音楽が認識される
というものがある。徐々に高まっていくタイプの情報を
扱うためには、遅延や逸脱といったことが分かる時点
に、音楽的意味および結果がどうなるべきかの予想がで
き、鑑賞者が楽曲の様式を知っているか、当該の曲のた
どりつく結果が分かっていることが必要となる。完全に
分かっている展開が情動を生むのかという議論もある
が、或る程度形式が予想できる音楽の鑑賞をうまく説明
するモデルである。
As one of the foundations of music theory,
Implication and realization with musical delays and deviations
There is something in which emotion is created by (Realization) and music is recognized. In order to handle gradually increasing types of information, it is possible to predict what the musical meaning and result should be at a point in time when delays and deviations are known, and whether the viewer knows the style of the music. It is necessary to know the result of reaching the song. Although there is some debate as to whether or not a completely known development creates emotions, it is a model that explains the appreciation of music in which the format can be expected to some extent.

【0051】このモデルを実現するには音楽的な傾向を
把握して予想を行い、その逸脱に対して音楽的興味パラ
メータMIVを出力するという方法が考えられる。予想
を行う対象としてはさまざまなレベルのものが考えられ
るが、このシステムでは西洋音楽の基本とも考えられる
ドミナントが検出されたときにトニックを要請するとい
う部分のインプリメントを行っている。基本的に実現が
検出されるまで連続的にMIVの出力を行い、実現の時
点で大きなMIVの出力を行うが、実現が検出されない
時間が長い場合は忘却を行うという手続きが取られてい
る。また、音楽的な情動とは若干異なるかもしれない
が、入力データの(連続性の)変化点に対する認識も暗
意と実現に基づいたものと位置づけている。
In order to realize this model, a method of grasping a musical tendency, making a prediction, and outputting a musical interest parameter MIV in response to the deviation can be considered. There are various levels of expectations, but this system implements a part that requests a tonic when a dominant, which is considered to be the basis of Western music, is detected. Basically, the MIV is continuously output until the realization is detected, and a large MIV is output at the time of realization, but when the realization is not detected for a long time, the forgetting process is performed. Moreover, although it may be slightly different from the musical emotion, the recognition of the change point (the continuity) of the input data is also based on the intention and the realization.

【0052】したがって、予期認識手段42は、音楽に
おける期待感を扱う。たとえば、ドミナント7が検出さ
れたときに4度上のトニックを期待する。期待している
間(忘却時間未満)と期待が実現されたときに出力を行
う。この期待感は期待している間に高まるものである
が、逆にその間に実現がなければ、出力を行わないもの
とする。また、先に述べた、次フレーズ予測エージェン
ト28において、テーマとなる部分があらわれたときに
対しても出力を行うものとする。以下に、ドミナント7
が検出されたときに4度上のトニックを期待するという
場合についてのアルゴリズムを示す。
Therefore, the anticipation recognizing means 42 handles anticipation in music. For example, expect a tonic four times above when dominant 7 is detected. Output while expecting (less than forgetting time) and when the expectation is realized. This expectation increases during expectation, but conversely, if there is no realization during that time, output is not performed. Further, in the next-phrase prediction agent 28 described above, the output is also performed when a theme part appears. Below is the dominant 7
An algorithm for the case of expecting a tonic up 4 times when is detected is shown.

【0053】ステップS1:コード認識エージェント2
0によりドミナント7の出力を受ける。その時刻を記憶
する。 ステップS2:ドミナント7が入ったときからの経過時
間を検出する。 ステップS3:経過時間が設定した時間(忘却時間)を
超えていたら処理を終わる。
Step S1: Code recognition agent 2
The output of dominant 7 is received by 0. Memorize the time. Step S2: The elapsed time from when the dominant 7 is entered is detected. Step S3: If the elapsed time exceeds the set time (forgetting time), the process ends.

【0054】ステップS4:コード認識エージェントか
らトニックがくるかどうかを判別する。トニックがきた
場合、その経過時間と対象とする要素を変数とする評価
関数、たとえば、前者と後者の積算による値を音楽的興
味パラメータ抽出手段36へ出力する。トニックがこな
い場合はステップS2に戻る。 上記の方法は魅力的なものであるが、鑑賞者全員がすべ
ての音楽的暗示を認知し、また進行を理解するとは考え
られない。我々は様式の知識がなくても未知の音楽を楽
しむことが可能なように、暗意を伴うことなく実現を認
知することがある。特に即興演奏を主体とするジャズで
は、故意に調性が曖昧に感じるようなコード進行や、メ
ロディで演奏されることがある。この場合に鑑賞者は当
然何からの喜びを感じるものであるが、この喜びは徐々
に高まるというものではなく、わかった瞬間に解き放た
れるという性格をもっている。また、暗意と実現との間
に時間的に長い隔たりがある場合、上記の方法で情動の
変化を扱うことは困難である。
Step S4: It is judged whether or not a tonic comes from the code recognition agent. When a tonic arrives, an evaluation function having the elapsed time and the target element as variables, for example, a value obtained by integrating the former and the latter is output to the musical interest parameter extraction means 36. If the tonic does not come, the process returns to step S2. While the above method is attractive, it is unlikely that all viewers will perceive all musical implications and understand the progression. We may perceive the realization without intent so that we can enjoy unknown music without any knowledge of style. Especially in jazz, which is mainly for improvisational performance, sometimes chord progressions or melody are performed in which the tonality is intentionally vague. In this case, the viewer naturally feels joy, but this joy does not gradually increase, but has the character of being released at the moment of understanding. Moreover, when there is a long time gap between intention and realization, it is difficult to handle emotional changes by the above method.

【0055】このような音楽的興味パラメータを抽出す
るために、逆行認識手段44は、音楽プリミティブの逆
行認識を行い、その際に音楽的興味パラメータを抽出す
るというモデルを用いている。逆行認識とは局所的に曖
昧性を残した音楽プリミティブを認識していく方法で、
基本的には以下のステップで認識を行う。 (1) 理解できないところは仮説とし、一時記憶にとどめ
る。
In order to extract such a musical interest parameter, the retrograde recognition means 44 uses a model of performing retrograde recognition of the music primitive and extracting the musical interest parameter at that time. Retrograde recognition is a method of recognizing musical primitives that leave local ambiguity.
Basically, recognition is performed in the following steps. (1) Put a hypothesis where you cannot understand and keep it in temporary memory.

【0056】(2) 新しく理解し得た時点から過去に遡っ
て評価する。 (1) の段階では局所的な解釈は行われるが全体的なつな
がりに関しては理解されていない。(2) において全体的
なつながり(意味)が評価される。このとき、意味の評
価に成功したときに音楽的興味パラメータMIVを出力
するという形で感性情報が抽出される。現在、コード進
行の認識と音楽的興味パラメータMIVの抽出に関して
以上の処理が実現されている。
(2) Evaluation is performed retroactively from the time when a new understanding is possible. At the stage of (1), local interpretation is performed, but the overall connection is not understood. In (2), the overall connection (meaning) is evaluated. At this time, the sensitivity information is extracted in the form of outputting the musical interest parameter MIV when the meaning is successfully evaluated. At present, the above-mentioned processing is realized regarding recognition of chord progression and extraction of musical interest parameter MIV.

【0057】すなわち、逆行認識手段44は、音楽プリ
ミティブに対し複数の解釈の可能性があった際にそれを
積み上げていき、1つのパスが確定したときにヒットポ
イント出力を行う。なお、音楽聴取部12におけるマク
ロ認識手段40,予期認識手段42,および逆行認識手
段44は各エージェントにおいて実現されている。
That is, the retrograde recognizing means 44 accumulates music primitives when there are a plurality of possible interpretations, and outputs hit points when one pass is confirmed. The macro recognition means 40, the anticipation recognition means 42, and the retrograde recognition means 44 in the music listening unit 12 are realized in each agent.

【0058】そして、音楽的興味パラメータ抽出手段3
6は、マクロ認識手段40,予期認識手段42および逆
行認識手段44から音楽的興味を表すパラメータを受け
て、その演算(和)を行うことによって、音楽的な興味
に対するパラメータを計算し、それを出力する。音楽的
に理解できるものかどうかの尺度を出力するものとして
使われる。
Then, the musical interest parameter extraction means 3
Reference numeral 6 receives the parameters indicating the musical interest from the macro recognizing means 40, the anticipation recognizing means 42 and the retrograde recognizing means 44, and performs the calculation (sum) to calculate the parameters for the musical interest, and Output. It is used to output a measure of whether or not it is musically understandable.

【0059】論理的制約抽出手段46は、音楽プリミテ
ィブ認識エージェント群18の状態のうち、演奏生成時
における音楽的制約となるものを選択し、音楽生成部1
4に含まれる伴奏パターン作成手段48,およびソロ演
奏パターン作成手段50に送信する。なお、この論理的
制約抽出手段46は、演奏全体がうまく進行しているか
の監視機構としても働く。たとえば、スイングにおいて
ベースパートが、コード構成音を中心とする演奏からス
ケール音を多用する演奏に変化したとき、セッションが
テーマからアドリブへと移行したことを知る。
The logical constraint extraction means 46 selects one of the states of the musical primitive recognition agent group 18 which becomes a musical constraint at the time of performance generation, and the music generation unit 1
4 to the accompaniment pattern creating means 48 and the solo performance pattern creating means 50. The logical constraint extraction means 46 also functions as a monitoring mechanism for checking whether the entire performance is proceeding well. For example, in the swing, when the bass part changes from a performance centering on chord constituent sounds to a performance heavily using scale sounds, it is known that the session has shifted from the theme to ad lib.

【0060】音楽生成部14に含まれるソロ/伴奏/停
止選択手段52は、パートナ主張パラメータ抽出手段3
4および音楽的興味パラメータ抽出手段36からの出力
PIVおよびMIVを受けて、ソロ/伴奏/停止の選択
を行う。たとえば、音楽的興味パラメータ抽出手段36
からの出力MIVが閾値より低い状態が続いたときに
は、音楽的に理解できないものとして、演奏を停止す
る。そうでない場合はパートナ主張パラメータ抽出手段
34からの相手主張度PIV,および個性データベース
16からの自己主張パラメータに応じて、ソロを行うか
伴奏を行うかの選択を行う。このソロ/伴奏/停止選択
手段52の各出力からは、伴奏パターン作成手段48,
ソロ演奏パターン作成手段50および演奏合成手段54
へ、ソロ/伴奏/停止のスイッチ信号を送る。なお、伴
奏パターン作成手段48やソロ演奏パターン作成手段5
0には個性データベース16からの出力も送られる。こ
のパラメータはソロ演奏パターン作成手段50における
掛け合いのパラメータとして利用される。
The solo / accompaniment / stop selection means 52 included in the music generation section 14 is the partner claim parameter extraction means 3
4 and the output PIV and MIV from the musical interest parameter extraction means 36, the selection of solo / accompaniment / stop is performed. For example, the musical interest parameter extraction means 36
If the output MIV from MV continues to be lower than the threshold value, the performance is stopped because the music cannot be understood. Otherwise, depending on the partner assertion degree PIV from the partner claim parameter extracting means 34 and the self-assertion parameter from the personality database 16, selection is made as to whether to perform solo or accompaniment. From each output of the solo / accompaniment / stop selection means 52, the accompaniment pattern creation means 48,
Solo performance pattern creating means 50 and performance synthesizing means 54
To a solo / accompaniment / stop switch signal. The accompaniment pattern creating means 48 and the solo performance pattern creating means 5
The output from the personality database 16 is also sent to 0. This parameter is used as a parameter for interaction in the solo performance pattern creating means 50.

【0061】演奏感性パラメータ生成手段56は、聴取
感性パラメータ抽出手段32からの聴取における感性パ
ラメータECを受けて、伴奏パターン作成手段48およ
びソロ演奏パターン作成手段50での伴奏およびソロの
生成における表現を決定するためのパラメータを決定す
る。聴取感性パラメータ抽出手段32からの感性パラメ
ータはあくまでの過去の時点での感性パラメータを扱う
ものであるが、ここではその推移傾向を見てこれからの
演奏を決定する感性パラメータに変換する。個性データ
ベース16からは、出力16dによって、リーダシップ
度,あるいはあまのじゃく度に相当するパラメータが与
えられる。リーダシップ度とはたとえば聴取感性パラメ
ータのうちテンションパラメータが低いときに盛り上げ
ようとする働きの相当する演奏テンションパラメータを
大きくすることで、リーダシップ性が働きやすいように
使われるものである。あまのじゃく度は聴取感性パラメ
ータに対し、その否定的な論理で演奏感性パラメータに
変換する働きをもつ。なお、聴取感性パラメータから演
奏感性パラメータの変換に関して、各種制御パラメータ
は一意的なものではなく、変換確率の制御パラメータと
して利用される。
The performance sensitivity parameter generating means 56 receives the sensitivity parameter EC in the listening from the listening sensitivity parameter extracting means 32 and expresses the accompaniment and solo expressions in the accompaniment pattern creating means 48 and the solo performance pattern creating means 50. Determine the parameters to determine. The sensitivity parameter from the listening sensitivity parameter extraction means 32 handles the sensitivity parameter at a past time, but here, it is converted into a sensitivity parameter for deciding future performance by observing the transition tendency. From the individuality database 16, the output 16d gives a parameter corresponding to the degree of leadership or the degree of misunderstanding. The degree of leadership is used, for example, in order to facilitate the leadership by increasing the performance tension parameter corresponding to the function of trying to raise the tension when the tension parameter is low among the listening sensitivity parameters. The degree of flair has a function of converting a listening sensitivity parameter into a performance sensitivity parameter by its negative logic. Regarding the conversion from the listening sensitivity parameter to the performance sensitivity parameter, various control parameters are not unique and are used as control parameters of conversion probability.

【0062】上述の伴奏パターン作成手段48は、演奏
感性パラメータ生成手段56からの出力を受けて伴奏パ
ターンの作成を行う。たとえば、演奏テンションパラメ
ータが大きいときには盛り上がりの大きい演奏が生成さ
れる。伴奏の生成法に関してはシーケンスデータの呼び
出し、あるいはリアルタイムでの伴奏生成の2種を選択
することができる。後者においてはたとえば演奏テンシ
ョンパラメータが大きいときにストローク数(伴奏にお
ける音数)を多くするというような機構が実現される。
また、一般感性表現データベース58からは表1のよう
なテーブルが逆利用される。
The accompaniment pattern creating means 48 receives the output from the performance sensitivity parameter creating means 56 and creates an accompaniment pattern. For example, when the performance tension parameter is large, a musical performance with large excitement is generated. With regard to the accompaniment generation method, two kinds of sequence data calling or real-time accompaniment generation can be selected. In the latter, for example, a mechanism for increasing the number of strokes (the number of notes in the accompaniment) when the performance tension parameter is large is realized.
Further, the table as shown in Table 1 is reversely used from the general affective expression database 58.

【0063】以下、この伴奏パターン作成手段48にお
けるアルゴリズムの一例を示す。 ステップS1:演奏パラメータ生成手段56から演奏感
性パラメータを受ける。 ステップS2:個性データベース16から得た演奏時指
向パラメータをそれぞれのプリミティブ(音数,ハーモ
ニ)に掛け合わせることにより、それぞれのプリミティ
ブに相当するテンション値を算出する。
An example of an algorithm in the accompaniment pattern creating means 48 will be shown below. Step S1: The performance sensitivity parameter is received from the performance parameter generating means 56. Step S2: A tension value corresponding to each primitive is calculated by multiplying each of the primitives (sound number, harmony) by the performance-oriented parameter obtained from the individuality database 16.

【0064】ステップS3:論理的制約抽出手段46か
ら出力される論理的制約により限定されるものの要素の
中から感性的な情報でコントロールされるものを選び、
伴奏を決定する。決定法の例としては、それぞれのプリ
ミティブに相当するパラメータの正規分布を用意してお
き、或るパラメータが与えられたときのプリミティブの
出現率を正規分布の値として読み取る。それぞれのプリ
ミティブに対する出現率に応じ使用するプリミティブを
選出する。
Step S3: Select an element controlled by sensitive information from the elements limited by the logical constraint output from the logical constraint extraction means 46,
Determine the accompaniment. As an example of the determination method, a normal distribution of parameters corresponding to each primitive is prepared, and the appearance rate of the primitive when a certain parameter is given is read as the value of the normal distribution. The primitive to be used is selected according to the appearance rate for each primitive.

【0065】伴奏パターン作成手段48においては、さ
らに、以下のようにして伴奏パターンを作成することも
できる。 (1) シーケンスデータの呼び出し 2個から数個までのコード進行に合わせた伴奏フレーズ
をデータベースにもつ。また、フレーズは演奏テンショ
ンパラメータと相関をもたせたものを複数個用意する。
個性データベース16内のデータと合わせてフレーズを
選択し伴奏を生成する。
The accompaniment pattern creating means 48 can also create an accompaniment pattern as follows. (1) Calling sequence data The database has accompaniment phrases from two to several chord progressions. In addition, a plurality of phrases are prepared that are correlated with the performance tension parameter.
A phrase is selected together with the data in the personality database 16 to generate an accompaniment.

【0066】(2) リアルタイムでの伴奏生成 乱数発生器(図示せず)からの出力に基づいて、休符と
音長,音高に変化をもつ音符を得る。この音列に、その
ときのコード進行からの和声楽的制約により音高の正規
化を加え、さらに、得られた音列の上部あるいは下部に
制約を基に音列を追加し伴奏フレーズを生成する。ま
た、曲中で既に生成したフレーズも同様な正規化の後、
再利用する方法なども併用する。
(2) Real-time accompaniment generation Based on an output from a random number generator (not shown), a note having a rest, a note length and a pitch is obtained. Normalization of the pitch is added to this string by the chordal constraint from the chord progression at that time, and the string is added to the upper or lower part of the obtained string based on the constraint to generate an accompaniment phrase. To do. Also, after normalizing the phrases already generated in the song in the same way,
The method of reuse is also used together.

【0067】なお、上記(1) ,(2) のどちらの方法をと
るかは、演奏テンションパラメータなどにより変更を行
うようにすればよい。一般感性表現データベース58に
は、一般感性抽出データベース38と同様のデータベー
スが格納されている。論理的制約については、たとえば
ウォーキングベースを考えるものとする。コード進行が
規定される場合、次のコードを取り得る範囲が限定され
る。このとき、限定されたコードのルート音が4拍目に
なるようなベースのパターンを配置することは避けるべ
きであり、このような処理をルールベースにて実現する
ものである。
It should be noted that which of the above methods (1) and (2) should be used may be changed by a performance tension parameter or the like. The general affective expression database 58 stores the same database as the general affective extraction database 38. As for the logical constraint, for example, the walking base is considered. When chord progression is specified, the range in which the next chord can be taken is limited. At this time, it is necessary to avoid arranging a bass pattern such that the root sound of the limited chord becomes the fourth beat, and such processing is realized by the rule base.

【0068】そのほか、各プリミティブのテンションパ
ラメータが図3に示す形で格納されている。ソロ演奏パ
ターン作成手段50は、演奏感性パラメータ生成手段5
6からの出力を受けてソロ演奏パターンの作成を行う。
たとえば、演奏テンションパラメータが大きいときには
盛り上がりの大きい演奏が生成される。ソロの生成法に
関しても、伴奏パターン生成と同じように、シーケンス
データの呼び出しとリアルタイムでの伴奏生成の2種を
選択することができる。後者においてはたとえば演奏テ
ンションパラメータが大きいときにストローク数(伴奏
における音数)を多くするというような機構が実現され
る。また、一般感性表現データベース58からは表1で
利用したようなテーブルが逆利用される。
In addition, the tension parameter of each primitive is stored in the form shown in FIG. The solo performance pattern creation means 50 is the performance sensitivity parameter generation means 5
The output from 6 is received and a solo performance pattern is created.
For example, when the performance tension parameter is large, a musical performance with large excitement is generated. As for the solo generation method, as in the case of accompaniment pattern generation, it is possible to select two types of sequence data calling and real-time accompaniment generation. In the latter, for example, a mechanism for increasing the number of strokes (the number of notes in the accompaniment) when the performance tension parameter is large is realized. Further, the table as used in Table 1 is reversely used from the general affective expression database 58.

【0069】このソロ演奏パターン作成手段50では、
以下のようにして、演奏パターンを生成する。 (1) シーケンスデータの呼び出し 2個から数個までのコード進行に合わせた伴奏フレーズ
をデータベースにもつ。また、フレーズは演奏テンショ
ンパラメータと相関をもたせたものを複数個用意する。
個性データベース16内のデータと合わせてフレーズを
選択し演奏を生成する。
In this solo performance pattern creating means 50,
A performance pattern is generated as follows. (1) Calling sequence data The database has accompaniment phrases from two to several chord progressions. In addition, a plurality of phrases are prepared that are correlated with the performance tension parameter.
A phrase is selected together with the data in the personality database 16 to generate a performance.

【0070】(2) リアルタイムでのソロ演奏生成 乱数発生器(図示せず)からの出力に基づいて、休符と
音長,音高に変化をもつ音符を得る。この音列に、その
ときのコード進行からの和声楽的制約により音高の正規
化を加えソロ演奏を生成する。また、曲中で既に生成し
たフレーズも同様な正規化の後、再利用する方法も併用
する。
(2) Real-time solo performance generation Based on an output from a random number generator (not shown), a note having a rest, a note length, and a pitch change is obtained. The pitch is normalized to this string by the chordal restrictions from the chord progression at that time to generate a solo performance. Also, the phrase already generated in the song is reused after being normalized in the same manner.

【0071】上記方法(1) ,(2) のどちらの方法をとる
かは、演奏テンションパラメータなどにより変更を行う
ようにすればよい。演奏合成手段54は、伴奏パターン
作成手段48およびソロ演奏パターン作成手段50から
の伴奏およびソロ演奏出力を合成して演奏を生成する。
CPUに限界がある場合には、ソロ/伴奏/停止選択手
段52による切り換えによって伴奏パターン作成手段4
8およびソロ演奏パターン作成手段50のいずれかが選
択的に実行される。複数のCPUの使用が可能な場合
は、両者は並列的に処理を実行し、それをソロ/伴奏/
停止選択手段52からの出力に応じて、演奏合成手段5
4においていずれかを選択する。
Which of the above methods (1) and (2) should be used may be changed by a performance tension parameter or the like. The performance synthesizing means 54 synthesizes the accompaniment and solo performance outputs from the accompaniment pattern creating means 48 and the solo performance pattern creating means 50 to generate a performance.
When the CPU is limited, the solo / accompaniment / stop selection means 52 switches the accompaniment pattern creation means 4
8 or the solo performance pattern creating means 50 is selectively executed. When multiple CPUs can be used, both perform processing in parallel and perform solo / accompaniment /
According to the output from the stop selection means 52, the performance synthesis means 5
Select one in 4.

【0072】実験結果 上述の実施例の音楽セッシヨン装置10は、複数のパー
ソナルコンピュータによる分散処理によるものとして構
成したが、これは単一のコンピュータで処理するように
してもよいことは勿論である。ただし、実験では、各エ
ージェントを同一コンピュータ内に形成し、MIDI信
号はハモンドオルガンから与え、上部鍵盤,下部鍵盤,
およびベース鍵盤を、それぞれ、メロディ,コード,お
よびベースの各パートとした。また、現在のシステム
は、入力される曲については個別のデータベースを持た
ず、その調性も未知の状態から解釈を始めるようにし
た。
Experimental Results The music session apparatus 10 of the above-described embodiment is configured as a distributed processing by a plurality of personal computers, but it goes without saying that this may be processed by a single computer. However, in the experiment, each agent was formed in the same computer, MIDI signals were given from the Hammond organ, and the upper keyboard, lower keyboard,
And the bass keyboard are the melody, chord, and bass parts, respectively. In addition, the current system does not have a separate database for the songs that are input, and starts to interpret the tones when the tones are unknown.

【0073】実験例1 図4はコード認識エージェントとコード進行エージェン
トの能力と有効性を確認するために、ベースエージェン
トからの情報は与えなかった。この図4において、E
C,TTV,PIV,およびMIVはコード進行に関連
するものだけを結果に示している。TTVは先に説明し
たように、EC値を処理して合算することによって求め
る。PIVは、ノンダイヤトニックなコード,コードの
構成音によるクロマチックな衝突,および同一ベース音
の連続で活性化し、MIVはドミナントモーションを予
期させるV7の出現によって活性化する。
Experimental Example 1 In FIG. 4, information from the base agent was not given in order to confirm the capabilities and effectiveness of the chord recognition agent and the chord progression agent. In FIG. 4, E
C, TTV, PIV, and MIV only show results related to chord progression. The TTV is obtained by processing and summing the EC values as described above. PIV is activated by non-diatonic chords, chromatic collisions of chord constituent tones, and continuation of identical bass tones, and MIV is activated by the appearance of V7, which is expected to be dominant motion.

【0074】図4の例は、8ビート、テンポは約100
である。この曲は、さびまでが7小節という奇数の繰り
返しと、かなり変わった曲であるが、それさえも気づか
せない美しいメロディを持つ。4度上行進行を基本にコ
ード付けされ、さびではクラシックの技法ともいえる対
位法を取り入れた曲である。図4はテーマの演奏の後、
即興演奏に入った数小節の解析結果である。横に時間
を、縦にコード認識エージェントが出力する候補のコー
ドと、破線および実線によりコード進行エージェントが
行ったコード進行の解釈の様子を示す。その下には、E
Cエージェントの解析結果を示す。EC値に付した破線
は、その始端と終端のコードにEC値が確定したことを
示している。さらに、感性情報の抽出においてマクロ認
識,予期認識,および逆行認識が作用したことによるT
TV,PIV,およびMIVが活性化されたものであ
る。5線譜に示す音譜は実際の演奏データではなく、コ
ードエージェントの働きにより正規化されたものであ
る。
In the example of FIG. 4, 8 beats and a tempo are about 100.
Is. This song has an odd number of repetitions of 7 bars up to Sabi, and it is a strange song, but it has a beautiful melody that you can't even notice. It is a song that is coded on the basis of four ascending progressions and incorporates the counterpoint method, which is a classic technique in Sabi. Figure 4 shows after the theme performance
These are the results of analysis of several measures that have been improvised. The horizontal axis represents time, and the vertical axis represents candidate codes output by the chord recognition agent, and broken lines and solid lines show how the chord progression agent interprets the chord progression. Below that, E
The analysis result of C agent is shown. The dashed line attached to the EC value indicates that the EC value has been determined for the codes at the start and end thereof. In addition, the T due to the effects of macro recognition, anticipation recognition, and retrograde recognition in the extraction of emotional information.
TV, PIV, and MIV are activated. The musical notation shown in the notation is not the actual performance data, but is normalized by the action of the chord agent.

【0075】まず、システムは調性を知らないため、Fm
aj7,およびDm9 の2つを選んでいる。次に4つの候補を
出しているが、Gm9 とEm7-5 は全く同じ構成音であり、
C9,G♭7-9-13は根音が省略されたものとして候補になっ
ている。次のA7から4度上行進行と解釈することで、直
前の候補のうちからEm7-5 を選んだ。続いて、4度上行
進行から、Dm9, Gm9, C7, およびFmaj7 を候補として選
びだす。ここで、調性をFメジャと決め、最初のFmaj7
を選んでいる。また、コード進行の決定に従って適切な
ECが出力されている。
First, since the system does not know the tonality, Fm
I chose two, aj7 and Dm9. Next, we have four candidates, but Gm9 and Em7-5 have exactly the same constituent sounds,
C9, G ♭ 7-9-13 are candidates for which the root note is omitted. By interpreting the next A7 ascending 4 times, Em7-5 was selected from the previous candidates. Then, Dm9, Gm9, C7, and Fmaj7 are selected as candidates from the ascending four times. Here, the tonality is decided to be F major, and the first Fmaj7
I have chosen. Also, an appropriate EC is output according to the chord progression decision.

【0076】ここまでの進行について解釈の結果をみる
と、基本的には、SD−D−Tの進行を2度繰り返して
いる。コードの8分の7までが4度上行進行で結ばれ、
無理のない自然な流れを示している。3つめのA7はFメ
ジャスケールに対してダイヤトニックコードではなく、
構成音の中にスケール上にない C#を含み、ここでDmaj
などへの新しい展開を期待させたが、結果としては、関
係調のDm7 へと進行し、ダイヤトニックによる落ちつい
た曲の雰囲気を出している。このように、コード認識エ
ージェントとコード進行エージェントは、4度上行進行
が多様された曲では、かなり正確な解釈が可能であっ
た。
Looking at the results of interpretation of the progress thus far, basically, the progress of SD-DT is repeated twice. Up to 7 / 8th of the code is tied up four times,
It shows a natural flow without difficulty. The third A7 is not a diamond tonic code for the F major scale,
Including C # that is not on the scale in the constituent sounds, where Dmaj
I expected a new development such as, but as a result, it progressed to the relational Dm7, giving a calm atmosphere of a diatonic. In this way, the chord recognition agent and the chord progression agent were able to interpret fairly accurately in the songs in which the ascending progression of four times was varied.

【0077】実験例2 次に、ベースエージェントを含めた全てのエージェント
によって解釈を行わせた2曲の実験例を示す。図5は4
度上行進行を多様した曲であり、原曲はシャンソンであ
る。美しいメジャとシンプルな構成から、ジャズではよ
く演奏される曲である。実験は、テンポ約120のスイ
ング(2ビート)で演奏したテーマからの数小節の結果
を示している。実験例1と同様に、コード認識エージェ
ントが、調性をGマイナという可能性に基づいて、 E♭
maj7, およびCm9 を選んでいるが、ベースエージェント
の情報を基に、コード進行エージェントはCm9 を選択
し、以後、4度上行進行(増4度を含む)で、F9, B♭
maj7, E♭maj7, Am7-5, D7-9, Gm9と正確に解釈を行っ
ている。解釈された結果によれば、全てダイヤトニック
の4度上行進行のみとなり、Gマイナから離れることな
く、SD−D−Tを繰り返した暗い落ちついた曲想を示
している。
Experimental Example 2 Next, an experimental example of two music pieces interpreted by all agents including the base agent will be shown. 5 is 4
The song is a variety of ascending progression, the original song is Chanson. It is a song often played in jazz due to its beautiful measure and simple structure. The experiment shows the results of several bars from a theme played on a swing (2 beats) with a tempo of about 120. As in Experiment 1, the chord recognition agent uses E ♭ based on the possibility that the tonality is G minor.
Although maj7 and Cm9 are selected, based on the information of the base agent, the chord progression agent selects Cm9, and thereafter, ascending 4 times (including 4th increase), F9, B ♭
It is correctly interpreted as maj7, E ♭ maj7, Am7-5, D7-9, Gm9. According to the interpreted results, only the ascending progression of the diatonic four times is shown, and the dark and calm thoughts that are repeated SD-DT without leaving G minor are shown.

【0078】コード進行エージェントの解釈に注目すべ
き点がみられる。ベースエージェントの情報を利用した
ため選択はされなかったが、前半と後半にCとAを起点
としたクロマチック下行進行を発見しており、これは奏
者も全く意識しなかったものである。 E♭maj7の箇所で
ベース音を B♭にすることで以下の進行が生まれる。 Cm9 - B7-7-9-13 -B♭maj9 - E♭maj9/B♭- Am7-5 -A♭
7-9 - Gm9 こうした長いクロマチック下行進行は、落ちついた雰囲
気や荘厳な気分を醸し出す効果があり、特にボサノバで
は多用される進行である。このようなことから、実施例
のシステムは編曲の支援装置としても有用であることが
わかる。
There are some notable points in the interpretation of the chord progression agent. It was not selected because it used the information of the base agent, but in the first half and the second half, we found a chromatic descending progression starting from C and A, which the player did not even notice. The following progression is created by changing the bass sound to B ♭ at E ♭ maj7. Cm9-B7-7-9-13 -B ♭ maj9-E ♭ maj9 / B ♭-Am7-5 -A ♭
7-9-Gm9 These long chromatic descents have the effect of creating a calm atmosphere and a solemn mood, especially in Bossa Nova. From the above, it can be seen that the system of the embodiment is also useful as an arrangement support device.

【0079】実験例3 図6は、映画「カサブランカ」の挿入歌として作曲され
たものである。オリジナルでは、冒頭の部分でFm7 -B♭
7 を2度繰り返すが、ジャズとして演奏されるときに
は、冗長性から逃れるために、様々な進行が考え出され
てきた。実験では次のように演奏した。
Experimental Example 3 FIG. 6 was composed as an insertion song of the movie “Casablanca”. In the original, Fm7 -B ♭ at the beginning
7 is repeated twice, but when played as jazz, various progressions have been devised to escape redundancy. In the experiment, I played as follows.

【0080】 Fm7 -B♭7 -D♭6 -B♭7/D -E♭maj7 - Fm7 - Gm9 - C9 Fm7 の代理コードとして構成音が2音同じD6を用いるこ
とで、ベース音が D♭-D -E♭- F - G と力強いクロマ
チック下行進行になることを意図したものである。各エ
ージェントについては、個性情報としてクロマチック進
行について十分な知識を与えていたが D♭6 を選択する
ことはできなかった。この原因は、エージェントに与え
ている代理コードと特殊なコード進行についての知識に
ある。代理コードについては、G7と D♭7 との代理関係
のように、同一の機能を持つものに限定された。構成音
が3音以下まで同じコードを代理として認めると、候補
が異常に増大するためである。また、コード進行エージ
ェントに、 VII♭6 - V7/VII- Iといった知識を与えて
おくことで、この曲についての解釈は可能になるが、こ
うした特異なコード進行を持つスタンダードな曲は多数
あるので、もし全ての曲を対象にするとすれば、情報は
膨大になり、エージェントに過大な負荷を強いることに
なってしまう。
Fm7 -B ♭ 7 -D ♭ 6 -B ♭ 7 / D -E ♭ maj7-Fm7-Gm9-C9 By using D6 with the same two constituent sounds as the substitute chord of Fm7, the bass sound is D ♭ -D -E ♭ -F -G is intended to be a powerful chromatic descent. Each agent provided sufficient knowledge about chromatic progression as individuality information, but D ♭ 6 could not be selected. The reason for this lies in the knowledge of surrogate chords given to agents and special chord progressions. The proxy code was limited to those with the same function, such as the proxy relationship between G7 and D ♭ 7. This is because if the same chord is recognized as a substitute for up to three constituent tones, the number of candidates increases abnormally. Also, by giving the chord progression agent knowledge such as VII ♭ 6-V7 / VII-I, it is possible to interpret this song, but there are many standard songs with such peculiar chord progressions. , If all the songs are targeted, the information will be huge and the agent will be overloaded.

【0081】このように、実施例の音楽セッション装置
10によれば、表3に示すように多くの曲において演奏
者の意図したコード進行が抽出された。
As described above, according to the music session device 10 of the embodiment, as shown in Table 3, the chord progressions intended by the performer were extracted in many songs.

【0082】[0082]

【表3】 [Table 3]

【0083】そして、先に説明した音楽セッション装置
10を複数用い、図7に示すように、セッションシステ
ムを構成することができる。すなわち、各音楽セッショ
ン装置10の個性プロファイル(図1の個性データベー
ス16)として独特のものを準備すれば、それぞれの個
性に従った音楽セッションが実現できる。さらに、複数
の装置10を用いてシステムを構成することによって、
楽譜なしで、リアルタイムに音楽が生成されるので、B
GM(BackGround Music)として有効であろう。
A plurality of the music session devices 10 described above can be used to construct a session system as shown in FIG. That is, by preparing a unique individuality profile (individuality database 16 in FIG. 1) of each music session device 10, a music session according to each individuality can be realized. Furthermore, by configuring the system using a plurality of devices 10,
Since music is generated in real time without the score, B
It will be effective as GM (Back Ground Music).

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例を示す機能ブロック図であ
る。
FIG. 1 is a functional block diagram showing an embodiment of the present invention.

【図2】図1実施例に含まれるパートナ主張パラメータ
抽出手段における各エージェントを示す図解図である。
FIG. 2 is an illustrative view showing each agent in a partner claim parameter extraction means included in the embodiment in FIG.

【図3】図1実施例に含まれる一般感性表現データベー
スを示す図解図である。
FIG. 3 is an illustrative view showing a general affective expression database included in the embodiment in FIG. 1;

【図4】実験例1での演奏状況と各パラメータを示す図
解図である。
FIG. 4 is an illustrative view showing a performance situation and each parameter in Experimental Example 1.

【図5】実験例2での演奏状況と各パラメータを示す図
解図である。
5 is an illustrative view showing a performance situation and each parameter in Experimental Example 2. FIG.

【図6】実験例3での演奏状況と各パラメータを示す図
解図である。
FIG. 6 is an illustrative view showing a performance situation and each parameter in Experimental Example 3;

【図7】実施例を用いた音楽セッションシステムの一例
を示す図解図である。
FIG. 7 is an illustrative view showing one example of a music session system using an embodiment.

【符号の説明】[Explanation of symbols]

10 …音楽セッションシステム 12 …音楽聴取部 14 …音楽生成部 16 …個性データベース 18 …音楽プリミティブ認識エージェント群 32 …聴取感性パラメータ抽出手段 34 …パートナ主張パラメータ抽出手段 36 …音楽的興味パラメータ抽出手段 38 …一般感性抽出データベース 40 …マクロ認識手段 42 …予期認識手段 44 …逆行認識手段 46 …論理的制約抽出手段 48 …伴奏パターン作成手段 50 …ソロ演奏パターン作成手段 52 …ソロ/伴奏/停止選択手段 54 …演奏合成手段 56 …演奏感性パラメータ生成手段 58 …一般感性表現データベース 10 ... Music session system 12 ... Music listening unit 14 ... Music generation unit 16 ... Personality database 18 ... Music primitive recognition agent group 32 ... Listening sensitivity parameter extraction means 34 ... Partner assertion parameter extraction means 36 ... Music interest parameter extraction means 38 ... General sensitivity extraction database 40 ... Macro recognition means 42 ... Anticipation recognition means 44 ... Retrograde recognition means 46 ... Logical constraint extraction means 48 ... Accompaniment pattern creation means 50 ... Solo performance pattern creation means 52 ... Solo / accompaniment / stop selection means 54 ... Performance synthesizing means 56 ... Performance affective parameter generating means 58 ... General affective expression database

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】音楽信号を受けて聴取パラメータを出力す
る音楽聴取手段、 前記聴取パラメータを受けて音楽を生成する音楽生成手
段、および前記音楽聴取手段および前記音楽生成手段に
個性プロファイルを付与する個性プロファイル付与手段
を備える、音楽セッション装置。
1. A music listening means for receiving a music signal and outputting a listening parameter, a music producing means for producing music by receiving the listening parameter, and an individuality for giving a personality profile to the music listening means and the music producing means. A music session device comprising profile assigning means.
【請求項2】前記音楽聴取手段は、前記音楽信号に基づ
いて音楽プリミティブを抽出する音楽プリミティブ抽出
手段、および前記音楽プリミティブおよび前記個性プロ
ファイルに基づいて聴取感性パラメータを抽出する聴取
感性パラメータ抽出手段を含み、 前記聴取感性パラメータが前記音楽生成手段に与えられ
る、請求項1記載の音楽セッション装置。
2. The music listening means includes a music primitive extracting means for extracting a music primitive based on the music signal, and a listening sensitivity parameter extracting means for extracting a listening sensitivity parameter based on the music primitive and the personality profile. The music session apparatus according to claim 1, further comprising: the listening sensitivity parameter is provided to the music generating means.
【請求項3】前記音楽生成手段は、前記聴取感性パラメ
ータおよび前記個性プロファイルに基づいて演奏感性パ
ラメータを生成する演奏パラメータ生成手段、および前
記演奏感性パラメータおよび前記個性プロファイルに従
って演奏パターンを生成する生成手段を含む、請求項2
記載の音楽セッション装置。
3. The music generation means generates a performance parameter based on the listening sensitivity parameter and the personality profile, and a performance parameter generation means that generates a performance pattern according to the performance sensitivity parameter and the personality profile. Claim 2 including
The described music session device.
【請求項4】前記生成手段は伴奏パターン生成手段およ
びソロ演奏パターン生成手段を含み、前記音楽生成手段
は前記伴奏パターン生成手段およびソロ演奏パターン生
成手段を制御するソロ/伴奏制御手段を含む、請求項3
記載の音楽セッション装置。
4. The generation means includes accompaniment pattern generation means and solo performance pattern generation means, and the music generation means includes solo / accompaniment control means for controlling the accompaniment pattern generation means and solo performance pattern generation means. Item 3
The described music session device.
【請求項5】前記音楽聴取手段はパートナの主張度を表
すパートナ主張パラメータを抽出する主張パラメータ抽
出手段を含み、前記ソロ/伴奏制御手段は前記パートナ
主張パラメータに応じて前記伴奏パターン生成手段およ
びソロ演奏パターン生成手段を制御する、請求項4記載
の音楽セッション装置。
5. The music listening means includes claim parameter extracting means for extracting a partner claim parameter representing a claim level of a partner, and the solo / accompaniment control means according to the partner claim parameter, and the accompaniment pattern creating means and the solo accompaniment pattern. The music session apparatus according to claim 4, which controls the performance pattern generation means.
【請求項6】前記音楽聴取手段は前記音楽プリミティブ
および前記個性プロファイルに基づいて音楽的興味パラ
メータを抽出する音楽的興味パラメータ抽出手段を含
み、前記ソロ/伴奏制御手段はさらに前記音楽的興味パ
ラメータに応じて前記伴奏パターン生成手段およびソロ
演奏パターン生成手段を制御する、請求項5記載の音楽
セッション装置。
6. The music listening means includes a music interest parameter extraction means for extracting a music interest parameter based on the music primitive and the individuality profile, and the solo / accompaniment control means further includes the music interest parameter. The music session apparatus according to claim 5, wherein the accompaniment pattern generation means and the solo performance pattern generation means are controlled accordingly.
【請求項7】前記音楽聴取手段は前記音楽プリミティブ
に基づいて論理的制約を出力する論理的制約出力手段を
含み、前記伴奏パターン生成手段およびソロ演奏パター
ン生成手段は前記論理的制約を考慮して伴奏パターンお
よびソロ演奏パターンを生成する、請求項4ないし6の
いずれかに記載の音楽セッション装置。
7. The music listening means includes a logical constraint output means for outputting a logical constraint based on the music primitive, and the accompaniment pattern generation means and the solo performance pattern generation means take the logical constraint into consideration. 7. The music session device according to claim 4, which generates an accompaniment pattern and a solo performance pattern.
【請求項8】請求項1ないし7のいずれかに記載の音楽
セッション装置を複数設け、それぞれに異なる個性プロ
ファイルを付与するようにした、音楽セッションシステ
ム。
8. A music session system comprising a plurality of music session devices according to claim 1, each of which is provided with a different personality profile.
JP6203244A 1994-08-29 1994-08-29 Music session device and system Withdrawn JPH0869283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6203244A JPH0869283A (en) 1994-08-29 1994-08-29 Music session device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6203244A JPH0869283A (en) 1994-08-29 1994-08-29 Music session device and system

Publications (1)

Publication Number Publication Date
JPH0869283A true JPH0869283A (en) 1996-03-12

Family

ID=16470826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6203244A Withdrawn JPH0869283A (en) 1994-08-29 1994-08-29 Music session device and system

Country Status (1)

Country Link
JP (1) JPH0869283A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339038A (en) * 2004-05-25 2005-12-08 Ntt Docomo Inc Timing decision device and method
WO2011027646A1 (en) * 2009-09-01 2011-03-10 アイシン精機株式会社 Driving support device
JP2011128517A (en) * 2009-12-21 2011-06-30 Yamaha Corp Performance supporting device and program for obtaining performance supporting method
JP2020190676A (en) * 2019-05-23 2020-11-26 カシオ計算機株式会社 Electronic musical instrument, method for controlling electronic musical instrument, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339038A (en) * 2004-05-25 2005-12-08 Ntt Docomo Inc Timing decision device and method
WO2011027646A1 (en) * 2009-09-01 2011-03-10 アイシン精機株式会社 Driving support device
JP2011051468A (en) * 2009-09-01 2011-03-17 Aisin Seiki Co Ltd Driving support device
US8665080B2 (en) 2009-09-01 2014-03-04 Aisin Seiki Kabushiki Kaisha Driving assistance apparatus
JP2011128517A (en) * 2009-12-21 2011-06-30 Yamaha Corp Performance supporting device and program for obtaining performance supporting method
JP2020190676A (en) * 2019-05-23 2020-11-26 カシオ計算機株式会社 Electronic musical instrument, method for controlling electronic musical instrument, and program
WO2020235506A1 (en) * 2019-05-23 2020-11-26 カシオ計算機株式会社 Electronic musical instrument, control method for electronic musical instrument, and storage medium

Similar Documents

Publication Publication Date Title
Oore et al. This time with feeling: Learning expressive musical performance
Liu et al. Computational intelligence in music composition: A survey
Kirke et al. A survey of computer systems for expressive music performance
Krumhansl Rhythm and pitch in music cognition.
US5883326A (en) Music composition
US20210335333A1 (en) Computing orders of modeled expectation across features of media
CN102760426B (en) Searched for using the such performance data for representing musical sound generation mode
Lerch et al. Music performance analysis: A survey
Lerch et al. An interdisciplinary review of music performance analysis
Friberg et al. Musical punctuation on the microlevel: Automatic identification and performance of small melodic units
Aljanaki et al. A data-driven approach to mid-level perceptual musical feature modeling
Xia et al. Improvised duet interaction: learning improvisation techniques for automatic accompaniment.
Ramirez et al. Automatic performer identification in commercial monophonic jazz performances
Doush et al. Automatic music composition using genetic algorithm and artificial neural networks
Dannenberg Style in music
Numao et al. Constructive adaptive user interfaces-composing music based on human feelings
Jensen Evolutionary music composition: A quantitative approach
Ramirez et al. Performance-based interpreter identification in saxophone audio recordings
Trochidis et al. CAMeL: Carnatic percussion music generation using n-gram models
MA et al. Four-way classification of tabla strokes with models adapted from Automatic Drum Transcription
JPH0869283A (en) Music session device and system
Mansoori et al. A systematic survey on music composition using artificial intelligence
Ryynänen Automatic transcription of pitch content in music and selected applications
Zhao et al. Multimodal multifaceted music emotion recognition based on self-attentive fusion of psychology-inspired symbolic and acoustic features
Lionello et al. A machine learning approach to violin vibrato modelling in audio performances and a didactic application for mobile devices

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20011106