JPH1124662A - Musical performance support device - Google Patents

Musical performance support device

Info

Publication number
JPH1124662A
JPH1124662A JP9175402A JP17540297A JPH1124662A JP H1124662 A JPH1124662 A JP H1124662A JP 9175402 A JP9175402 A JP 9175402A JP 17540297 A JP17540297 A JP 17540297A JP H1124662 A JPH1124662 A JP H1124662A
Authority
JP
Japan
Prior art keywords
performance
music
attribute
performance data
midi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9175402A
Other languages
Japanese (ja)
Other versions
JP3171818B2 (en
Inventor
Kazushi Nishimoto
一志 西本
Yasuyuki Sumi
康之 角
Kenji Mase
健二 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR CHINOU EIZO TSUSHIN KENKYU
ATR CHINOU EIZO TSUSHIN KENKYUSHO KK
Original Assignee
ATR CHINOU EIZO TSUSHIN KENKYU
ATR CHINOU EIZO TSUSHIN KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR CHINOU EIZO TSUSHIN KENKYU, ATR CHINOU EIZO TSUSHIN KENKYUSHO KK filed Critical ATR CHINOU EIZO TSUSHIN KENKYU
Priority to JP17540297A priority Critical patent/JP3171818B2/en
Publication of JPH1124662A publication Critical patent/JPH1124662A/en
Application granted granted Critical
Publication of JP3171818B2 publication Critical patent/JP3171818B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a musical performance support device capable of developing a smooth understanding between players and an idea in performance. SOLUTION: A first player plays the first four measures by use of a MIDI (musical instrument digital interface) musical instrument 1, and a second player plays four measures by use of a MIDI musical instrument 2. The sampler 13 of a client 10 samples and outputs the play data from the MIDI musical instrument 1 to a server 5, and also imparts the play data to an MIDI sound source module 4 to produce an actual play sound. The server 5 extracts the profile attribute and color attribute from the play data, and a statistical processing part 54 statistically processes and calculates them as spatial structure information, and displays them on the display part 14, 24 of each client 10, 20.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は音楽演奏支援装置
に関し、特に、統計手法を用いて演奏から演奏意図にか
かわる情報を抽出,指示することにより、特にジャズの
即興演奏における演奏者同士の協調作業をリアルタイム
に支援できるような音楽演奏支援装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music performance support apparatus, and more particularly, to extracting and instructing information related to a performance intention from a performance by using a statistical technique, thereby performing cooperative work among performers particularly in jazz improvisation. And a music performance support device capable of supporting music in real time.

【0002】[0002]

【従来の技術】複数の演奏者による音楽演奏は、高度な
協調作業の1つである。演奏者は相互に意志の疎通を図
ることにより、全体として一貫した演奏表現を創出す
る。とりわけジャズの即興演奏では、演奏する旋律自体
がこの協調作業の中から生み出される場合が少なくな
い。このような音楽演奏の場での意志疎通手段として
は、各演奏者が奏でる音や身振り,表情などの非言語的
手段が通常使用される。しかし、これらの手段による表
現は曖昧であり、言語のように具体的な意図伝達ができ
ないため、特に初心者にとってこの協調作業は困難なも
のとなる。
2. Description of the Related Art Musical performance by a plurality of players is one of advanced cooperative tasks. Performers communicate with each other to create a consistent performance expression as a whole. Especially in jazz improvisation, the melody to be played is often created from this cooperative work. Non-verbal means such as sounds, gestures, and facial expressions played by each player are usually used as communication means in such music performance venues. However, the expression by these means is ambiguous, and it is not possible to convey specific intentions like a language, and this cooperative work is particularly difficult for beginners.

【0003】近年、音楽情報処理の研究が盛んに行なわ
れている。その対象は多岐にわたるが、このような複数
の演奏者による協調作業としての側面に注目した研究と
しては、コンピュータが人間の演奏に伴奏を付ける自動
伴奏システムがある。初期の自動伴奏システムは、あく
までも人間が主演奏者であり、システムはその演奏のテ
ンポに追従することを主目的としている。しかし、近年
は、演奏状況によってはシステム側が主導権を持つ伴奏
システムやテンポのみならず独奏者の演奏表現の変化に
も通従する伴奏システムなどが開発されている。さら
に、伴奏にとどまらず、システムが人間と対等な一演奏
者としてソロ演奏を行なうものも現われている。
In recent years, music information processing has been actively researched. Although there are a wide variety of subjects, research that focuses on the aspect of such cooperative work by a plurality of players includes an automatic accompaniment system in which a computer accompanies a human performance. In early automatic accompaniment systems, humans were the main performers, and the main purpose of the system was to follow the tempo of the performance. However, in recent years, an accompaniment system in which the system takes the initiative depending on the performance situation, and an accompaniment system that follows not only the tempo but also the change in the performance expression of the solo player, etc., have been developed. In addition, some systems perform not only accompaniment but also solo performances as a performer equal to humans.

【0004】[0004]

【発明が解決しようとする課題】上述の研究は、人と機
械の協調作業の実現を目指すものである。これはコンピ
ュータミュージック全盛の現代においては1つの自然な
流れであるが、一方、人同士の協調作業による音楽の創
造がなくなることは今後もあり得ない。しかし、音楽に
おける人同士の協調作業に関する研究はまだあまり行な
われていない。
The above-mentioned research aims at realizing the cooperative work between man and machine. This is one of the natural trends in the heyday of computer music, but it is unlikely that the creation of music by collaborative work between people will disappear. However, little research has been done on cooperative work between people in music.

【0005】それゆえに、この発明の主たる目的は、音
楽演奏における人同士の協調作業をリアルタイムに支援
し、さらに音楽演奏上の創造性を触発することのできる
ような音楽演奏支援装置を提供することである。
[0005] Therefore, a main object of the present invention is to provide a music performance support device which can support cooperative work between people in music performance in real time and further inspire creativity in music performance. is there.

【0006】[0006]

【課題を解決するための手段】請求項1に係る発明は、
各演奏者に対応して設けられ、楽器による演奏データを
収集するための演奏データ収集手段と、各演奏データ収
集手段によって収集された演奏データから各種属性情報
を抽出し、これを統計処理して空間構造情報として算出
する処理手段と、各演奏者に対応して設けられ、処理手
段によって算出された空間構造情報を表示する表示手段
を備えて構成される。
The invention according to claim 1 is
Performance data collecting means for collecting performance data of musical instruments provided for each player, and various attribute information extracted from the performance data collected by each performance data collecting means, and statistically processed. It is provided with processing means for calculating as spatial structure information, and display means provided for each player and displaying the spatial structure information calculated by the processing means.

【0007】請求項2に係る発明では、請求項1の処理
手段は、演奏データから重み付輪郭属性と重み付色彩属
性を抽出し、現時点までの演奏のフレーズオブジェクト
と各フレーズオブジェクトの輪郭属性情報と色彩属性情
報を取出し、すべてのデータに基づいて統計処理によっ
て、フレーズオブジェクトと各属性の関連性を空間構造
情報として算出する。
According to a second aspect of the present invention, the processing means of the first aspect extracts a weighted outline attribute and a weighted color attribute from the performance data, and outputs the phrase object of the performance up to the present time and the outline attribute information of each phrase object. And color attribute information, and the relevance between the phrase object and each attribute is calculated as spatial structure information by statistical processing based on all data.

【0008】[0008]

【発明の実施の形態】図1はこの発明の一実施形態を示
すブロック図である。図1において、MIDI(Musica
l Instrument digital interface)楽器1,2のそれぞ
れに対応してクライアント10,20が設けられる。M
IDI楽器1はマスタであり、MIDI楽器2はスレー
ブである。なお、図1では1台のスレーブのみを示して
いるが、これは2台以上設けてもよい。その場合は、各
スレーブに対応してクライアントが設けられる。
FIG. 1 is a block diagram showing an embodiment of the present invention. In FIG. 1, MIDI (Musica
l Instrument digital interface) Clients 10 and 20 are provided corresponding to the musical instruments 1 and 2, respectively. M
The IDI instrument 1 is a master, and the MIDI instrument 2 is a slave. Although only one slave is shown in FIG. 1, two or more slaves may be provided. In that case, a client is provided for each slave.

【0009】MIDI楽器1から演奏データとクロック
信号とが出力されてクライアント10に入力されるとと
もに、クロック信号がMIDI合成部3に与えられる。
MIDI楽器2からの演奏データはMIDI合成部3に
与えられて、MIDI楽器2からの演奏データにクロッ
ク信号が付加されてクライアント20に与えられる。ク
ライアント10はスイッチ11と即興演奏支援装置12
とサンプラ13と表示部14とを含む。スイッチ11は
演奏データを即興演奏支援装置12に入力するか否かを
切換えるものである。即興演奏支援装置12は初心者の
ために即興演奏を支援する。MIDI楽器1から入力さ
れた演奏データまたは即興演奏支援装置12から出力さ
れた演奏データはサンプラ13に入力され、一定期間の
演奏データがサンプリングされる。サンプリングされた
演奏データはネットワーク6を介してサーバ5に出力さ
れる。
[0009] Performance data and a clock signal are output from the MIDI musical instrument 1 and input to the client 10, and the clock signal is supplied to the MIDI synthesizing unit 3.
The performance data from the MIDI musical instrument 2 is provided to the MIDI synthesizing unit 3, and a clock signal is added to the performance data from the MIDI musical instrument 2 and the resultant data is provided to the client 20. The client 10 includes a switch 11 and an improvisational performance support device 12.
, A sampler 13 and a display unit 14. The switch 11 switches whether or not to input performance data to the improvisation performance support device 12. The improvisation performance support device 12 supports improvisation performance for beginners. The performance data input from the MIDI instrument 1 or the performance data output from the improvisation performance support device 12 is input to the sampler 13, and the performance data for a certain period is sampled. The sampled performance data is output to the server 5 via the network 6.

【0010】クライアント20もクライアント10と同
様にして、スイッチ21と即興演奏支援装置22とサン
プラ23と表示部24とを含む。また、クライアント1
0と20の演奏データは、MIDI音源モジュール4に
入力される。このMIDI音源モジュール4は前奏を自
動演奏する。
[0010] Similarly to the client 10, the client 20 includes a switch 21, an improvisation performance support device 22, a sampler 23, and a display unit 24. Client 1
The performance data 0 and 20 are input to the MIDI tone generator module 4. The MIDI tone generator module 4 automatically plays a prelude.

【0011】サーバ5はネットワーク6に出力されたサ
ンプリングデータから各種属性を抽出し、これを統計処
理して空間構造情報を算出する。このため、サーバ5は
音楽プリミティブ抽出部50と統計処理部54とを含
む。音楽プリミティブ抽出部50は輪郭属性抽出部51
と色彩属性抽出部52とメモリ53とを含む。輪郭属性
抽出部51は演奏されるフレーズの中の音の音高の時系
列的動きから得られる属性を抽出し、色彩属性抽出部5
2は楽曲各部の和音に依存した各時点での音高が人に与
える情動的影響に基づく属性を抽出する。メモリ53は
抽出された輪郭属性と色彩属性を記憶する。統計処理部
54は抽出された輪郭属性と色彩属性とに基づいて、双
対尺度法による統計処理によって、フレーズオブジェク
トと各属性の関連性を空間構造として算出する。
The server 5 extracts various attributes from the sampling data output to the network 6 and statistically processes them to calculate spatial structure information. To this end, the server 5 includes a music primitive extraction unit 50 and a statistical processing unit 54. The music primitive extraction unit 50 includes a contour attribute extraction unit 51
And a color attribute extracting unit 52 and a memory 53. The contour attribute extraction unit 51 extracts attributes obtained from the time-series movement of the pitch of the sound in the played phrase, and
Reference numeral 2 extracts an attribute based on the emotional effect on the person at each time point depending on the chord of each part of the music. The memory 53 stores the extracted outline attributes and color attributes. The statistical processing unit 54 calculates the relevancy between the phrase object and each attribute as a spatial structure by statistical processing based on the extracted outline attributes and color attributes by dual scaling.

【0012】ここで、双対尺度法とは、複素の数量か属
性で構成されたオブジェクト集合が与えられたときに、
オブジェクト集合と属性集合にそれぞれ得点数量を与え
ることによって、オブジェクト同士の属性共有性と属性
同士の共起性を空間における相対的な位置関係として表
現する手法である。この実施形態では、個々のフレーズ
をオブジェクト,個々の音楽プリミティブをオブジェク
ト属性,音楽プリミティブの重みを属性値として双対尺
度法が適用される。これによって、各フレーズの各音楽
プリミティブとの関連性を1つの空間上で表現すること
が可能となる。統計処理部54によって処理された空間
構造情報はネットワーク6を介して各クライアント1
0,20に与えられ、表示部14,24に表示される。
Here, the dual scale method means that when a set of objects composed of complex quantities or attributes is given,
This method expresses the attribute sharing between objects and the co-occurrence between attributes as a relative positional relationship in space by giving a score quantity to each of the object set and the attribute set. In this embodiment, the dual scale method is applied with each phrase as an object, each music primitive as an object attribute, and the weight of the music primitive as an attribute value. This makes it possible to express the relevance of each phrase to each music primitive in one space. The spatial structure information processed by the statistical processing unit 54 is transmitted to each client 1 via the network 6.
0, 20 and displayed on the display units 14, 24.

【0013】図2〜図4はこの発明の一実施形態の具体
的な動作を説明するためのフローチャートであり、特
に、図2はクライアントのサンプリング処理を示すフロ
ーチャートであり、図3はサーバの処理動作を示すフロ
ーチャートであり、図4はクライアントの空間構造表示
処理を示すフローチャートである。図5は空間構造の表
示例を示す図である。
FIGS. 2 to 4 are flowcharts for explaining a specific operation of the embodiment of the present invention. In particular, FIG. 2 is a flowchart showing a sampling process of a client, and FIG. FIG. 4 is a flowchart showing the operation, and FIG. 4 is a flowchart showing the spatial structure display processing of the client. FIG. 5 is a diagram showing a display example of the spatial structure.

【0014】次に、図1〜図5を参照して、この発明の
一実施形態の具体的な動作について説明する。まず、演
奏開始に先立って、各クライアント10,20およびサ
ーバ5では演奏する曲目を設定する。また、全演奏者数
および各クライアントの演奏者が何番目に演奏するかも
設定する。この実施形態では、クライアント10の演奏
者が1番目に、クライアント20の演奏者が2番目に演
奏するものとする。したがって、演奏はクライアント1
0→クライアント20→クライアント10→クライアン
ト20→…の順で行なわれる。
Next, a specific operation of the embodiment of the present invention will be described with reference to FIGS. First, prior to the start of performance, each of the clients 10, 20 and the server 5 sets a music piece to be played. It also sets the total number of performers and the order in which the performers of each client will perform. In this embodiment, it is assumed that the player of the client 10 plays first and the player of the client 20 plays second. Therefore, the performance is Client 1.
0 → client 20 → client 10 → client 20 →...

【0015】演奏開始は、マスタのMIDI楽器1から
クロック信号が各クライアント10,20に与えられる
ことによって行われ、各クライアント10,20はクロ
ック信号に同期して処理を進める。そして、MIDI音
源モジュール4は演奏を開始する信号に応じて前奏の自
動演奏を行なう。前奏が終了すると、1番目の演奏者は
MIDI楽器1を用いて演奏を開始する。1番目の演奏
者は所定の期間として、たとえば最初の4小節だけ演奏
し、その後第2の演奏者が次の4小節を演奏する。
The performance is started when a clock signal is supplied from the master MIDI musical instrument 1 to each of the clients 10 and 20, and the clients 10 and 20 proceed with the processing in synchronization with the clock signal. Then, the MIDI tone generator module 4 performs an automatic performance of the prelude according to the signal for starting the performance. When the prelude ends, the first player starts playing using the MIDI instrument 1. The first player plays for a predetermined period, for example, only the first four bars, and then the second player plays the next four bars.

【0016】なお、初心者が即興演奏するときには、各
クライアント10,20のスイッチ11,21を切換え
て、即興演奏支援装置12,22によって即興演奏を支
援することもできる。この場合、即興演奏支援装置1
2,22から出力される演奏データがサンプリングされ
る。
When a beginner performs improvisation, the switches 11 and 21 of the clients 10 and 20 can be switched to support the improvisation by the improvisation support devices 12 and 22. In this case, the improvisation performance support device 1
The performance data output from 2, 22 is sampled.

【0017】MIDI楽器1に対応するクライアント1
0は図2に示すように、MIDI楽器1からのクロック
信号を計数し、自分の演奏順であるかを判別する。クラ
イアント10は自分の演奏順であることを判別すると、
サンプラ13は演奏データをサンプリングする。サンプ
ラ13は最初の4小節分の演奏データをサンプリングし
て、ネットワーク6を介してサーバ5にサンプリングし
た演奏データを送信する。なお、サンプラ13に入力さ
れた演奏データは、MIDI音声モジュール4にも入力
され、MIDI音源モジュール4はその演奏データに基
づいて、最初の4小節分の実際の演奏音を出力する。
Client 1 corresponding to MIDI musical instrument 1
0 counts the clock signal from the MIDI instrument 1 as shown in FIG. When the client 10 determines that the playing order is its own,
The sampler 13 samples performance data. The sampler 13 samples the performance data for the first four measures and transmits the sampled performance data to the server 5 via the network 6. The performance data input to the sampler 13 is also input to the MIDI sound module 4, and the MIDI sound source module 4 outputs actual performance sounds for the first four bars based on the performance data.

【0018】その後、2番目のクライアントは自分の演
奏順であることを判別し、次の4小節分の演奏データを
サンプリングしてサーバ5に送信する。クライアント2
0のサンプラ23に入力される演奏データはMIDI音
源モジュール4にも入力され、MIDI音源モジュール
4は次の4小節分の実際の演奏音を出力する。
Thereafter, the second client determines that it is in its own performance order, samples the next four bars of performance data, and transmits it to the server 5. Client 2
The performance data input to the 0 sampler 23 is also input to the MIDI tone generator module 4, and the MIDI tone generator module 4 outputs the next four measures of actual performance sounds.

【0019】サーバ5は図3に示すように、クライアン
ト10,20からサンプリングした演奏データの入力さ
れたことを判別すると、輪郭属性抽出部51が演奏デー
タから重み付輪郭属性を抽出し、色彩属性抽出部52が
演奏データから重み付色彩属性を抽出する。統計処理部
54は現時点までの演奏フレーズオブジェクトと各フレ
ーズオブジェクトとの輪郭属性および色彩属性情報を取
出す。そして、統計処理部54はすべてのデータにもと
づいて、双対尺度法と呼ばれる統計処理手法によってフ
レーズオブジェクトと各属性の関連性を2次元空間構造
として表現する処理を行なう。その処理結果は、ネット
ワーク6を介して各クライアント10,20に送信され
る。統計処理部54は現時点までの演奏のフレーズオブ
ジェクトと各フレーズオブジェクトの輪郭属性と色彩属
性情報とをメモリ53に保存する。
When the server 5 determines that the sampled performance data has been input from the clients 10 and 20 as shown in FIG. 3, the contour attribute extraction unit 51 extracts a weighted contour attribute from the performance data, and The extraction unit 52 extracts a weighted color attribute from the performance data. The statistical processing unit 54 extracts the outline attribute and color attribute information of the current phrase object and each phrase object. Then, the statistical processing unit 54 performs a process of expressing the association between the phrase object and each attribute as a two-dimensional space structure by a statistical processing method called a dual scale method based on all data. The processing result is transmitted to each of the clients 10 and 20 via the network 6. The statistical processing unit 54 stores in the memory 53 the phrase objects of the performance up to the present time, and the outline attribute and color attribute information of each phrase object.

【0020】各クライアント10,20はサーバ5から
空間構造データを受信すると、対応の表示部14,24
に図5に示すような空間構造データを表示する。
When each of the clients 10 and 20 receives the spatial structure data from the server 5, the corresponding display units 14 and 24
FIG. 5 shows the spatial structure data as shown in FIG.

【0021】図5はある回の演奏における2コーラス
(18フレーズ)演奏終了時の空間構造の表示例であ
り、長方形のアイコンが個々のフレーズに対応してい
る。各フレーズのアイコンは演奏者ごとに色が異なって
おり、演奏者名とその演奏者による何番目のアドリブ演
奏であったかの番号が表示されている。図5において、
色の薄い方のアイコンがクライアント10または20使
用者の演奏であり、色の濃いアイコンが即興演奏支援装
置12または22使用者の演奏である。また、長円形の
アイコンは個々の音楽プリミティブに対応している。水
平軸方向の第1主成分を特徴付ける音楽プリミティブは
アウト音(OUTOFCHORD),有彩色コード音
(HORDTONE),アボイド音(AVOIDNOT
ES)である。また、垂直軸方向の第2主成分を特徴付
けるものは、代表繰返し長さ(REPEAT),テンシ
ョン音(TENSION)である。
FIG. 5 shows a display example of a spatial structure at the end of a two chorus (18 phrases) performance in a certain performance, where rectangular icons correspond to individual phrases. The icon of each phrase has a different color for each player, and indicates the name of the player and the number of the ad-lib performance performed by that player. In FIG.
The lighter icon is the performance of the client 10 or 20 user, and the darker icon is the performance of the improvisation performance support device 12 or 22 user. The oval icons correspond to individual music primitives. The music primitives that characterize the first principal component in the horizontal axis direction include an out sound (OUTOFCHORD), a chromatic chord sound (HORDTONE), and an avoid sound (AVOIDNOT).
ES). Characteristic features of the second principal component in the vertical axis direction are a representative repetition length (REPEAT) and a tension sound (TENSION).

【0022】[0022]

【発明の効果】以上のように、この発明によれば、各演
奏者の楽器による演奏データを収集し、収集した演奏デ
ータから各種属性を抽出し、これを統計処理して空間構
造情報として可視化して各演奏者に表示するようにした
ので、演奏という音情報が空間情報として目の前で構成
されていくので面白味を味わうことができ、さらに自分
の演奏の特徴がよくわかり、しかもそれぞれの演奏者に
よるフレーズの関係書類も一目瞭然となるので、演奏者
相互の意図伝達の円滑化と具体化を実現できる。また、
その空間構造から、意外なフレーズや特徴属性の関連性
が見つかることがあり、演奏の創作における新たな発見
を演奏者が得ることが可能となる。
As described above, according to the present invention, performance data of each player's musical instrument is collected, various attributes are extracted from the collected performance data, and these are statistically processed and visualized as spatial structure information. And display it to each player, so that the sound information of the performance is composed in front of you as spatial information, so you can enjoy the fun, and you can understand the characteristics of your performance well, and moreover, The documents related to the phrases by the players can be seen at a glance, so that it is possible to realize smooth and concrete communication of intentions between the players. Also,
Unexpected phrases and relevance of characteristic attributes may be found from the spatial structure, and it is possible for the player to obtain new discoveries in the creation of performances.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態のブロック図である。FIG. 1 is a block diagram of one embodiment of the present invention.

【図2】クライアントのサンプリング処理を示すフロー
チャートである。
FIG. 2 is a flowchart illustrating a sampling process of a client.

【図3】サーバの処理動作を示すフローチャートであ
る。
FIG. 3 is a flowchart illustrating a processing operation of a server.

【図4】クライアントの空間構造表示処理を示すフロー
チャートである。
FIG. 4 is a flowchart showing a spatial structure display process of a client.

【図5】空間構造の表示例を示す図である。FIG. 5 is a diagram showing a display example of a spatial structure.

【符号の説明】[Explanation of symbols]

1,2 MIDI楽器 3 MIDI合成部 4 MIDI音源モジュール 5 サーバ 10,20 クライアント 11,21 スイッチ 12,22 即興演奏支援装置 13,23 サンプラ 14,24 表示部 50 音楽プリミティブ抽出部 51 輪郭属性抽出部 52 色彩属性抽出部 53 メモリ 54 統計処理部 1, MIDI instrument 3 MIDI synthesizing unit 4 MIDI sound source module 5 Server 10, 20 client 11, 21 switch 12, 22 Improvisation performance support device 13, 23 Sampler 14, 24 Display unit 50 Music primitive extraction unit 51 Outline attribute extraction unit 52 Color attribute extraction unit 53 Memory 54 Statistical processing unit

フロントページの続き (72)発明者 角 康之 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 (72)発明者 間瀬 健二 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内Continued on the front page (72) Inventor Yasuyuki Kado 5th Sanraya, Inaya, Shiroka-cho, Soraku-cho, Kyoto Pref. ATI Inc. Intelligent Television Image Communication Research Laboratories (72) Inventor Kenji Mase Sera-cho, Soraku-gun, Kyoto 5 inn, small inn, small inn, small inn

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数の演奏者が楽器で音楽を演奏する場
合に、各演奏者間の円滑な意志疎通を図るとともに、演
奏における発想を触発するための音楽演奏支援装置であ
って、 前記各演奏者に対応して設けられ、楽器による演奏デー
タを収集するための演奏データ収集手段、 前記各演奏データ収集手段によって収集された演奏デー
タから各種属性情報を抽出し、これを統計処理して空間
構造情報として算出する処理手段、および前記各演奏者
に対応して設けられ、前記処理手段によって算出された
空間構造情報を表示する表示手段を備えた、音楽演奏支
援装置。
1. A music performance support apparatus for smooth communication between players when a plurality of players play music with musical instruments, and for inspiring ideas in performance, Performance data collecting means for collecting performance data of musical instruments provided for the performer; extracting various attribute information from the performance data collected by each of the performance data collecting means; A music performance support device, comprising: processing means for calculating as structural information; and display means provided for each of the performers and displaying the spatial structural information calculated by the processing means.
【請求項2】 前記処理手段は、前記演奏データからフ
レーズ中の音の音高の時系列的動き情報に基づく重み付
輪郭属性と、楽曲各部の和音に依存した各時点での音高
が人に与える情動的影響に基づく重み付色彩属性とを抽
出し、現時点までの演奏のフレーズオブジェクトと各フ
レーズオブジェクトの輪郭属性情報と色彩属性情報を取
出し、すべてのデータに基づいて統計処理によってフレ
ーズオブジェクトと各属性の関連性を空間構造情報とし
て算出することを特徴とする、請求項1の音楽演奏支援
装置。
2. The processing means according to claim 1, wherein the processing means includes a weighted contour attribute based on time-series motion information of a pitch of a sound in the phrase from the performance data, and a pitch at each time point depending on a chord of each part of the music. Weighted color attributes based on the affective effect on the phrase object, extract the phrase objects of the performance up to the present and the outline attribute information and color attribute information of each phrase object, and perform statistical processing based on all data to identify the phrase object The music performance support apparatus according to claim 1, wherein the relevance of each attribute is calculated as spatial structure information.
JP17540297A 1997-07-01 1997-07-01 Music performance support device Expired - Fee Related JP3171818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17540297A JP3171818B2 (en) 1997-07-01 1997-07-01 Music performance support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17540297A JP3171818B2 (en) 1997-07-01 1997-07-01 Music performance support device

Publications (2)

Publication Number Publication Date
JPH1124662A true JPH1124662A (en) 1999-01-29
JP3171818B2 JP3171818B2 (en) 2001-06-04

Family

ID=15995473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17540297A Expired - Fee Related JP3171818B2 (en) 1997-07-01 1997-07-01 Music performance support device

Country Status (1)

Country Link
JP (1) JP3171818B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459324B1 (en) * 2013-08-28 2014-11-07 이성호 Evaluation method of sound source and Apparatus for evaluating sound using it

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459324B1 (en) * 2013-08-28 2014-11-07 이성호 Evaluation method of sound source and Apparatus for evaluating sound using it
WO2015030319A1 (en) * 2013-08-28 2015-03-05 Lee Sung-Ho Sound source evaluation method, performance information analysis method and recording medium used therein, and sound source evaluation apparatus using same
US20150287335A1 (en) * 2013-08-28 2015-10-08 Sung-Ho Lee Sound source evaluation method, performance information analysis method and recording medium used therein, and sound source evaluation apparatus using same
CN105474288A (en) * 2013-08-28 2016-04-06 李星昊 Sound source evaluation method, performance information analysis method and recording medium used therein, and sound source evaluation apparatus using same
US9613542B2 (en) 2013-08-28 2017-04-04 Sung-Ho Lee Sound source evaluation method, performance information analysis method and recording medium used therein, and sound source evaluation apparatus using same

Also Published As

Publication number Publication date
JP3171818B2 (en) 2001-06-04

Similar Documents

Publication Publication Date Title
Dimitropoulos et al. Capturing the intangible an introduction to the i-Treasures project
Griffith et al. Musical networks: Parallel distributed perception and performance
CN112955948B (en) Musical instrument and method for real-time music generation
Goto et al. Music interfaces based on automatic music signal analysis: new ways to create and listen to music
JP2002099274A (en) Dynamically regulatable network for making possible method for playing together with music
CN101414322A (en) Exhibition method and system for virtual role
WO2022048113A1 (en) Collaborative performance method and system, terminal device, and storage medium
CN107430849A (en) Sound control apparatus, audio control method and sound control program
JP2008225117A (en) Pitch display control device
WO2021176925A1 (en) Method, system and program for inferring audience evaluation of performance data
JP3171818B2 (en) Music performance support device
Goudard John, the semi-conductor: a tool for comprovisation
Meikle Examining the effects of experimental/academic electroacoustic and popular electronic musics on the evolution and development of human–computer interaction in music
JP4123242B2 (en) Performance signal processing apparatus and program
Ge et al. Application of virtual reality technology in computer-aided design of electronic music
Bryan-Kinns Computers in support of musical expression
Whalley Broadening telematic electroacoustic music by affective rendering and embodied real-time data sonification
Klemenc et al. Educational possibilities of the project Colour visualization of music
Dean Widening unequal tempered microtonal pitch space for metaphoric and cognitive purposes with new prime number scales
US20220310046A1 (en) Methods, information processing device, performance data display system, and storage media for electronic musical instrument
US20240038205A1 (en) Systems, apparatuses, and/or methods for real-time adaptive music generation
Farley et al. Augmenting creative realities: The second life performance project
JP3627675B2 (en) Performance data editing apparatus and method, and program
Waxman Digital theremins--interactive musical experiences for amateurs using electric field sensing
Lundh Haaland The Player as a Conductor: Utilizing an Expressive Performance System to Create an Interactive Video Game Soundtrack

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010306

LAPS Cancellation because of no payment of annual fees