JP3457582B2 - Automatic expression device for music - Google Patents
Automatic expression device for musicInfo
- Publication number
- JP3457582B2 JP3457582B2 JP21477899A JP21477899A JP3457582B2 JP 3457582 B2 JP3457582 B2 JP 3457582B2 JP 21477899 A JP21477899 A JP 21477899A JP 21477899 A JP21477899 A JP 21477899A JP 3457582 B2 JP3457582 B2 JP 3457582B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- rhythm
- expression
- performance
- musical instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】[0001]
【発明の属する技術分野】この発明は楽曲の自動表情付
装置に関し、特に、MIDI規格が使用されている楽曲
を演奏する装置に適用され、人間らしい演奏の表情付の
情報を付加するような楽曲の自動表情付装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for automatically adding musical expressions to music, and more particularly to a device for playing music using the MIDI standard, which is used for adding music with facial expression information that gives a human-like performance. A device with an automatic facial expression.
【0002】[0002]
【従来の技術】ネットワークを経由して音楽データを配
布する手段として、大きく分けて二通りが存在する。そ
の1つは音の波形データを数値化(サンプリング)して
演奏情報をそのまま伝送する方法である。ところが、こ
の方法では伝達するデータ量が多く、必然的にネットワ
ークを経由する場合には伝送時間が長くなってしまうと
いう欠点がある。2. Description of the Related Art There are roughly two types of means for distributing music data via a network. One of them is a method of digitizing (sampling) sound waveform data and transmitting performance information as it is. However, this method has a drawback in that a large amount of data is transmitted and inevitably the transmission time becomes long when passing through a network.
【0003】もう一方は、MIDI規格に代表される何
らかの規格に変換して配布する方法である。このような
規格に基づいてデータを変換する手法は、データ量が少
ない利点があるが、欠失する情報が多いという問題があ
る。特に、MIDI規格の場合、データ量はサンプリン
グデータと比較して1〜10%のデータ量であり、それ
ゆえ通信カラオケなどで採用されている。MIDI規格
で演奏データを記述する場合、MIDI規格で楽譜通り
に記述された演奏データをMIDI規格に対応した音源
で再生すると、譜面に沿って忠実に演奏はされるもの
の、人間の演奏とは大きく異なって聞こえる。そのた
め、人間味のある演奏をさせるためには、表情付という
作業が必要になるが、その作業には多大な労力と複数の
楽器の演奏技術に関する専門的な知識を要し、しかも手
動で行なわれなければならない。The other is a method of converting into some standard represented by the MIDI standard and distributing it. The method of converting data based on such a standard has an advantage that the amount of data is small, but has a problem that much information is deleted. In particular, in the case of the MIDI standard, the data amount is 1 to 10% of the data amount compared with the sampling data, and therefore it is adopted in communication karaoke and the like. In the case of describing performance data in the MIDI standard, if the performance data described in the MIDI standard according to the musical score is reproduced by a sound source compatible with the MIDI standard, the performance is faithful to the musical score, but it is largely different from human performance. Sounds different. Therefore, in order to perform with a human touch, the work of adding expressions is required, but this work requires a great deal of labor and specialized knowledge of the playing technique of multiple musical instruments, and is performed manually. There must be.
【0004】なお、MIDI規格とは、電子楽器同士を
接続したり、電子音源とコンピュータとを接続して演奏
する場合の規格のことをいう。The MIDI standard is a standard for connecting electronic musical instruments to each other or connecting an electronic tone generator to a computer for performance.
【0005】一方、自動表情付システムもこれまでにい
くつか考えられているが、従来のシステムでは、ピアノ
だけあるいはギターだけというようなパート(楽器)毎
の処理に止まっているのが現状であり、曲全体の表情付
を考慮したパート毎の処理は行なわれていない。On the other hand, some automatic facial expression systems have been considered so far, but in the conventional system, the processing is limited to each part (musical instrument) such as only piano or guitar. , Part-by-part processing that does not consider the expression of the whole song is performed.
【0006】[0006]
【発明が解決しようとする課題】上述の如く、従来の曲
の表情付には、少なくとも以下の2つの問題が存在す
る。As described above, there are at least the following two problems in the conventional expression of songs.
【0007】 MIDI規格は情報量の少なさから、
通信カラオケなど、音楽のネットワーク経由やフロッピ
ィディスクやコンパクトディスクなどの記録媒体に対す
るデータ配布に便利であるが、実際の演奏らしく聞こえ
るようにするには、データの変換を主に手動で行なって
おり、多大の努力と広範囲な専門知識を要する。Since the MIDI standard has a small amount of information,
It is convenient for data distribution via music networks such as online karaoke and recording media such as floppy disks and compact disks, but in order to make it sound like an actual performance, data conversion is mainly done manually, Requires a great deal of effort and extensive expertise.
【0008】 自動表情付を行なうシステムでは、パ
ート毎の処理のみを行ない、曲全体のバランスがとれた
表情付が行なわれていない。In the system for automatically adding facial expressions, only the processing for each part is performed, and the facial expressions are not balanced for the entire song.
【0009】それゆえに、この発明の主たる目的は、人
間が行なっていた表情付を自動的に曲全体に行なえるよ
うな楽曲の自動表情付装置を提供することである。Therefore, a main object of the present invention is to provide an automatic musical expression adding device for music which can automatically add the expression that a human being has done to the entire music.
【0010】[0010]
【課題を解決するための手段】本発明は、MIDI規格
で記述された楽曲に表情付けする楽曲の自動表情付装置
であって、リズム楽器の構成とリズム楽器のリズム感を
示すリズム楽器パターンを保持するリズム楽器パターン
保持手段と、MIDI規格に準拠した、1または複数の
楽器のパートからなるMIDIデータのうち特定の楽器
のパートから第1のリズムパターンを生成するリズム生
成手段と、ユーザの好みの第2のリズムパターンを入力
するためのリズムパターン入力手段と、前記リズム楽器
パターン保持手段によって保持されているリズム楽器パ
ターンと、前記リズム生成手段から生成された第1のリ
ズムパターンおよび前記リズムパターン入力手段から入
力された第2のリズムパターンとに基づいて、演奏パタ
ーンを生成する演奏パターン生成手段と、リズム楽器以
外の1または複数の楽器の表情付けパターンを保持する
表情付けパターン保持手段と、前記表情付けパターン保
持手段に保持されている表情付けパターンに基づいて、
前記MIDIデータのうち1または複数の楽器のパート
につき、表情付けする表情付け手段と、前記演奏パター
ン生成手段によって生成された演奏パターンの発音タイ
ミングに、前記表情付けされたMIDIデータの発音タ
イミングを合わせるタイミング合わせ手段と、前記演奏
パターン生成手段によって生成された演奏パターンと、
前記タイミング合わせされた前記表情付けされたMID
Iデータとに基づいて、新たなMIDIデータを生成し
て出力する出力手段とを備える。 The present invention is based on the MIDI standard.
Automatic facial expression device for musical expressions to express the musical composition described in
So, the composition of the rhythm instrument and the sense of rhythm of the rhythm instrument
Rhythm instrument pattern that holds the rhythm instrument pattern shown
Holding means and one or more in conformity with the MIDI standard
A specific instrument from MIDI data consisting of instrument parts
Rhythm that generates the first rhythm pattern from the part
Input the means of composition and the second rhythm pattern that the user likes.
Pattern inputting means for playing, and the rhythm musical instrument
The rhythm musical instrument pattern held by the pattern holding means.
Turn and the first re-drive generated from the rhythm generating means.
Input from the rhythm pattern and the rhythm pattern input means.
The performance pattern is based on the applied second rhythm pattern.
Performance pattern generation means for generating
Preserve the facial expression pattern of one or more outside instruments
The facial expression pattern holding means and the facial expression pattern
Based on the facial expression pattern held by the holding means,
Part of one or more musical instruments of the MIDI data
Therefore, the expression putting means for giving an expression, and the performance pattern
The pronunciation pattern of the performance pattern generated by the
To the MIDI data with the expression.
Timing adjusting means for adjusting the iming and the performance
A performance pattern generated by the pattern generation means,
The timing-matched MID with the expression
Generate new MIDI data based on the I data
And output means for outputting.
【0011】好ましくは、前記演奏パターン生成手段
は、前記第1のリズムパターンと、前記第2のリズムパ
ターンのいずれかを選択し、前記第1のリズムパターン
と前記第2のリズムパターンの共通リズムを抽出し、前
記共通リズムから前記選択されたリズムパターンに似通
ったリズムパターンを生成して、当該リズムパターンに
基づいて演奏パターンを生成する。 Preferably, the performance pattern generating means
Is the first rhythm pattern and the second rhythm pattern.
Select one of the turns, and select the first rhythm pattern
And extract the common rhythm of the second rhythm pattern,
Similar to the selected rhythm pattern from the common rhythm
Generated rhythm pattern,
Based on this, a performance pattern is generated.
【0012】また、本発明は、MIDI規格で記述され
た楽曲に表情付けする楽曲の自動表情付装置であって、
リズム楽器の構成とリズム楽器のリズム感を示すリズム
楽器パターンを保持するリズム楽器パターン保持手段
と、MIDI規格に準拠した、1または複数の楽器のパ
ートからなるMIDIデータのうち特定の楽器のパート
からリズムパターンを生成するリズム生成手段と、前記
リズム楽器パターン保持手段によって保持されているリ
ズム楽器パターンと、前記リズム生成手段から生成され
たリズムパターンとに基づいて、演奏パターンを生成す
る演奏パターン生成手段と、ユーザがリズム楽器の音の
強弱、発音タイミングのゆらぎ、およびゴースト音を含
む表情付けパターンの好みを入力する表情付けパターン
入力手段と、前記表情付けパターン入力手段から入力さ
れたリズム楽器の表情付けパターンの好みに基づいて、
前記演奏パターンに好みの表情付けを行なう表情付け付
加手段と、リズム楽器以外の1または複数の楽器の前記
表情付けパターンを保持する表情付けパターン保持手段
と、前記表情付けパターン保持手段に保持されている表
情付けパターンに基づいて、前記MIDIデータのうち
1または複数の楽器のパートにつき、表情付けする表情
付け手段と、前記表情付け付加手段によって表情付けさ
れた演奏パターンの発音タイミングに、前記表情付けさ
れたMIDIデータの発音タイミングを合わせるタイミ
ング合わせ手段と、前記表情付け付加手段によって表情
付けされた演奏パターンと、前記タイミング合わせされ
た前記表情付けされたMIDIデータとに基づいて、新
たなMIDIデータを生成して出力する出力手段とを備
える。 The present invention is also described in the MIDI standard.
A device for automatically adding a facial expression to a musical composition,
Rhythm instrument structure and rhythm showing the sense of rhythm of rhythm instrument
Rhythm musical instrument pattern holding means for holding musical instrument patterns
And one or more instruments that comply with the MIDI standard.
Part of a specific instrument in MIDI data consisting of
Rhythm generating means for generating a rhythm pattern from
Rhythm musical instrument pattern holding means
Rhythm instrument pattern and generated by the rhythm generation means
Generated playing pattern based on
Playing pattern generating means and the user's
Dynamics, pronunciation timing fluctuations, and ghost sounds
Enter facial expression pattern preference
Input means and the expression pattern input means.
Based on the preference of the expression pattern of the rhythm instrument
With facial expression to give the desired expression to the playing pattern
The adding means and one or more musical instruments other than the rhythm musical instrument.
Facial expression pattern holding means for holding the facial expression pattern
And a table held by the expression pattern holding means.
Based on the emotional pattern, among the MIDI data
Facial expression to be applied to one or more musical instrument parts
The expression is added by the attaching means and the expression adding means.
The expression is added to the pronunciation timing of the
Timing to match the pronunciation timing of the MIDI data
Facial expression by means of matching
The timing is matched with the attached performance pattern.
Based on the MIDI data with the expression,
And an output means for generating and outputting the MIDI data.
Get
【0013】また、本発明は、MIDI規格で記述され
た楽曲に表情付けする楽曲の自動表情付装置であって、
リズム楽器の構成とリズム楽器のリズム感を示すリズム
楽器パターンを保持するリズム楽器パターン保持手段
と、MIDI規格に準拠した、1または複数の楽器のパ
ートからなるMIDIデータのうち特定の楽器のパート
からリズムパターンを生成するリズム生成手段、前記リ
ズム楽器パターン保持手段によって保持されているリズ
ム楽器パターンと、前記リズム生成手段から生成された
リズムパターンとに基づいて、演奏パターンを生成する
演奏パターン生成手段と、リズム楽器以外の1または複
数の楽器の表情付けパターンを保持する表情付けパター
ン保持手段と、前記表情付けパターン保持手段に保持さ
れている表情付けパターンに基づいて、前記MIDIデ
ータのうち、少なくとも前記表情付けパターン保持手段
に表情付けパターンが保持されているリズム楽器以外の
楽器であって、演奏をリードする楽器のパートにつき、
表情付けする表情付け手段と、前記演奏をリードする楽
器の発音タイミングをフレーズ単位で保持するタイミン
グ保持手段と、前記表情付けされたMIDIデータおよ
び前記演奏パターンのフレーズを認識するフレーズ認識
手段と、前記タイミング保持手段に保持されている発音
タイミングに、前記表情付けされたMIDIデータおよ
び前記演奏パターンの発音タイミングをフレーズ単位で
合わせるタイミング合わせ手段と、前記タイミング合わ
せされた、前記表情付けされたMIDIデータおよび前
記演奏パターンとに基づいて、新たなMIDIデータを
生成して出力する出力手段とを備え、前記フレーズ認識
手段は、音符 i の発音間隔P i とし、音符iの音のある期
間をD i とし、A i =P i /P i-1 、B i =P i −D i と
したときに、次の(i)〜(iv)のいずれかの条件を
満たしたときに、音符iをフレーズの始めと認識する。 (i) A i <0.5かつ、B i-1 ≧8分音符の長
さ (ii) B i-1 ≧4分音符の長さ (iii) A i ≦0.15かつ、D i-1 ≧2分音符の
長さ (iv) A i <0.2かつ、B i-1 >0 The present invention is also described in the MIDI standard.
A device for automatically adding a facial expression to a musical composition,
Rhythm instrument structure and rhythm showing the sense of rhythm of rhythm instrument
Rhythm musical instrument pattern holding means for holding musical instrument patterns
And one or more instruments that comply with the MIDI standard.
Part of a specific instrument in MIDI data consisting of
Rhythm generating means for generating a rhythm pattern from
Liz held by the rhythm instrument pattern holding means
Generated by the rhythm generation means
Generate a playing pattern based on the rhythm pattern
Performance pattern generation means and one or more
Expression putter that holds the expression pattern of a number of musical instruments
Holding means and the expression holding pattern holding means.
Based on the facial expression pattern, the MIDI device
At least the facial expression pattern holding means
Other than rhythm instruments that hold facial expression patterns
Because it is an instrument and the part of the instrument that leads the performance,
Expression expression means and music that leads the performance
Timing that holds the pronunciation timing of the instrument in phrase units
Holding means, the MIDI data with the expression, and
And phrase recognition for recognizing phrases in the performance pattern
Means and the pronunciation held by the timing holding means
At the timing, the MIDI data with the expression and the
And the timing of pronunciation of the performance pattern in phrase units
Timing adjusting means and the timing adjusting means
The said MIDI data with the expression and the front
New MIDI data based on the playing pattern
An output means for generating and outputting the phrase recognition
Means, a pronunciation interval P i of note i, the period with the sound of the note i
The distance is D i, and A i = P i / P i−1 and B i = P i −D i .
When any of the following conditions (i) to (iv) is met,
When satisfied, note i is recognized as the beginning of the phrase. (I) A i <0.5 and B i-1 ≧ eighth note length
Is (ii) B i-1 ≧ 4 note minutes long (iii) A i ≦ 0.15 and, D i-1 ≧ note 2 minutes
Length (iv) A i <0.2 and B i-1 > 0
【0014】[0014]
【0015】[0015]
【0016】[0016]
【0017】[0017]
【0018】[0018]
【0019】[0019]
【発明の実施の形態】図1はこの発明の自動表情付装置
の周辺部分を示したブロック図であって、この発明によ
る自動表情付装置の入力端子にはMIDIデータが入力
され、出力端子からは自動的に表情付されたMIDIデ
ータが出力される。また、この自動表情付装置には、入
力端子に入力されるMIDIデータの中に存在する多数
の楽器のどのリズムを選択するかを使用者(ユーザ)が
指定するための指定手段Aと、ユーザ自身が好みのリズ
ムパターンを入力することができるリズムパターン入力
手段Bと、ユーザがマニュアルで演奏楽曲のどの部分に
アクセント付するかを指定できるフィルイン入力手段C
と、発音タイミングの揺らぎの大きさ,ゴースト音の付
加やフィルインパターンの細かさをマニュアルで指定で
きる表情付手段Dとが設けられている。FIG. 1 is a block diagram showing a peripheral portion of an automatic facial expression adding device according to the present invention. MIDI data is input to an input terminal of the automatic facial expression adding device according to the present invention, and output from the output terminal. Automatically outputs MIDI data with facial expressions. Further, in this automatic facial expression adding device, a user (user) designates which rhythm of a large number of musical instruments existing in the MIDI data input to the input terminal, and a user. Rhythm pattern input means B, which allows the user to input his or her favorite rhythm pattern, and fill-in input means C, by which the user can manually specify which part of the musical composition is to be accented.
And a facial expression adding means D capable of manually designating the fluctuation of the sounding timing, the addition of the ghost sound, and the fineness of the fill-in pattern.
【0020】次に、この発明の自動表情付装置の一実施
形態のブロック図を図2に示す。図2において、MID
I規格で記述されたデータには、少なくともベースのパ
ートを持つ楽曲の楽譜が記述されており、このMIDI
データがリズムパターン発生部1に入力されてMIDI
データで特定されるベースのパートの音の発音パターン
から拍毎にリズムパターンが抽出される。ドラムパター
ンデータベース2には、リズム楽器としてのドラムの構
成(大きさ、種類)とドラムのリズム感などを示すドラ
ムパターンが蓄積されていて、このデータベース2から
のドラムパターンは演奏パターン生成部3に与えられ
る。Next, FIG. 2 shows a block diagram of one embodiment of the automatic facial expression adding device of the present invention. In FIG. 2, MID
In the data described in the I standard, the score of a music piece having at least a bass part is described.
Data is input to the rhythm pattern generation unit 1 and MIDI
A rhythm pattern is extracted for each beat from the pronunciation pattern of the sound of the bass part specified by the data. The drum pattern database 2 stores drum patterns indicating the configuration (size, type) of the drum as a rhythm instrument and the rhythmic feeling of the drum, and the drum patterns from this database 2 are stored in the performance pattern generation unit 3. Given.
【0021】この演奏パターン生成部3はリズムパター
ン発生部1で発生したリズムパターンとドラムパターン
データベース2からのドラムパターンとに基づいてドラ
ム演奏のための演奏パターンを生成する。フィルインパ
ターンデータベース4は、フィルインの構成と種類を蓄
積しているとともに、曲のどの部分にアクセントを付け
るかを蓄積しており、このデータベース4からのフィル
インパターンはフィルインパターン生成部5に与えられ
る。The performance pattern generator 3 generates a performance pattern for drum performance based on the rhythm pattern generated by the rhythm pattern generator 1 and the drum pattern from the drum pattern database 2. The fill-in pattern database 4 stores the structure and type of fill-in, and which part of the music is to be accented. The fill-in pattern from this database 4 is given to the fill-in pattern generator 5.
【0022】また、このフィルインパターン生成部5に
は、上記演奏パターン生成部3で生成された演奏パター
ンが与えられ、演奏パターンのうちフィルインパターン
で示される部分のアクセントが強調付けられる。ドラム
の表情付データベース6には生成されたドラムの演奏パ
ターンに対して音の強弱と発音タイミングを変化させる
ための表情付データが蓄積されており、この表情付デー
タはドラム表情付部7に与えられ、演奏パターンに対し
て表情付される。The play-in pattern generated by the play- pattern generating section 3 is given to the fill-in pattern generating section 5, and the accent of the portion indicated by the fill-in pattern in the play pattern is emphasized. The facial expression database 6 stores facial expression data for changing the sound intensity and sound generation timing for the generated drum performance pattern. The facial expression data is given to the drum facial expression adding section 7. The expression is given to the performance pattern.
【0023】一方、ベース表情付データベース8はベー
スの表情付データを拍毎に蓄積しており、この表情付デ
ータはベース表情付部9に与えられる。ベース表情付部
9はMIDIデータの拍単位のパターンに対してベース
音の強弱などの表情付を行ない、表情付したパターンを
タイミング合わせ部10に与える。このタイミング合わ
せ部10には、ドラム表情付部7から拍毎にどの強さで
いつ発音するかの情報が与えられている。そして、この
タイミング合わせ部10ではドラム表情付部7で生成さ
れた表情付されたドラムの演奏パターンの発音タイミン
グにベースデータの発音タイミングを合わせる。すなわ
ち、拍単位の演奏パターンに基づいて、発音のタイミン
グはドラムデータの処理過程で生成されたタイミングに
合わされる。On the other hand, the base facial expression database 8 stores the base facial expression data for each beat, and this facial expression data is given to the base facial expression attaching section 9. The bass facial expression attaching section 9 attaches an expression such as the strength of the bass sound to the beat unit pattern of the MIDI data, and gives the pattern with the expression to the timing adjusting section 10. The timing adjusting section 10 is provided with information from the drum expression adding section 7 regarding how strong and at which time to pronounce each beat. Then, the timing matching unit 10 matches the sounding timing of the bass data with the sounding timing of the performance pattern of the drum with the expression generated by the drum expression adding unit 7. That is, the timing of sound generation is matched with the timing generated in the process of processing the drum data, based on the performance pattern in beat units.
【0024】このようにして表情付されたベースの演奏
データはMIDIデータ発生部11に与えられる。これ
と同時にドラム表情付部7で生成された表情付されたド
ラムの演奏パターンは、このMIDIデータ発生部11
に与えられ、全パートに対して表情付されたMIDIデ
ータが生成される。このMIDIデータ出力はMIDI
規格の音源に送られ、人間の生の演奏の如く演奏され
る。The performance data of the bass with the expression thus given is given to the MIDI data generator 11. At the same time, the playing pattern of the drum with the facial expression generated by the drum facial expression adding section 7 is the MIDI data generating section 11
MIDI data that is given to all parts and is given an expression is generated. This MIDI data output is MIDI
It is sent to a standard sound source and played like a human live performance.
【0025】上述の如く構成することによって、入力さ
れたMIDIデータからリズムパターンを抽出し、その
リズムパターンと蓄積されているドラムパターンとから
演奏パターンを生成し、その演奏パターンの必要な箇所
のアクセントを強調し、音の強弱と発音タイミングと長
さの変化やゴースト音を付加させて演奏パターンに表情
付する。With the above-mentioned configuration, a rhythm pattern is extracted from the input MIDI data, a performance pattern is generated from the rhythm pattern and the accumulated drum pattern, and an accent at a required portion of the performance pattern is generated. The expression is added to the performance pattern by emphasizing the strength of the sound and adding ghost sounds and changes in the sound timing and duration.
【0026】一方、MIDIデータの拍単位のパターン
に対してドラムのようなリズム楽器以外のベースのよう
な楽器によるベース音の強調および表情付し、表情付し
たパターンをドラムの演奏パターンのタイミングに合わ
せることによって、曲全体の統一的な表情付を行なうこ
とができる。On the other hand, the beat-based pattern of MIDI data is emphasized and given an expression of a bass sound by an instrument such as a bass other than a rhythm instrument such as a drum, and the expression-added pattern is used as the timing of the playing pattern of the drum. By matching them, it is possible to give a uniform expression to the whole song.
【0027】なお、リズムパターン発生部1は、入力さ
れたMIDIデータに依存するすべてのパートから、そ
れぞれのパートのリズムパターンを生成しているが、そ
のリズムパターンのうちどのパートのリズムパターンを
採用するかは、指定手段Aを用いてキーボードなどの外
部操作によって指定できる。The rhythm pattern generating section 1 generates the rhythm pattern of each part from all the parts that depend on the input MIDI data. The rhythm pattern of which part of the rhythm patterns is adopted. Whether to do so can be specified by an external operation such as a keyboard using the specifying means A.
【0028】また、演奏パターン生成部3は、リズムパ
ターン発生部1で生成されたリズムパターンをもとに演
奏パターンを生成するが、そのリズムパターンの代わり
にリズムパターン入力手段Bを用いることによって、ユ
ーザが入力した好みのリズムパターンをもとに演奏パタ
ーンを生成できる。そして、この演奏パターン生成部3
は、リズムパターン発生部1が生成したリズムパターン
とユーザが入力したリズムパターンのどちらを採用する
かを選択できる。そのとき、演奏パターン生成部3はユ
ーザが好みのリズムを選択したときには、リズムパター
ン発生部1が生成した曲本来のリズムパターンとユーザ
が入力したリズムパターンの共通項をとり、共通リズム
から優先されたリズムに似通ったリズムパターンを生成
する。[0028] In addition, the play pattern generator 3, Starring on the basis of the rhythm pattern that has been generated by the rhythm pattern generating unit 1
While generating a response rate pattern by using a rhythm pattern input unit B on behalf of the rhythm pattern, playback pattern based on the rhythm pattern preferences entered by the user
It can generate over emissions. Then, this performance pattern generation unit 3
Can select either the rhythm pattern generated by the rhythm pattern generation unit 1 or the rhythm pattern input by the user. At this time, when the user selects a favorite rhythm, the performance pattern generation unit 3 takes the common term of the original rhythm pattern of the music generated by the rhythm pattern generation unit 1 and the rhythm pattern input by the user, and gives priority to the common rhythm. Rhythm pattern similar to the rhythm.
【0029】さらに、フィルイン付加部5はフィルイン
入力手段Cを用いて外部からユーザがキーボードにより
曲のどの部分にアクセントを付けたいかを示すフィルイ
ン位置を選択できるようにしてもよい。さらに、ユーザ
の好みに応じた表情付を行なうために、表情付手段Dを
用いて、発音のタイミングの揺らぎの大きさやゴースト
音の付加やフィルインパターンの細かさを指定すること
ができる。Further, the fill-in adding section 5 may be configured such that the user can select the fill-in position from the outside by using the fill-in input means C, which indicates which part of the music piece to be accented by the keyboard. Furthermore, in order to add an expression according to the user's preference, the expression adding means D can be used to specify the magnitude of fluctuation in the timing of sounding, the addition of ghost sounds, and the fineness of the fill-in pattern.
【0030】図3はこの発明の第2の実施形態を示すブ
ロック図である。この実施形態は、リズム楽器以外の楽
器として複数の楽器を用いるものであり、ベースの他に
ギターが用いられる。このために、MIDIデータには
ベース,ドラムおよびギターのパートをもつ楽曲の楽譜
が記述されている。FIG. 3 is a block diagram showing a second embodiment of the present invention. In this embodiment, a plurality of musical instruments are used as musical instruments other than the rhythm musical instrument, and a guitar is used in addition to the bass. For this reason, the MIDI data describes the musical score of a musical composition having bass, drum, and guitar parts.
【0031】ギター表情付データベース12には、ミュ
ートギターやクリーンギターなどに関して表情付のパタ
ーンデータが蓄積されており、ギター表情付部13はギ
ター表情付パターンに基づいてMIDIデータに表情付
する。表情付されたデータは図2で説明したベース表情
付部9で表情付されたデータとともにタイミング合わせ
部10に与えられ、ドラムの演奏パターンに基づくタイ
ミングに合わせられる。The guitar facial expression database 12 stores facial expression pattern data relating to a mute guitar, a clean guitar, etc., and the guitar facial expression adding section 13 adds facial expressions to MIDI data based on the guitar facial expression pattern. The expression given data given to the timing matching unit 10 together with data attached facial expression based expression attaching portions 9 described in FIG. 2, match the timing based on the play pattern of the drum.
【0032】なお、この実施形態においても、表情付さ
れる情報として音の強弱,発音の長さおよびゴースト音
の付加が行なわれる。Also in this embodiment, the strength and weakness of the sound, the length of the sound, and the ghost sound are added as the information to which the facial expression is added.
【0033】したがって、この実施形態では、ドラムの
演奏パターンのタイミングに合わせてベースとギターの
パートを人間の生演奏に非常に近い形態でMIDIデー
タを生成できる。Therefore, in this embodiment, the MIDI data can be generated in a form very close to a live human performance of the bass and guitar parts at the timing of the performance pattern of the drum.
【0034】図4はこの発明の第3の実施形態を示すブ
ロック図である。この実施形態は、リズム楽器以外の楽
器としてベースとギターとサクソフォンを用いるもので
ある。このために、MIDIデータには、ベース,ドラ
ム,ギターおよびサクソフォンのパートを持つ楽曲の楽
譜が記述されている。サクソフォン表情付データベース
14には、サクソフォンの表情付のパターンのデータが
蓄積されており、これに対応してサクソフォン表情付部
15が設けられている。サクソフォン表情付部15はサ
クソフォン表情付パターンに基づいて、MIDIデータ
に表情付する。表情付されたデータはタイミング合わせ
部10に与えられ、ベース表情付部9およびギター表情
付部13でそれぞれ表情付されたデータとともに演奏パ
ターンに基づくタイミングに合わせられる。FIG. 4 is a block diagram showing a third embodiment of the present invention. This embodiment uses a bass, a guitar, and a saxophone as an instrument other than a rhythm instrument. For this reason, the MIDI data describes the score of a musical composition having parts of bass, drum, guitar, and saxophone. The saxophone facial expression database 14 stores data of saxophone facial expression patterns, and a saxophone facial expression adding section 15 is provided corresponding to the data. The saxophone facial expression adding unit 15 adds facial expressions to the MIDI data based on the saxophone facial expression pattern. The expression-added data is given to the timing adjusting unit 10, and is adjusted to the timing based on the performance pattern together with the expression-added data in the bass expression adding unit 9 and the guitar expression adding unit 13.
【0035】この実施形態においても、上述したように
音の強弱,発音の長さやゴースト音の付加が表情付情報
として付加される。Also in this embodiment, as described above, the strength and weakness of the sound, the length of the sound, and the addition of the ghost sound are added as the facial expression information.
【0036】したがって、この実施形態においても、ド
ラムの演奏パターンのタイミングに合わせてベースとギ
ターとサクソフォンのパートを人間の生演奏に非常に近
い形態でMIDIデータを生成できる。Therefore, also in this embodiment, the MIDI data can be generated in a form very close to a live human performance of the bass, guitar, and saxophone parts in accordance with the timing of the performance pattern of the drum.
【0037】図5はこの発明の第4の実施形態を示すブ
ロック図である。前述の図2〜図4に示した各実施形態
では、ドラムの演奏パターンのタイミングに他の楽器の
パートを合わせるようにしたのに対して、この実施形態
ではサクソフォンの発音タイミングでサクソフォン以外
のドラムを含むすべての楽器のパートの発音タイミング
を合わせるものである。FIG. 5 is a block diagram showing a fourth embodiment of the present invention. In the embodiments shown in FIGS. 2 to 4 described above, the parts of other musical instruments are matched to the timing of the playing pattern of the drum, whereas in this embodiment, the drums other than the saxophone are synchronized at the sounding timing of the saxophone. This is to match the sounding timings of all musical instrument parts including.
【0038】このために、サクソフォンタイミングデー
タベース16にはサクソフォンの発音タイミングがフレ
ーズ単位で保持されている。なお、フレーズとは人間が
メロディの構成単位と感じる1拍から数小節の長さを持
つ音の羅列であり、入力データに対してフレーズは自動
認識される。この自動認識については後述する。この発
音タイミングのデータはタイミング合わせ部17に与え
られる。タイミング合わせ部17は図4の実施形態での
サクソフォンデータの表情付と同様にしてフレーズ単位
で照合を行ない、その際に人間の演奏時の発音タイミン
グをサクソフォンデータベース16から取り込む。そし
て、MIDIデータ生成部18によってこの発音タイミ
ングで演奏パターンがMIDIデータとして出力され
る。For this reason, the saxophone timing database 16 holds the pronunciation timing of the saxophone in phrase units. A phrase is an enumeration of sounds having a length of one beat to several bars that humans perceive as a melody constituent unit, and phrases are automatically recognized for input data. This automatic recognition will be described later. The sound generation timing data is given to the timing adjusting section 17. The timing adjustment unit 17 performs matching on a phrase-by-phrase basis in the same manner as with the expression of the saxophone data in the embodiment of FIG. 4, and at that time fetches the pronunciation timing of the human performance from the saxophone database 16. Then, the MIDI data generator 18 outputs the performance pattern as MIDI data at this sounding timing.
【0039】ここで、フレーズの自動認識について具体
的に説明する。人間は入力された音楽を感覚的に「区切
り」を付けている。それと同じ区切りをこの発明の自動
表情付装置が検出する。Here, the automatic recognition of phrases will be specifically described. Humans intuitively add "breaks" to the input music. The same facial expression is detected by the automatic facial expression adding device of the present invention.
【0040】図6はフレーズを認識する方法を説明する
ための図であり、図6(a)に示すように、発音間隔P
1 ,P2 ,P3 のそれぞれに対して、音のある期間がD
1 ,D2 ,D3 であるとすると、各期間D1 ,D2 ,D
3 のそれぞれの間の区切りを検出する。FIG. 6 is a diagram for explaining a method of recognizing a phrase. As shown in FIG.
For each of 1 , P 2 , P 3 , the period with sound is D
1 , D 2 , D 3 , each period D 1 , D 2 , D
Detects breaks between each of the three .
【0041】図6(b)は実際の楽譜における区切りを
検出する方法を示し、音符iをフレーズの始めとする
と、区切りを検出するための条件の式が下記のように定
められる。[0041] FIG. 6 (b) shows a method of detecting a break in the actual music and including sound marks i phrases, expressions of conditions for detecting a delimiter is defined as follows.
【0042】Ai =Pi /Pi-1 、Bi =Pi −Di
(音符iがフレーズの始め)
ここで、Ai はある発音間隔Pi とその1つ前の発音間
隔Pi-1 との比であり、Bi はある発音間隔Pi の音
のない期間を示している。なお、ここでいう発音間隔と
は、1つの音符と次の音符が鳴るまでの間隔(時間)の
ことで、固定されたものではない。A i = P i / P i-1 , B i = P i -D i
(Sound marks i is the beginning of the phrase), where the ratio of the sound interval P i-1 of the previous A i is to be sound interval P i One, B i is no certain sound interval P i sound The period is shown. Here, the terms sound interval say, 1 Tsunooto marks and spacing (time) until the next note marks is heard in that, not fixed.
【0043】そして、図6の(i),(ii),(ii
i),(iv)の例では、次の条件のどれかを満たすも
のが区切りとなる。Then, (i), (ii), and (ii) in FIG.
In the example of i) and (iv), the one that satisfies any of the following conditions is a delimiter.
【0044】(i) Ai <0.5かつ、Bi-1 ≧
8分音符の長さ
(ii) Bi-1 ≧4分音符の長さ
(iii) Ai ≦0.15かつ、Di-1 ≧2分音符の
長さ
(iv) Ai <0.2かつ、Bi-1 >0
この実施形態では、サクソフォンの発音タイミングで他
のパートの発音タイミングを合わせたが、サクソフォン
に限ることなく、タイミングデータベースを持つ楽器で
あれば同様に採用できる。(I) A i <0.5 and B i-1 ≧
8 the length of the diacritic marks (ii) the length of the B i-1 ≧ 4 diacritical marks (iii) A i ≦ 0.15 and, the D i-1 ≧ 2 diacritical marks
Length (iv) A i <0.2 and B i-1 > 0 In this embodiment, the sounding timings of other parts are matched with the sounding timing of the saxophone, but the timing database is not limited to the saxophone. Any musical instrument can be used as well.
【0045】上述の如く、この発明の各実施形態によれ
ば、曲のリズム部分に関しては入力データにドラムパー
トが存在しなくても、他の楽器のパートがあれば曲に合
いかつ人間らしい演奏のドラムパートを自動生成でき
る。しかも、表情付に用いているデータが実際の生演奏
であるため、人間の演奏データに近いMIDIデータを
自動生成できる。さらに、処理が自動であり、処理速度
が速いため、実時間処理が可能である。As described above, according to each of the embodiments of the present invention, regarding the rhythm portion of the music, even if there is no drum part in the input data, if there is a part of another musical instrument, the music is suitable for a human-like performance. Drum parts can be automatically generated. Moreover, since the data used to add facial expressions is an actual live performance, MIDI data close to human performance data can be automatically generated. Furthermore, since the processing is automatic and the processing speed is high, real-time processing is possible.
【0046】さらに、MIDIデータを用いているた
め、データの量が少なく、ネットワークを介した音楽デ
ータの配布に適しており、データサイズが非常に大きい
演奏データのサンプリングデータと同等の品質の演奏デ
ータを、その1〜10%程度の小さいサイズで自動生成
でき、また、各種の記録媒体への記録負担を軽減するこ
とができる。Furthermore, since MIDI data is used, the amount of data is small, and it is suitable for distribution of music data via a network, and the performance data has the same quality as the sampling data of the performance data having a very large data size. Can be automatically generated with a small size of about 1 to 10% thereof, and the recording load on various recording media can be reduced.
【0047】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.
【0048】[0048]
【発明の効果】以上のように、この発明によれば、入力
されたMIDIデータからリズムパターンを抽出し、予
め保持されているリズム感と抽出されたリズムパターン
とに基づいて演奏パターンを生成し、リズム楽器以外の
楽器の表情パターンに基づいてその楽器の表情付を行な
い、演奏パターンに基づいて表情付されたデータのタイ
ミングをとって出力するようにしたので、データ量の少
ないMIDIデータを用いて人間の生演奏に近いデータ
を生成できる。As described above, according to the present invention, a rhythm pattern is extracted from input MIDI data, and a performance pattern is generated based on a rhythm feeling held in advance and the extracted rhythm pattern. , MIDI data with a small amount of data is used because the expression of the musical instrument other than the rhythm musical instrument is added to the expression of the musical instrument, and the expression-added data is output at the timing based on the performance pattern. It can generate data that is close to human live performance.
【0049】さらに、ユーザがリズムパターンを入力す
ることによって、本来の演奏パターンとリズムパターン
との整合性をとることができ、さらにユーザの要求に基
づいて演奏パターンの必要な箇所にアクセントを付ける
ことができる。Further, by inputting the rhythm pattern by the user, the original performance pattern and the rhythm pattern can be matched with each other, and further, the required portion of the performance pattern can be accented based on the user's request. You can
【0050】特に、ユーザによってリズムの表情付の好
みを設定でき、さらにリズム楽器以外の複数の楽器を演
奏する場合には曲全体の統一的な表情付が可能となり、
より一層生演奏に近い演奏データが得られる。In particular, the user can set the rhythm expression preference, and when playing a plurality of musical instruments other than the rhythm musical instrument, it becomes possible to give a uniform expression to the entire song.
Performance data closer to a live performance can be obtained.
【0051】さらに、リードする楽器のタイミングに基
づいて曲全体の演奏も可能にすることができる。Further, it is possible to enable the performance of the entire tune based on the timing of the instrument to be lead.
【図1】 この発明の自動演奏付装置の周辺部を示すブ
ロック図である。FIG. 1 is a block diagram showing a peripheral part of a device with automatic performance according to the present invention.
【図2】 この発明の第1の実施形態の自動表情付装置
の概略ブロック図である。FIG. 2 is a schematic block diagram of an automatic facial expression adding device according to the first embodiment of the present invention.
【図3】 この発明の第2の実施形態の自動表情付装置
の概略ブロック図である。FIG. 3 is a schematic block diagram of an automatic facial expression adding device according to a second embodiment of the present invention.
【図4】 この発明の第3の実施形態の自動表情付装置
の概略ブロック図である。FIG. 4 is a schematic block diagram of an automatic facial expression adding device according to a third embodiment of the present invention.
【図5】 この発明の第4の実施形態の自動表情付装置
の概略ブロック図である。FIG. 5 is a schematic block diagram of an automatic facial expression adding device according to a fourth embodiment of the present invention.
【図6】 フレーズを認識する方法を説明するための図
である。FIG. 6 is a diagram for explaining a method of recognizing a phrase.
1 リズムパターン発生部、2 ドラムパターンデータ
ベース、3 ドラムパターン発生部、4 フィルインパ
ターンデータベース、5 フィルインパターン生成部、
6 ドラム表情付データベース、7 ドラム表情付部、
8 ベース表情付データベース、9 ベース表情付部、
10,17 タイミング合わせ部、11,18 MID
Iデータ生成部、12 ギター表情付データベース、1
3 ギター表情付部、14 サクソフォン表情付データ
ベース、15 サクソフォン表情付部、16 サクソフ
ォンタイミングデータベース。1 rhythm pattern generation unit, 2 drum pattern database, 3 drum pattern generation unit, 4 fill-in pattern database, 5 fill-in pattern generation unit,
Database with 6 drum expressions, section with 7 drum expressions,
8 base facial expression database, 9 base facial expression part,
10,17 Timing adjustment unit, 11,18 MID
I data generator, 12 database with guitar expression, 1
3 guitar facial expression part, 14 saxophone facial expression database, 15 saxophone facial expression part, 16 saxophone timing database.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 下原 勝憲 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール人 間情報通信研究所内 (56)参考文献 特開 平5−73036(JP,A) 特開 平5−297868(JP,A) 特開 平5−323963(JP,A) 特開 平6−348261(JP,A) 特開 平8−263061(JP,A) 特開 平8−305364(JP,A) 特開 平9−81145(JP,A) 特開 平10−222166(JP,A) 特開 昭57−67996(JP,A) 実開 昭57−115097(JP,U) (58)調査した分野(Int.Cl.7,DB名) G10H 1/00 - 7/12 G10K 15/04 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Katsunori Shimohara, No. 5, Mihiratani, Osamu Osamu, Seika-cho, Soraku-gun, Kyoto Pref. JP-A-5 -73036 (JP, A) JP 5-297868 (JP, A) JP 5-323963 (JP, A) JP 6-348261 (JP, A) JP 8-263061 (JP, A) ) JP-A-8-305364 (JP, A) JP-A-9-81145 (JP, A) JP-A-10-222166 (JP, A) JP-A-57-67996 (JP, A) Practical application Sho-57- 115097 (JP, U) (58) Fields investigated (Int.Cl. 7 , DB name) G10H 1/00-7/12 G10K 15/04
Claims (4)
けする楽曲の自動表情付装置であって、 リズム楽器の構成とリズム楽器のリズム感を示すリズム
楽器パターンを保持するリズム楽器パターン保持手段
と、 MIDI規格に準拠した、1または複数の楽器のパート
からなるMIDIデータのうち特定の楽器のパートから
第1のリズムパターンを生成するリズム生成手段と、 ユーザの好みの第2のリズムパターンを入力するための
リズムパターン入力手段と、 前記リズム楽器パターン保持手段によって保持されてい
るリズム楽器パターンと、前記リズム生成手段から生成
された第1のリズムパターンおよび前記リズムパターン
入力手段から入力された第2のリズムパターンとに基づ
いて、演奏パターンを生成する演奏パターン生成手段
と、 リズム楽器以外の1または複数の楽器の表情付けパター
ンを保持する表情付けパターン保持手段と、 前記表情付けパターン保持手段に保持されている表情付
けパターンに基づいて、前記MIDIデータのうち1ま
たは複数の楽器のパートにつき、表情付けする表情付け
手段と、 前記演奏パターン生成手段によって生成された演奏パタ
ーンの発音タイミングに、前記表情付けされたMIDI
データの発音タイミングを合わせるタイミング 合わせ手
段と、前記演奏パターン生成手段によって生成された演奏パタ
ーンと、前記タイミング合わせされた前記表情付けされ
たMIDIデータとに基づいて、新たなMIDIデータ
を生成して出力する出力手段とを備えた楽曲の自動表情
付装置。 1. A musical composition described in the MIDI standard is provided with an expression.
A device for automatically expressing a musical piece to be played, which is a rhythm showing the configuration of the rhythm musical instrument and the rhythmic feeling of the rhythm musical instrument.
Rhythm musical instrument pattern holding means for holding musical instrument patterns
And one or more musical instrument parts that comply with the MIDI standard.
From the part of the specific instrument in the MIDI data consisting of
Rhythm generating means for generating a first rhythm pattern, and a second rhythm pattern for inputting a second rhythm pattern preferred by the user.
It is held by the rhythm pattern input means and the rhythm instrument pattern holding means.
Rhythm musical instrument pattern generated by the rhythm generating means
First rhythm pattern and the rhythm pattern
Based on the second rhythm pattern input from the input means,
And a performance pattern generating means for generating a performance pattern
And putters for expression of one or more instruments other than rhythm instruments
Holding the facial expression pattern holding means and the facial expression holding pattern held by the facial expression pattern holding means
One of the MIDI data based on the
Or facial expressions for parts of multiple instruments
And a performance pattern generated by the performance pattern generating means.
MIDI with the above expression at the timing of pronunciation
Timing matching means for matching the sounding timing of the data, and the performance pattern generated by the performance pattern generating means.
And the timed expression is added.
New MIDI data based on
Expression of music with output means for generating and outputting
Attached device.
のリズムパターンと、前記第2のリズムパターンのいず
れかを選択し、前記第1のリズムパターンと前記第2の
リズムパターンの共通リズムを抽出し、前記共通リズム
から前記選択されたリズムパターンに似通ったリズムパ
ターンを生成して、当該リズムパター ンに基づいて演奏
パターンを生成する、請求項1記載の楽曲の自動表情付
装置。 2. The performance pattern generating means is the first
Of the second rhythm pattern and the rhythm pattern of
Select one of them and select the first rhythm pattern and the second rhythm pattern.
The common rhythm of the rhythm pattern is extracted, and the common rhythm is extracted.
A rhythm pattern similar to the rhythm pattern selected from
To generate a turn, playing on the basis of the rhythm pattern
The automatic expression of the musical composition according to claim 1, which generates a pattern.
apparatus.
けする楽曲の自動表情付装置であって、 リズム楽器の構成とリズム楽器のリズム感を示すリズム
楽器パターンを保持するリズム楽器パターン保持手段
と、 MIDI規格に準拠した、1または複数の楽器のパート
からなるMIDIデータのうち特定の楽器のパートから
リズムパターンを生成するリズム生成手段と、 前記リズム楽器パターン保持手段によって保持されてい
るリズム楽器パターンと、前記リズム生成手段から生成
されたリズムパターンとに基づいて、演奏パターンを生
成する演奏パターン生成手段と、 ユーザがリズム楽器の音の強弱、発音タイミングのゆら
ぎ、およびゴースト音を含む表情付けパターンの好みを
入力する表情付けパターン入力手段と、 前記表情付けパターン入力手段から入力されたリズム楽
器の表情付けパターンの好みに基づいて、前記演奏パタ
ーンに好みの表情付けを行なう表情付け付加手段と、 リズム楽器以外の1または複数の楽器の前記表情付けパ
ターンを保持する表情付けパターン保持手段と、 前記表情付けパターン保持手段に保持されている表情付
けパターンに基づいて、前記MIDIデータのうち1ま
たは複数の楽器のパートにつき、表情付けする表情付け
手段と、 前記表情付け付加手段によって表情付けされた演奏パタ
ーンの発音タイミングに、前記表情付けされたMIDI
データの発音タイミングを合わせるタイミング合わせ手
段と、 前記表情付け付加手段によって表情付けされた演奏パタ
ーンと、前記タイミング合わせされた前記表情付けされ
たMIDIデータとに基づいて、新たなMIDIデータ
を生成して出力する出力手段とを備えた楽曲の自動表情
付装置。 3. A musical composition described in the MIDI standard is provided with an expression.
A device for automatically expressing a musical piece to be played, which is a rhythm showing the configuration of the rhythm musical instrument and the rhythmic feeling of the rhythm musical instrument.
Rhythm musical instrument pattern holding means for holding musical instrument patterns
And one or more musical instrument parts that comply with the MIDI standard.
From the part of the specific instrument in the MIDI data consisting of
Held by the rhythm generating means for generating a rhythm pattern and the rhythm musical instrument pattern holding means
Rhythm musical instrument pattern generated by the rhythm generating means
Performance pattern based on the selected rhythm pattern.
The performance pattern generation means to be performed, and the user's fluctuation of sound intensity and sound timing of the rhythm musical instrument.
And the preference of facial expression patterns including ghost sounds
A facial expression with the pattern input means for inputting rhythm music input from the expressive pattern input means
Based on the preference of the facial expression pattern of the vessel, the performance pattern
The expression adding means for giving a desired expression to the musical instrument , and the expression adding pattern for one or more musical instruments other than the rhythm musical instrument.
A facial expression pattern holding means for holding a turn, and a facial expression pattern holding means for holding the facial expression pattern holding means .
One of the MIDI data based on the
Or facial expressions for parts of multiple instruments
Means and a performance pattern applied with the expression by the expression adding means.
MIDI with the above expression at the timing of pronunciation
Timing adjuster that adjusts the sounding timing of data
A stage and a performance pattern that is given a facial expression by the facial expression adding means.
And the timed expression is added.
New MIDI data based on
Expression of music with output means for generating and outputting
Attached device.
けする楽曲の自動表情付装置であって、 リズム楽器の構成とリズム楽器のリズム感を示すリズム
楽器パターンを保持す るリズム楽器パターン保持手段
と、 MIDI規格に準拠した、1または複数の楽器のパート
からなるMIDIデータのうち特定の楽器のパートから
リズムパターンを生成するリズム生成手段、 前記リズム楽器パターン保持手段によって保持されてい
るリズム楽器パターンと、前記リズム生成手段から生成
されたリズムパターンとに基づいて、演奏パターンを生
成する演奏パターン生成手段と、 リズム楽器以外の1または複数の楽器の表情付けパター
ンを保持する表情付けパターン保持手段と、 前記表情付けパターン保持手段に保持されている表情付
けパターンに基づいて、前記MIDIデータのうち、少
なくとも前記表情付けパターン保持手段に表情付けパタ
ーンが保持されているリズム楽器以外の楽器であって、
演奏をリードする楽器のパートにつき、表情付けする表
情付け手段と、 前記演奏をリードする楽器の発音タイミングをフレーズ
単位で保持するタイミング保持手段と、 前記表情付けされたMIDIデータおよび前記演奏パタ
ーンのフレーズを認識するフレーズ認識手段と、 前記タイミング保持手段に保持されている発音タイミン
グに、前記表情付けされたMIDIデータおよび前記演
奏パターンの発音タイミングをフレーズ単位で合わせる
タイミング合わせ手段と、 前記タイミング合わせされた、前記表情付けされたMI
DIデータおよび前記演奏パターンとに基づいて、新た
なMIDIデータを生成して出力する出力手段とを備
え、 前記フレーズ認識手段は、 音符iの発音間隔P i とし、音符iの音のある期間をD i
とし、A i =P i /P i-1 、B i =P i −D i としたとき
に、 次の(i)〜(iv)のいずれかの条件を満たしたとき
に、音符iをフレーズの始めと認識する、楽曲の自動表
情付装置。 (i) A i <0.5かつ、B i-1 ≧8分音符の長
さ (ii) B i-1 ≧4分音符の長さ (iii) A i ≦0.15かつ、D i-1 ≧2分音符の
長さ (iv) A i <0.2かつ、B i-1 >0 4. A musical composition described in the MIDI standard is provided with an expression.
A device for automatically expressing a musical piece to be played, which is a rhythm showing the configuration of the rhythm musical instrument and the rhythmic feeling of the rhythm musical instrument.
Rhythm instruments pattern holding means that holds a musical instrument pattern
And one or more musical instrument parts that comply with the MIDI standard.
From the part of the specific instrument in the MIDI data consisting of
Rhythm generating means for generating a rhythm pattern, held by the rhythm instrument pattern holding means
Rhythm musical instrument pattern generated by the rhythm generating means
Performance pattern based on the selected rhythm pattern.
Means for generating performance patterns and a putter for expression of one or more musical instruments other than rhythm musical instruments
Holding the facial expression pattern holding means and the facial expression holding pattern held by the facial expression pattern holding means
Of the MIDI data based on the key pattern.
Even if the facial expression pattern holding means is not provided,
Instruments other than the rhythm instrument in which
A table that gives an expression of the parts of the instrument that lead the performance
Phrases the emotional means and the pronunciation timing of the instrument that leads the performance
Timing holding means for holding in units, the MIDI data with the expression and the performance pattern
Phrase recognition means for recognizing a phrase of a tone and a pronunciation timing held by the timing holding means.
The MIDI data with the expression and the performance.
Match the sounding timing of the playing pattern in phrase units
Timing adjusting means, and the timed and faced MI
New based on the DI data and the performance pattern
And output means for generating and outputting various MIDI data
The phrase recognizing means sets the sounding interval P i of the note i as D i and sets the period during which the note i is present as D i.
And then, when the A i = P i / P i -1, B i = P i -D i
When any of the following conditions (i) to (iv) is satisfied,
Automatically recognizes the note i at the beginning of the phrase.
Emotional device. (I) A i <0.5 and B i-1 ≧ eighth note length
Is (ii) B i-1 ≧ 4 note minutes long (iii) A i ≦ 0.15 and, D i-1 ≧ note 2 minutes
Length (iv) A i <0.2 and B i-1 > 0
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21477899A JP3457582B2 (en) | 1998-11-04 | 1999-07-29 | Automatic expression device for music |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10-313182 | 1998-11-04 | ||
JP31318298 | 1998-11-04 | ||
JP21477899A JP3457582B2 (en) | 1998-11-04 | 1999-07-29 | Automatic expression device for music |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000200086A JP2000200086A (en) | 2000-07-18 |
JP3457582B2 true JP3457582B2 (en) | 2003-10-20 |
Family
ID=26520499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21477899A Expired - Fee Related JP3457582B2 (en) | 1998-11-04 | 1999-07-29 | Automatic expression device for music |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3457582B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4007418B2 (en) * | 2000-06-05 | 2007-11-14 | ヤマハ株式会社 | Performance data expression processing apparatus and recording medium therefor |
CN112567450B (en) | 2018-08-10 | 2024-03-29 | 雅马哈株式会社 | Information processing apparatus for musical score data |
-
1999
- 1999-07-29 JP JP21477899A patent/JP3457582B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000200086A (en) | 2000-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6191349B1 (en) | Musical instrument digital interface with speech capability | |
CN1770258B (en) | Rendition style determination apparatus and method | |
US6946595B2 (en) | Performance data processing and tone signal synthesizing methods and apparatus | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP3457582B2 (en) | Automatic expression device for music | |
JP2004078095A (en) | Playing style determining device and program | |
JP3812510B2 (en) | Performance data processing method and tone signal synthesis method | |
JP3618203B2 (en) | Karaoke device that allows users to play accompaniment music | |
JP3879524B2 (en) | Waveform generation method, performance data processing method, and waveform selection device | |
JP4802947B2 (en) | Performance method determining device and program | |
WO2022208627A1 (en) | Song note output system and method | |
JP3812509B2 (en) | Performance data processing method and tone signal synthesis method | |
JP2003114680A (en) | Apparatus and program for musical sound information editing | |
JP2003271142A (en) | Device and method for displaying and editing way of playing | |
JP3885803B2 (en) | Performance data conversion processing apparatus and performance data conversion processing program | |
JPH10171475A (en) | Karaoke (accompaniment to recorded music) device | |
JP3494095B2 (en) | Tone element extraction apparatus and method, and storage medium | |
EP1017039B1 (en) | Musical instrument digital interface with speech capability | |
JP3637782B2 (en) | Data generating apparatus and recording medium | |
JP2671889B2 (en) | Electronic musical instrument | |
JP2679308B2 (en) | Sound source determination device and electronic musical instrument using the same | |
JP3897026B2 (en) | Performance data conversion processing apparatus and performance data conversion processing program | |
CN118197263A (en) | Voice synthesis method, device, terminal equipment and storage medium | |
JP2010266680A (en) | System, method, and program for generating accompaniment | |
JP2003271139A (en) | Device and method for automatically determining way of playing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030630 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |