JP2000200086A - 楽曲の自動表情付装置 - Google Patents

楽曲の自動表情付装置

Info

Publication number
JP2000200086A
JP2000200086A JP11214778A JP21477899A JP2000200086A JP 2000200086 A JP2000200086 A JP 2000200086A JP 11214778 A JP11214778 A JP 11214778A JP 21477899 A JP21477899 A JP 21477899A JP 2000200086 A JP2000200086 A JP 2000200086A
Authority
JP
Japan
Prior art keywords
expression
pattern
rhythm
timing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11214778A
Other languages
English (en)
Other versions
JP3457582B2 (ja
Inventor
Tetsuya Maeshiro
哲也 真栄城
Tadashi Higuchi
直史 樋口
Katsunori Shimohara
勝憲 下原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR NINGEN JOHO TSUSHIN KENKYU
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR NINGEN JOHO TSUSHIN KENKYU
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR NINGEN JOHO TSUSHIN KENKYU, ATR Advanced Telecommunications Research Institute International filed Critical ATR NINGEN JOHO TSUSHIN KENKYU
Priority to JP21477899A priority Critical patent/JP3457582B2/ja
Publication of JP2000200086A publication Critical patent/JP2000200086A/ja
Application granted granted Critical
Publication of JP3457582B2 publication Critical patent/JP3457582B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【課題】 人間が行なっていた表情付を自動的に行なえ
るような楽曲の自動表情付装置を提供する。 【解決手段】 リズムパターン発生部1は入力されたM
IDIデータからリズムパターンを抽出し、ドラムパタ
ーン発生部3はドラムパターンデータベース2からのド
ラムパターンと発生されたリズムパターンとに基づいて
演奏パターンを生成し、フィルインパターン生成部5は
フィルインパターンデータベース4からのデータに基づ
いてアクセントを強調し、ドラム表情付データベース6
からのデータによりドラム表情付部7で表情付して演奏
パターンを生成する。リズム楽器以外のベース表情付デ
ータベース8からのデータによりベース表情付部9によ
り表情付を行ない、タイミング合わせ部10で演奏パタ
ーンにタイミングを合わせ、MIDIデータ生成部11
から人間の生演奏に近いデータを生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は楽曲の自動表情付
装置に関し、特に、MIDI規格が使用されている楽曲
を演奏する装置に適用され、人間らしい演奏の表情付の
情報を付加するような楽曲の自動表情付装置に関する。
【0002】
【従来の技術】ネットワークを経由して音楽データを配
布する手段として、大きく分けて二通りが存在する。そ
の1つは音の波形データを数値化(サンプリング)して
演奏情報をそのまま伝送する方法である。ところが、こ
の方法では伝達するデータ量が多く、必然的にネットワ
ークを経由する場合には伝送時間が長くなってしまうと
いう欠点がある。
【0003】もう一方は、MIDI規格に代表される何
らかの規格に変換して配布する方法である。このような
規格に基づいてデータを変換する手法は、データ量が少
ない利点があるが、欠失する情報が多いという問題があ
る。特に、MIDI規格の場合、データ量はサンプリン
グデータと比較して1〜10%のデータ量であり、それ
ゆえ通信カラオケなどで採用されている。MIDI規格
で演奏データを記述する場合、MIDI規格で楽譜通り
に記述された演奏データをMIDI規格に対応した音源
で再生すると、譜面に沿って忠実に演奏はされるもの
の、人間の演奏とは大きく異なって聞こえる。そのた
め、人間味のある演奏をさせるためには、表情付という
作業が必要になるが、その作業には多大な労力と複数の
楽器の演奏技術に関する専門的な知識を要し、しかも手
動で行なわれなければならない。
【0004】なお、MIDI規格とは、電子楽器同士を
接続したり、電子音源とコンピュータとを接続して演奏
する場合の規格のことをいう。
【0005】一方、自動表情付システムもこれまでにい
くつか考えられているが、従来のシステムでは、ピアノ
だけあるいはギターだけというようなパート(楽器)毎
の処理に止まっているのが現状であり、曲全体の表情付
を考慮したパート毎の処理は行なわれていない。
【0006】
【発明が解決しようとする課題】上述の如く、従来の曲
の表情付には、少なくとも以下の2つの問題が存在す
る。
【0007】 MIDI規格は情報量の少なさから、
通信カラオケなど、音楽のネットワーク経由やフロッピ
ィディスクやコンパクトディスクなどの記録媒体に対す
るデータ配布に便利であるが、実際の演奏らしく聞こえ
るようにするには、データの変換を主に手動で行なって
おり、多大の努力と広範囲な専門知識を要する。
【0008】 自動表情付を行なうシステムでは、パ
ート毎の処理のみを行ない、曲全体のバランスがとれた
表情付が行なわれていない。
【0009】それゆえに、この発明の主たる目的は、人
間が行なっていた表情付を自動的に曲全体に行なえるよ
うな楽曲の自動表情付装置を提供することである。
【0010】
【課題を解決するための手段】請求項1に係る発明は、
MIDI規格で記述された楽曲に表情付する楽曲の自動
表情付装置であって、MIDIデータのパターンからリ
ズムパターンを生成するリズム生成手段と、リズム楽器
をどのタイミングで演奏するかを示すリズム感を保持す
るリズム感保持手段と、保持されているリズム感と生成
されたリズムパターンとに基づいて、演奏パターンを生
成する演奏パターン生成手段と、リズム楽器以外の楽器
の表情付パターンを保持する表情付パターン保持手段
と、保持されている表情付パターンに基づいてMIDI
データに表情付する表情付手段と、生成された演奏パタ
ーンに基づいて、表情付されたデータのタイミングをと
るタイミング手段と、リズム感のデータとタイミング手
段のタイミングとに基づいてMIDIデータとして出力
する出力手段とを備えて構成される。
【0011】請求項2に係る発明では、請求項1のリズ
ム感保持手段は、リズム楽器をどの強さで演奏するかを
示すリズム感をも保持している。
【0012】請求項3に係る発明は、さらにユーザの好
みのリズムパターンを入力するためのリズムパターン入
力手段を含み、演奏パターン生成手段はリズムパターン
入力手段から入力されたリズムパターンと生成された演
奏パターンとの整合性をとる。
【0013】請求項4に係る発明では、さらにユーザが
曲のどの部分にアクセントを付けたいかを入力するため
のフィルイン位置入力手段と、入力されたフィルイン位
置に基づいて演奏パターンにアクセントを付けるアクセ
ント付加手段とを含む。
【0014】請求項5に係る発明では、さらにユーザが
リズムの表情付の好みを入力する表情付入力手段と、入
力されたリズムの表情付の好みに基づいて、演奏パター
ンに好みの表情付する表情付付加手段を含む。
【0015】請求項6に係る発明では、請求項1の表情
付手段は、タイミングパターンをフレーズ単位で保持し
ており、この表情付手段はMIDIデータのフレーズを
認識するフレーズ認識手段にて認識してMIDIデータ
に表情付する。
【0016】請求項7に係る発明では、請求項6のフレ
ーズ認識手段は、前後の音譜の長さと発音間隔との比率
を用いてフレーズの認識をする。
【0017】請求項8に係る発明では、表情付パターン
保持手段はリズム楽器以外の楽器の表情付パターンを複
数含んでいて、表情付パターン保持手段は、複数の表情
付パターンに基づいてMIDIデータに表情付する。
【0018】請求項9に係る発明では、演奏をリードす
る楽器のタイミングパターンを保持するタイミングパタ
ーン保持手段と、保持されているタイミングパターンに
基づいてタイミング手段出力にタイミングを付加するタ
イミング付加手段とを含む。
【0019】
【発明の実施の形態】図1はこの発明の自動表情付装置
の周辺部分を示したブロック図であって、この発明によ
る自動表情付装置の入力端子にはMIDIデータが入力
され、出力端子からは自動的に表情付されたMIDIデ
ータが出力される。また、この自動表情付装置には、入
力端子に入力されるMIDIデータの中に存在する多数
の楽器のどのリズムを選択するかを使用者(ユーザ)が
指定するための指定手段Aと、ユーザ自身が好みのリズ
ムパターンを入力することができるリズムパターン入力
手段Bと、ユーザがマニュアルで演奏楽曲のどの部分に
アクセント付するかを指定できるフィルイン入力手段C
と、発音タイミングの揺らぎの大きさ,ゴースト音の付
加やフィルインパターンの細かさをマニュアルで指定で
きる表情付手段Dとが設けられている。
【0020】次に、この発明の自動表情付装置の一実施
形態のブロック図を図2に示す。図2において、MID
I規格で記述されたデータには、少なくともベースのパ
ートを持つ楽曲の楽譜が記述されており、このMIDI
データがリズムパターン発生部1に入力されてMIDI
データで特定されるベースのパートの音の発音パターン
から拍毎にリズムが抽出される。ドラムパターンデータ
ベース2には、リズム楽器としてのドラムの構成(大き
さ、種類)とドラムのリズム感などを示すドラムパター
ンが蓄積されていて、このデータベース2からのドラム
パターンはドラムパターン発生部3に与えられる。
【0021】このドラムパターン発生部3はリズムパタ
ーン発生部1で発生したリズムとドラムパターンデータ
ベース2からのドラムパターンとに基づいてドラム演奏
のための演奏パターンを生成する。フィルインパターン
データベース4は、フィルインの構成と種類を蓄積して
いるとともに、曲のどの部分にアクセントを付けるかを
蓄積しており、このデータベース4からのフィルインパ
ターンはフィルインパターン生成部5に与えられる。
【0022】また、このフィルインパターン生成部5に
は、上記ドラムパターン発生部3で生成された演奏パタ
ーンが与えられ、演奏パターンのうちフィルインパター
ンで示される部分のアクセントが強調付けられる。ドラ
ムの表情付データベース6には生成されたドラムの演奏
パターンに対して音の強弱と発音タイミングを変化させ
るための表情付データが蓄積されており、この表情付デ
ータはドラム表情付部7に与えられ、演奏パターンに対
して表情付される。
【0023】一方、ベース表情付データベース8はベー
スの表情付データを拍毎に蓄積しており、この表情付デ
ータはベース表情付部9に与えられる。ベース表情付部
9はMIDIデータの拍単位のパターンに対してベース
音の強弱などの表情付を行ない、表情付したパターンを
タイミング合わせ部10に与える。このタイミング合わ
せ部10には、ドラム表情付部7から拍毎にどの強さで
いつ発音するかの情報が与えられている。そして、この
タイミング合わせ部10ではドラム表情付部7で生成さ
れたドラムパターンの発音タイミングにベースデータの
発音タイミングを合わせる。すなわち、拍単位の演奏パ
ターンに基づいて、発音のタイミングはドラムデータの
処理過程で生成されたタイミングに合わされる。
【0024】このようにして表情付されたベースの演奏
データはMIDIデータ発生部11に与えられる。これ
と同時にドラム表情付部7で生成されたドラムパターン
は、このMIDIデータ発生部11に与えられ、全パー
トに対して表情付されたMIDIデータが生成される。
このMIDIデータ出力はMIDI規格の音源に送ら
れ、人間の生の演奏の如く演奏される。
【0025】上述の如く構成することによって、入力さ
れたMIDIデータからリズムを抽出し、そのリズムと
蓄積されているドラムパターンとから演奏パターンを生
成し、その演奏パターンの必要な箇所のアクセントを強
調し、音の強弱と発音タイミングと長さの変化やゴース
ト音を付加させて演奏パターンに表情付する。
【0026】一方、MIDIデータの拍単位のパターン
に対してドラムのようなリズム楽器以外のベースのよう
な楽器によるベース音の強調および表情付し、表情付し
たパターンをドラムの演奏パターンのタイミングに合わ
せることによって、曲全体の統一的な表情付を行なうこ
とができる。
【0027】なお、リズムパターン発生部1は、入力さ
れたMIDIデータに依存するすべてのパートから、そ
れぞれのパートのリズムを生成しているが、そのリズム
のうちどのパートのリズムを採用するかは、指定手段A
を用いてキーボードなどの外部操作によって指定でき
る。
【0028】また、ドラムパターン生成部3は、リズム
パターン発生部1で生成されたリズムパターンをもとに
ドラムパターンを生成するが、そのリズムパターンの代
わりにリズムパターン入力手段Bを用いることによっ
て、ユーザが入力した好みのリズムパターンをもとにド
ラムパターンを生成できる。そして、このドラムパター
ン生成部3は、リズムパターン発生部1が生成したリズ
ムパターンとユーザが入力したリズムパターンのどちら
を採用するかを選択できる。そのとき、ドラムパターン
生成部3はユーザが好みのリズムを選択したときには、
リズムパターン発生部1が生成した曲本来のリズムとユ
ーザが指定したドラムパターンの共通項をとり、共通リ
ズムから優先されたリズムに似通ったリズムパターンを
生成する。
【0029】さらに、フィルイン付加部5はフィルイン
入力手段Cを用いて外部からユーザがキーボードにより
曲のどの部分にアクセントを付けたいかを示すフィルイ
ン位置を選択できるようにしてもよい。さらに、ユーザ
の好みに応じた表情付を行なうために、表情付手段Dを
用いて、発音のタイミングの揺らぎの大きさやゴースト
音の付加やフィルインパターンの細かさを指定すること
ができる。
【0030】図3はこの発明の第2の実施形態を示すブ
ロック図である。この実施形態は、リズム楽器以外の楽
器として複数の楽器を用いるものであり、ベースの他に
ギターが用いられる。このために、MIDIデータには
ベース,ドラムおよびギターのパートをもつ楽曲の楽譜
が記述されている。
【0031】ギター表情付データベース12には、ミュ
ートギターやクリーンギターなどに関して表情付のパタ
ーンデータが蓄積されており、ギター表情付部13はギ
ター表情付パターンに基づいてMIDIデータに表情付
する。表情付されたデータは図2で説明したベース表情
付部9で表情付されたデータとともにタイミング合わせ
部10に与えられ、ドラム演奏パターンに基づくタイミ
ングに合わせられる。
【0032】なお、この実施形態においても、表情付さ
れる情報として音の強弱,発音の長さおよびゴースト音
の付加が行なわれる。
【0033】したがって、この実施形態では、ドラムの
演奏パターンのタイミングに合わせてベースとギターの
パートを人間の生演奏に非常に近い形態でMIDIデー
タを生成できる。
【0034】図4はこの発明の第3の実施形態を示すブ
ロック図である。この実施形態は、リズム楽器以外の楽
器としてベースとギターとサクソフォンを用いるもので
ある。このために、MIDIデータには、ベース,ドラ
ム,ギターおよびサクソフォンのパートを持つ楽曲の楽
譜が記述されている。サクソフォン表情付データベース
14には、サクソフォンの表情付のパターンのデータが
蓄積されており、これに対応してサクソフォン表情付部
15が設けられている。サクソフォン表情付部15はサ
クソフォン表情付パターンに基づいて、MIDIデータ
に表情付する。表情付されたデータはタイミング合わせ
部10に与えられ、ベース表情付部9およびギター表情
付部13でそれぞれ表情付されたデータとともに演奏パ
ターンに基づくタイミングに合わせられる。
【0035】この実施形態においても、上述したように
音の強弱,発音の長さやゴースト音の付加が表情付情報
として付加される。
【0036】したがって、この実施形態においても、ド
ラムの演奏パターンのタイミングに合わせてベースとギ
ターとサクソフォンのパートを人間の生演奏に非常に近
い形態でMIDIデータを生成できる。
【0037】図5はこの発明の第4の実施形態を示すブ
ロック図である。前述の図2〜図4に示した各実施形態
では、ドラムの演奏パターンのタイミングに他の楽器の
パートを合わせるようにしたのに対して、この実施形態
ではサクソフォンの発音タイミングでサクソフォン以外
のドラムを含むすべての楽器のパートの発音タイミング
を合わせるものである。
【0038】このために、サクソフォンタイミングデー
タベース16にはサクソフォンの発音タイミングがフレ
ーズ単位で保持されている。なお、フレーズとは人間が
メロディの構成単位と感じる1拍から数小節の長さを持
つ音の羅列であり、入力データに対してフレーズは自動
認識される。この自動認識については後述する。この発
音タイミングのデータはタイミング合わせ部17に与え
られる。タイミング合わせ部17は図4の実施形態での
サクソフォンデータの表情付と同様にしてフレーズ単位
で照合を行ない、その際に人間の演奏時の発音タイミン
グをサクソフォンデータベース16から取り込む。そし
て、MIDIデータ生成部18によってこの発音タイミ
ングで演奏パターンがMIDIデータとして出力され
る。
【0039】ここで、フレーズの自動認識について具体
的に説明する。人間は入力された音楽を感覚的に「区切
り」を付けている。それと同じ区切りをこの発明の自動
表情付装置が検出する。
【0040】図6はフレーズを認識する方法を説明する
ための図であり、図6(a)に示すように、発音間隔P
1 ,P2 ,P3 のそれぞれに対して、音のある期間がD
1 ,D2 ,D3 であるとすると、各期間D1 ,D2 ,D
3 のそれぞれの間の区切りを検出する。
【0041】図6(b)は実際の楽譜における区切りを
検出する方法を示し、音譜iをフレーズの始めとする
と、区切りを検出するための条件の式が下記のように定
められる。
【0042】Ai =Pi /Pi-1 、Bi =Pi −D
i (音譜iがフレーズの始め) ここで、Ai はある発音間隔Pi とその1つ前の発音間
隔Pi-1 との比であり、Bi はある発音間隔Pi の音の
ない期間を示している。なお、ここでいう発音間隔と
は、1つの音譜と次の音譜が鳴るまでの間隔(時間)の
ことで、固定されたものではない。
【0043】そして、図6の(i),(ii),(ii
i),(iv)の例では、次の条件のどれかを満たすも
のが区切りとなる。
【0044】 (i) Ai <0.5かつ、Bi-1 ≧8分音譜 (ii) Bi-1 ≧4分音譜 (iii) Ai ≦0.15かつ、Di-1 ≧2分音譜 (iv) Ai <0.2かつ、Bi-1 >0 この実施形態では、サクソフォンの発音タイミングで他
のパートの発音タイミングを合わせたが、サクソフォン
に限ることなく、タイミングデータベースを持つ楽器で
あれば同様に採用できる。
【0045】上述の如く、この発明の各実施形態によれ
ば、曲のリズム部分に関しては入力データにドラムパー
トが存在しなくても、他の楽器のパートがあれば曲に合
いかつ人間らしい演奏のドラムパートを自動生成でき
る。しかも、表情付に用いているデータが実際の生演奏
であるため、人間の演奏データに近いMIDIデータを
自動生成できる。さらに、処理が自動であり、処理速度
が速いため、実時間処理が可能である。
【0046】さらに、MIDIデータを用いているた
め、データの量が少なく、ネットワークを介した音楽デ
ータの配布に適しており、データサイズが非常に大きい
演奏データのサンプリングデータと同等の品質の演奏デ
ータを、その1〜10%程度の小さいサイズで自動生成
でき、また、各種の記録媒体への記録負担を軽減するこ
とができる。
【0047】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
【0048】
【発明の効果】以上のように、この発明によれば、入力
されたMIDIデータからリズムパターンを抽出し、予
め保持されているリズム感と抽出されたリズムパターン
とに基づいて演奏パターンを生成し、リズム楽器以外の
楽器の表情パターンに基づいてその楽器の表情付を行な
い、演奏パターンに基づいて表情付されたデータのタイ
ミングをとって出力するようにしたので、データ量の少
ないMIDIデータを用いて人間の生演奏に近いデータ
を生成できる。
【0049】さらに、ユーザがリズムパターンを入力す
ることによって、本来の演奏パターンとリズムパターン
との整合性をとることができ、さらにユーザの要求に基
づいて演奏パターンの必要な箇所にアクセントを付ける
ことができる。
【0050】特に、ユーザによってリズムの表情付の好
みを設定でき、さらにリズム楽器以外の複数の楽器を演
奏する場合には曲全体の統一的な表情付が可能となり、
より一層生演奏に近い演奏データが得られる。
【0051】さらに、リードする楽器のタイミングに基
づいて曲全体の演奏も可能にすることができる。
【図面の簡単な説明】
【図1】 この発明の自動演奏付装置の周辺部を示すブ
ロック図である。
【図2】 この発明の第1の実施形態の自動表情付装置
の概略ブロック図である。
【図3】 この発明の第2の実施形態の自動表情付装置
の概略ブロック図である。
【図4】 この発明の第3の実施形態の自動表情付装置
の概略ブロック図である。
【図5】 この発明の第4の実施形態の自動表情付装置
の概略ブロック図である。
【図6】 フレーズを認識する方法を説明するための図
である。
【符号の説明】
1 リズムパターン発生部、2 ドラムパターンデータ
ベース、3 ドラムパターン発生部、4 フィルインパ
ターンデータベース、5 フィルインパターン生成部、
6 ドラム表情付データベース、7 ドラム表情付部、
8 ベース表情付データベース、9 ベース表情付部、
10,17 タイミング合わせ部、11,18 MID
Iデータ生成部、12 ギター表情付データベース、1
3 ギター表情付部、14 サクソフォン表情付データ
ベース、15 サクソフォン表情付部、16 サクソフ
ォンタイミングデータベース。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 樋口 直史 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール人間情 報通信研究所内 (72)発明者 下原 勝憲 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール人間情 報通信研究所内

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 MIDI規格で記述された楽曲に表情付
    する楽曲の自動表情付装置であって、 前記MIDIデータからリズムパターンを生成するリズ
    ム生成手段、 リズム楽器をどのタイミングで演奏するかを示すリズム
    感を保持するリズム感保持手段、 前記リズム感保持手段によって保持されているリズム感
    と前記リズム生成手段から生成されたリズムパターンと
    に基づいて、演奏パターンを生成する演奏パターン生成
    手段、 リズム楽器以外の楽器の表情付パターンを保持する表情
    付パターン保持手段、 前記表情付パターン保持手段に保持されている表情付パ
    ターンに基づいて、前記MIDIデータに表情付する表
    情付手段、 前記演奏パターン生成手段によって生成された演奏パタ
    ーンに基づいて、前記表情付されたデータのタイミング
    をとるタイミング手段、および前記リズム感のデータと
    前記タイミング手段のタイミングとに基づいて、MID
    Iデータとして出力する出力手段、 を備えた楽曲の自動表情付装置。
  2. 【請求項2】 前記リズム感保持手段は、前記リズム楽
    器をどの強さで演奏するかを示すリズム感をも保持して
    いることを特徴とする請求項1に記載の楽曲の自動表情
    付装置。
  3. 【請求項3】 さらに、ユーザの好みのリズムパターン
    を入力するためのリズムパターン入力手段を含み、 前記演奏パターン生成手段は、前記リズムパターン入力
    手段から入力されたリズムパターンと前記生成された演
    奏パターンとの整合性をとることを特徴とする請求項1
    に記載の楽曲の自動表情付装置。
  4. 【請求項4】 さらに、ユーザが曲のどの部分にアクセ
    ントを付けたいかをを入力するためのフィルイン位置入
    力手段、および前記フィルイン位置入力手段から入力さ
    れたフィルイン位置に基づいて、前記演奏パターンにア
    クセントを付けるアクセント付加手段を含む請求項1ま
    たは2に記載の楽曲の自動表情付装置。
  5. 【請求項5】 さらに、ユーザがリズムの表情付の好み
    を入力する表情付入力手段、および前記表情付入力手段
    から入力されたリズムの表情付の好みに基づいて、前記
    演奏パターンに好みの表情付する表情付付加手段を含む
    請求項1ないし3のいずれかに記載の楽曲の自動表情付
    装置。
  6. 【請求項6】 前記表情付手段は、タイミングパターン
    をフレーズ単位で保持しており、この表情付手段は前記
    MIDIデータのフレーズを認識するフレーズ認識手段
    にて認識してMIDIデータに表情付することを特徴と
    する請求項1記載の楽曲の自動表情付装置。
  7. 【請求項7】 前記フレーズ認識手段は、前後の音譜の
    長さと発音間隔との比率を用いてフレーズの認識をする
    ことを特徴とする請求項6記載の楽曲の自動表情付装
    置。
  8. 【請求項8】 前記表情付パターン保持手段は、前記リ
    ズム楽器以外の楽器の表情付パターンを複数含んでい
    て、 前記表情付パターン保持手段は、前記複数の表情付パタ
    ーンに基づいて前記MIDIデータに表情付することを
    特徴とする請求項1に記載の楽曲の自動表情付装置。
  9. 【請求項9】 さらに、演奏をリードする楽器のタイミ
    ングパターンを保持するタイミングパターン保持手段、 前記パターン保持手段によって保持されているタイミン
    グパターンに基づいて、前記タイミング手段の出力にタ
    イミングを付加するタイミング付加手段を含む請求項1
    ないし5のいずれかに記載の楽曲の自動表情付装置。
JP21477899A 1998-11-04 1999-07-29 楽曲の自動表情付装置 Expired - Fee Related JP3457582B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21477899A JP3457582B2 (ja) 1998-11-04 1999-07-29 楽曲の自動表情付装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10-313182 1998-11-04
JP31318298 1998-11-04
JP21477899A JP3457582B2 (ja) 1998-11-04 1999-07-29 楽曲の自動表情付装置

Publications (2)

Publication Number Publication Date
JP2000200086A true JP2000200086A (ja) 2000-07-18
JP3457582B2 JP3457582B2 (ja) 2003-10-20

Family

ID=26520499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21477899A Expired - Fee Related JP3457582B2 (ja) 1998-11-04 1999-07-29 楽曲の自動表情付装置

Country Status (1)

Country Link
JP (1) JP3457582B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350471A (ja) * 2000-06-05 2001-12-21 Yamaha Corp 演奏データの表情付け処理装置及びその記録媒体
WO2020031544A1 (ja) * 2018-08-10 2020-02-13 ヤマハ株式会社 楽譜データの情報処理装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350471A (ja) * 2000-06-05 2001-12-21 Yamaha Corp 演奏データの表情付け処理装置及びその記録媒体
WO2020031544A1 (ja) * 2018-08-10 2020-02-13 ヤマハ株式会社 楽譜データの情報処理装置
CN112567450A (zh) * 2018-08-10 2021-03-26 雅马哈株式会社 乐谱数据的信息处理装置
JPWO2020031544A1 (ja) * 2018-08-10 2021-08-02 ヤマハ株式会社 楽譜データの情報処理装置
JP7230919B2 (ja) 2018-08-10 2023-03-01 ヤマハ株式会社 楽譜データの情報処理装置
CN112567450B (zh) * 2018-08-10 2024-03-29 雅马哈株式会社 乐谱数据的信息处理装置
US11967302B2 (en) 2018-08-10 2024-04-23 Yamaha Corporation Information processing device for musical score data

Also Published As

Publication number Publication date
JP3457582B2 (ja) 2003-10-20

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
Bresin Articulation rules for automatic music performance
CN107146598B (zh) 一种多音色混合的智能演奏系统和方法
WO2020000751A1 (zh) 自动作曲方法、装置、计算机设备和存储介质
US11942071B2 (en) Information processing method and information processing system for sound synthesis utilizing identification data associated with sound source and performance styles
US6946595B2 (en) Performance data processing and tone signal synthesizing methods and apparatus
JP3915807B2 (ja) 奏法自動判定装置及びプログラム
JP2004078095A (ja) 奏法決定装置及びプログラム
JP2000200086A (ja) 楽曲の自動表情付装置
JP2006126710A (ja) 奏法決定装置及びプログラム
JP4259532B2 (ja) 演奏制御装置、およびプログラム
US6657115B1 (en) Method for transforming chords
JP2022065566A (ja) 音声合成方法およびプログラム
JP2022065554A (ja) 音声合成方法およびプログラム
JP3812510B2 (ja) 演奏データ処理方法および楽音信号合成方法
JP4802947B2 (ja) 奏法決定装置及びプログラム
JP2002221978A (ja) ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置
WO2022080395A1 (ja) 音声合成方法およびプログラム
JPH1185174A (ja) 利用者が伴奏音楽を演奏できるカラオケ装置
WO2023171522A1 (ja) 音響生成方法、音響生成システムおよびプログラム
WO2023181570A1 (ja) 情報処理方法、情報処理システムおよびプログラム
JP3812509B2 (ja) 演奏データ処理方法および楽音信号合成方法
WO2022208627A1 (ja) 歌唱音出力システムおよび方法
Wentzel Exploring multi-touch instruments with MPE and MIDI 2.0
JP3885803B2 (ja) 演奏データ変換処理装置及び演奏データ変換処理プログラム

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030630

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees