JPH05257465A - 楽器演奏者の特徴抽出再生装置 - Google Patents

楽器演奏者の特徴抽出再生装置

Info

Publication number
JPH05257465A
JPH05257465A JP4103447A JP10344792A JPH05257465A JP H05257465 A JPH05257465 A JP H05257465A JP 4103447 A JP4103447 A JP 4103447A JP 10344792 A JP10344792 A JP 10344792A JP H05257465 A JPH05257465 A JP H05257465A
Authority
JP
Japan
Prior art keywords
information
performance
player
musical
characteristic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4103447A
Other languages
English (en)
Inventor
Tsutomu Saito
勉 斎藤
Naoto Uchiumi
直人 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP4103447A priority Critical patent/JPH05257465A/ja
Priority to US08/023,375 priority patent/US5453569A/en
Publication of JPH05257465A publication Critical patent/JPH05257465A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

(57)【要約】 【目的】演奏者iの演奏上の個性を抽出した特徴データ
で楽譜Nを補正することにより、あたかも演奏者iが楽
譜Nを演奏したような演奏情報N(i)を作成して再生
することにより、演奏者の演奏上の個性を模倣すること
を目的としている。 【構成】演奏者iの演奏上の個性を抽出するために演奏
者iが楽譜Mを演奏した演奏情報M(i)を記憶する。
その記憶した演奏情報M(i)と楽譜情報Mとを比較す
る。比較は楽譜情報を基本とし、音符または音符に付随
した記号に関する演奏方法、強弱記号に関する演奏方
法、速度記号に関する演奏方法、曲全体の流れに関する
演奏方法に関して比較され、特徴データ(i)として抽
出記憶される。その演奏者iの抽出記憶された特徴デー
タ(i)は読み出されて任意の楽譜情報Nに対する補正
に利用されて前記演奏者の演奏上の特徴をもつ演奏情報
N(i)を作成する。この演奏情報N(i)を再生する
ことにより聴衆はあたかも前記特徴データを記憶した演
奏者iがその曲目Nを演奏したかのように聞くことがで
きる。

Description

【発明の詳細な説明】 【産業上の利用分野】
【0001】本願発明は演奏者の楽器演奏情報を記憶/
再生する装置に関する。さらに詳細には、本願発明は楽
譜情報と演奏者の楽器演奏情報とを比較して演奏者の演
奏上の個性(特徴データ)を抽出記憶し、再生の際には
その特徴データを楽譜情報に付加してから自動的に楽器
演奏を行なうものである。
【従来の技術】
【0002】電子楽器やピアノには演奏者が演奏したの
を記憶する装置があった。その演奏情報記憶/再生装置
は任意の演奏者の演奏状態を極力そのまま記憶し、また
再生するように設計されていた。近年デジタル技術の発
展により多量の演奏情報を確実に記憶/再生することも
容易となった。
【発明が解決しようとする課題】
【0003】このような演奏情報は例えれば録音機であ
り、マイクからアナログ楽音情報として記憶するか操作
した鍵番号と時間データのデジタル情報として記憶する
かの違いはあるが、演奏された情報をそのまま記憶/再
生するということに止どまっていた。
【0004】従ってその演奏情報はその曲目のみを再生
するものであり、他の曲目を再生する場合には改めて録
音しなければならない。例えば著名なピアニストが曲目
Mを演奏した情報があるとすると、この演奏情報は曲目
Mに付随した情報であり曲目Nに関してその演奏情報を
利用しようとしてもなすすべがなかった。勿論、曲目M
やNに関しても楽譜情報を機械的にそのまま演奏するこ
とは従来技術としてある。しかしこのような演奏は機械
的で人間味がなく直ぐに飽きてしまう。人間味とは演奏
者の個性である。
【課題を解決するための手段】
【0005】本願発明は演奏者が演奏したことのない曲
目でもその演奏者が以前に演奏した曲から抽出記憶され
た特徴データで楽譜情報を補正することにより、演奏者
の演奏上の個性を模倣し、聴衆に自然で繊細な音楽を与
えることを目的としている。そのために本願発明は演奏
上の特徴を抽出する特徴抽出とその抽出された特徴に基
づき楽譜を補正する楽譜補正を有する。
【0006】著名な演奏者でもその演奏方法にはかなり
の個性(演奏上の特徴)があり、その特徴データを使え
ば他の曲目であっても、対応する楽譜情報にその特徴デ
ータを付加することによりあたかもその演奏者が演奏し
たように見せ掛けることができる。本願発明における楽
器演奏者の特徴抽出装置ならびに特徴再生装置は、個人
の演奏情報とその元となる楽譜情報とを比較して特徴デ
ータを抽出記憶し、再生する際にその特徴データで楽譜
情報を補正した後に利用するようにしている。
【作用】
【0007】演奏者の演奏の特徴を抽出するために、演
奏者の楽譜に基づく演奏情報をディジタル的に記憶す
る。その記憶された演奏情報と楽譜情報とを比較する。
比較は楽譜情報を基本とし、音符または音符に付随した
記号に対する演奏方法、強弱記号に対する演奏方法、速
度記号に対する演奏方法、曲全体の流れに対する演奏方
法等が特徴データとして抽出記憶される。演奏方法とは
押鍵/離鍵時間に関する操作タイミング、イニシャルタ
ッチ/アフタータッチに関する操作タッチ、演奏スピー
ドに関する操作テンポ等である。
【0008】その抽出記憶された特徴データは読み出さ
れると、任意の楽譜情報に対する補正に利用することが
できる。そのため、楽譜情報を補正して作られた演奏情
報はあたかも前記演奏者が実際にその曲目を演奏したか
のように聞くことができる。
【実施例】
【0009】図1は本願発明のブロック図である。図1
は大別して楽器演奏者の特徴抽出装置(ENCode
r)と特徴再生装置(DECoder)とからなり、そ
れらの装置間には演奏上の特徴データを記憶する特徴デ
ータ記憶部が存在するため双方が独立した装置として機
能する。
【0010】第1に楽器演奏者の特徴抽出装置ENCを
説明する。演奏情報検出部10は演奏者iが楽譜Mを演
奏したときの楽器操作情報を検出してMIDI規格に準
じた情報で出力する。この演奏情報検出部10は通常の
電子楽器若しくは自動演奏ピアノに内蔵されている操作
状態検出手段と同等の機能を有する。
【0011】演奏情報記憶部20は前記演奏者iが楽譜
Mを演奏したときの楽器操作情報を受け、それに時間情
報を付加して演奏情報M(i)として記憶する。前記時
間情報は直前の操作情報(イベント)からの時間間隔と
し、ミリ秒(ms)の分解能を持たせた。この時間情報
の管理方式は通常のシーケンサ(演奏情報記憶再生装
置)がテンポを基準として4分音符の1/24分解能程
度と定義しているのに比べると無駄が多いように感じる
が、本願では演奏者が演奏途中のテンポ変更にも追従で
きることを考慮してこの方法とした。
【0012】上記演奏情報を表現するにおいて、演奏者
jが楽譜Mを演奏したときの演奏情報はM(j)、演奏
者kが楽譜Nを演奏したときの演奏情報はN(k)と現
わす。
【0013】
【表1】 表1は演奏情報記憶部20に記憶される演奏情報M
(i)の記憶形式を示す。演奏情報M(i)は前述如く
基本的に(時間情報+MIDIコード)で構成されてお
り、詳しくは直前の操作から今回の操作までの相対時間
(デルタタイム)とその操作子情報と操作量(操作スピ
ード)との組合せになっている。また相対時間(デルタ
タイム)は1バイトで0〜255ミリ秒しか計測できな
いので、操作と操作の間に長い時間があった場合は相対
時間情報を特別に引き伸ばすための時間継続情報を利用
する。更にこの演奏情報M(i)は楽譜上の「リピー
ト」という情報を持たないので、リピートの際にはほと
んど同じMIDIコード群が繰返して検出記憶される。
【0014】自動演奏ピアノによる演奏情報の場合、表
1はキーオン情報(イニシャルタッチを含む)、キーオ
フ情報、フットSW情報、時間継続情報、終了情報の5
種類でよい。フットSW情報に関してはダンパーペダル
のようにオン/オフ2段階のものとハーフペダルのよう
に多数の段階を取るものがある。
【0015】電子楽器による演奏情報の場合、表1は上
記5種類の情報以外にAFタッチ(アフタータッチ)情
報、音色情報、音量情報、効果情報(ビブラート、サス
テイン、チューン等)、音響情報(リバーブ、パンニン
グ等)を必要とする。
【0016】楽譜情報記憶部30は楽譜上に表示される
音符や各種記号を記憶する。この楽譜情報記憶部30に
は複数の曲目が記憶可能であるが、図1においては楽譜
情報記憶部30から曲目Mが読み出されるところであ
る。
【0017】
【表2】 表2は楽譜情報記憶部30に記憶されている楽譜情報M
の記憶形式を示す。楽譜情報Mは(楽譜上の時間的位置
情報+符号コード)で構成されており、詳しくは小節の
頭からの時間を4分音符の1/24の分解能で示す時間
情報(ステップタイム)と楽譜上の音符または記号の組
合せになっている。そのため小節の時間的な位置をを示
す情報も用意されている。
【0018】上記楽譜情報Mは初期情報として同時に演
奏されるべき4つの五線符のスタートアドレス、ト音/
へ音記号、調コード、拍子コード、速度記号を記憶す
る。上記五線符のスタートアドレスを4つ用意したの
は、演奏を同時に開始する複数パートは別々の記憶位置
に独立して記憶するようにしたためである。勿諭その数
は4つに限定されるものではない。
【0019】また上記楽譜情報Mは初期情報以外にメイ
ン情報として音符情報(音符に付随する情報も含む)、
強弱情報、速度情報、リピート情報、小節情報、終了情
報を有し、特に前記演奏情報と違い「リピート」情報が
存在するのでリピート演奏の情報は1箇所にしか記憶し
ていない。
【0020】特徴データ抽出部40はCPUまたはDS
Pを中心にROM、RAMを使用して構成され、前記演
奏者iが楽譜Mを演奏したときの演奏情報M(i)とそ
の演奏曲目の元となる楽譜情報Mとを読み取り、それら
の相関を調べて演奏者の演奏上の個性を特徴データ
(i)として抽出する。この特徴データ(i)を抽出す
るのには楽譜情報を次の4つに分類してそれぞれの分野
での演奏方法を比べる。 第1:音符記号または音符に付随した記号に関する演奏 第2:速度記号に関する演奏 第3:強弱記号に関する演奏 第4:曲全体の流れに関する演奏
【0021】特徴データ記憶部50は前記演奏者iの演
奏上の個性を特徴データ(i)としてICカード、磁気
ディスク、光ディスク等の外部記憶装置に記憶するもの
である。ちなみに演奏者jの演奏情報から抽出した特徴
データは(j)、演奏者kの演奏情報から抽出した特徴
データは(k)と表す。
【0022】上述の演奏情報記憶部20、楽譜情報記憶
部30、待徴データ記憶部50はいずれも記憶装置であ
り、読み書き自由な記憶装置ならば何でも可能である
が、これら全てを一括して磁気ディスクや光ディスクの
ような大容量で持ち運び可能な装置で代用するのが望ま
しい。なぜなら演奏情報M(i)は楽譜情報Mと同時に
読み出す必要はなく、必要なだけ時分割で読み出して特
徴データ抽出部50内部のRAM(RAMP,RAM
S)に一時格納しておけばいい。また抽出された特徴デ
ータは内部のRAM(RAMC)に一時格納されるが、
時間を見計らって共通の記憶装置の特徴データ記憶エリ
アに書込めばいい。
【0023】第2に楽器演奏者の特徴再生装置DECを
説明する。特徴データ記憶部50は前述の如く演奏者i
の演奏上の個性を特徴データ(i)として外部記憶装置
に記憶するものである。図1において特徴データ記憶部
50が二重に描かれているのは特徴抽出装置ENCと特
徴再生装置DECとに分割可能なことを意味する。
【0024】楽譜情報記憶部60は前述の楽譜情報記憶
部30と機能的に同じである。よって特徴抽出装置EN
Cと特徴再生装置DECが一つにまとめられるのであれ
ば楽譜情報記憶部30と60のいずれかを削除できる。
この楽譜情報記憶部60から読み出すのは楽譜M以外の
楽譜Nであることが多い。勿論楽譜Mを読み出すことも
可能である。
【0025】楽譜情報補正部70はCPUまたはDSP
を中心にROM、RAMを使用して構成され、前記楽譜
情報記憶部60から読み出した楽譜情報Nを前記演奏者
iの特徴データ(i)で補正することにより、あたかも
演奏者iが楽譜Nを演奏したような演奏情報N(i)を
作成する。演奏情報N(i)は前述のように(時間情報
+MIDIコード)である。この時間情報は前述のよう
にミリ秒(ms)分解能をもつ。
【0026】この楽譜情報補正部70は演奏情報を作成
するにあたり4段階の処理を行なっている。第1段階で
は楽譜情報Nの速度記号と特徴データ(i)の速度記号
に関するチェック及び曲全体の流れに対するチェック結
果に基づき曲全体のテンポシーケンスを作成する。第2
段階では楽譜情報Nの強弱記号と特徴データ(i)の強
弱記号に関するチェック及び曲全体の流れに対するチェ
ック結果に基づき曲全体のタッチシーケンスを作成す
る。第3段階では楽譜情報Nの音符記号または音符に付
随した記号と特徴データ(i)の音符に関するチェック
結果に基づき曲全体の音符シーケンスを作成する。第4
段階では上記テンポシーケンス、タッチシーケンス、音
符シーケンスをまとめて1つの演奏情報N(i)を作成
する。
【0027】この楽譜情報補正部70の構成は特徴デー
タ抽出部40と同じくCPUを中心としたものである。
よって特徴抽出装置ENCと特徴再生装置DECが一つ
にまとめられるのであれば1つのCPUを共用すること
ができる。
【0028】演奏情報記億部80は演奏者iが楽譜Nを
演奏したような演奏情報N(i)を記憶する。その記憶
された演奏情報N(i)は表1の形式である。その後、
演奏情報N(i)は指定されたテンポに合わせて逐次読
み出されて後述の楽器制御部に楽器操作情報として転送
される。これらの記憶並びに転送は楽譜情報補正部70
のCPUが行なう。前記楽器操作情報はMIDI規格に
準じている。
【0029】楽器制御部90は前記楽器操作情報を受け
取り、付属する電子的楽音発生回路又はピアノ等の自然
楽器を駆動して発音する。この楽器制御部90は市販の
電子楽器または市販の自動演奏ピアノで賄うことができ
る。従って、そこに内在する各種の機能例えば「演奏情
報の記憶/読出」、「発音チャンネルの割当て」、「楽
音発生回路」、「時間計測カウンタの割当て」、「鍵に
対応したソレノイドの駆動」は説明を省略する。
【0030】表3,表4,表5,表6は特徴データを抽
出する際の各種のチェック項目並びにその抽出された特
徴データの記憶内容を示している。この特徴データは楽
譜情報に基づいた分類により大きく4つに分けられ、そ
れらが各表3〜6となっている。
【0031】
【表3】 表3は音符記号または音符に付随した記号に対する演奏
をチェックして抽出作成される特微データであり2つの
グループからなる。第1グループとして16分音符〜2
分音符と3連符に代表される音符の連続打鍵があり、そ
の操作タイミング(押鍵タイミングや押鍵から離鍵まで
の時間)と操作タッチ(イニシャルタッチ/アフタータ
ッチ等)の各平均的データを抽出する。これは各音符単
位の演奏情報よりも連続する音符の演奏情報の方が演奏
者の特徴を現わすからである。第2グループとして音符
に付随するスタカート記号、アクセント記号、Ped.
(ペダル)記号、タイ記号、スラー記号があり、その操
作タイミングや操作タッチの各平均的データを抽出す
る。Ped.(ペダル)記号とはダンパーのオン/オフ
を指示する記号である。
【0032】
【表4】 表4は速度記号に関する演奏をチェックして抽出作成さ
れる特徴データであり2つのグループからなる。第1の
グループとしてアダージョ〜プレストに代表される演奏
テンポを瞬時に変化させる記号があり、操作テンポ(押
鍵から押鍵までの時間)の各平均的データを抽出する。
第2のグループとしてリタルダンドやアチェレランドに
代表される演奏テンポを徐々に変化させる記号があり、
その操作テンポデータの変化幅を抽出する。
【0033】
【表5】 表5は強弱記号に関する演奏をチェックして抽出作成さ
れる特徴データであり2つのグループからなる。第1の
グループとしてピアニシモ〜フォルテシモに代表される
強弱を瞬時に変化させる記号があり、その操作タッチ
(イニシャルタッチ/アフタータッチ等)の平均的デー
タを抽出する。第2のグループとしてクレシェンド、デ
クレシェンドに代表される強弱を徐々に変化させる記号
があり、その操作タッチデータの変化幅を抽出する。
【0034】
【表6】 表6は曲全体の流れに関する演奏をチェックして抽出作
成される特徴データである。これらは曲の最初部分の演
奏、リピート部分の1回目演奏、リピート部分の2回目
演奏、曲の最後部分の演奏の4部分に対して、操作テン
ポ、操作タッチの各平均的データを抽出する。この抽出
においては楽譜情報の対応部分の速度記号や強弱記号に
対して何パーセントくらいずれているのか、またそのず
れの方向はどちらか(速い/遅い、強い/弱い)を抽出
して特徴データとする。
【0035】図2に特徴データ抽出部40のCPUが特
徴データを抽出するルーチンを示す。ステップ100に
て特徴データを格納する内部RAMのRAMCエリアを
クリアする。これにより全レジスタREG+0〜33が
クリアされ、特徴データは全て「前例なし」の状態とな
る。演奏情報が少ないときにはこの「前例なし」のとこ
ろが多くなってしまうので注意する必要がある。
【0036】ステップ101にて演奏情報記憶部20か
ら演奏情報M(i)を読みだして内部RAMのRAMP
エリアに記憶する。また、ステップ102にて楽譜情報
記憶部30から楽譜情報Mを読みだして内部RAMのR
AMSエリアに記憶する。これは内部RAMの方が高速
にアクセスできるためである。特徴抽出を高速に行なう
必要がなければそれぞれの記憶部から随時読みだしても
よい。
【0037】ステップ103にて特徴データをアクセス
するアドレスポインタPNTを最初の特徴データ格納レ
ジスタREG+0に設定する。この格納レジスタ34個
は全て連続する番地になつている。
【0038】ステップ104にてポインタPNTの指定
するチェック項目に対応する音符連続パターンをRAM
S(楽譜情報)の中から探す。ステップ105にて対応
する音符連続パターシがなければステップ108にジャ
ンプする。あればステップ106に進みRAMP(演奏
情報)の中から対応する箇所を検出する。ステップ10
7にてその検出された部分の操作タイミングと操作タッ
チを読みだし、特徴データとしてポインタPNTの指定
するレジスタに格納する。同じパターンが複数箇所にあ
る場合はそれらの操作タイミングの平均を算出して格納
する。
【0039】ステップ108にてポインタPNTの内容
を+1する。ステップ109にてポインタPNTがRE
G+9以上か調べる。ポインタPNTがREG+9に達
していなければステップ104に戻るが、REG+9に
達すれば次のステップ110へ進む。ここまでで音符の
連続パターンに対する特徴抽出を完了したことになる。
【0040】ステップ110にてポインタPNTの指定
するチェック項目に対応する音符付随記号をRAMS
(楽譜情報)の中から探す。ステップ111にて対応す
る音符付随記号がなければステップ114にジャンプす
る。あればステップ112に進みRAMP(演奏情報)
の中から対応する箇所を検出する。ステップ113にて
その検出された部分の操作タイミングと操作タッチを読
みだし、特徴データとしてポインタPNTの指定するレ
ジスタに格納する。
【0041】ステップ114にてポインタPNTの内容
を+1する。ステップ115にてポインタPNTがRE
G+14以上か調べる。ポインタPNTがREG+14
に達していなければステップ110に戻るが、REG+
14に達すれば次のステップ116へ進む。ここまでで
音符に付随する記号に対する特徴抽出を完了したことに
なる。
【0042】ステップ116にてポインタPNTの指定
するチェック項目に対応する速度記号をRAMS(楽譜
情報)の中から探す。ここでの速度記号とはadagi
o,andante,moderato,allegr
o,Prestoのいずれかを意味する。ステップ11
7にて対応する速度記号がなければステップ120にジ
ャンプする。あればステップ118に進みRAMP(演
奏情報)の中から対応する箇所を検出する。ステップ1
21にてその検出された部分の操作テンポを読みだし、
特徴データとしてポインタPNTの指定するレジスタ
(REG+N)に格納する。
【0043】ステップ120にてポインタPNTの内容
を+1する。ステップ121にてポインタPNTがRE
G+19以上か調ベる。ポインタPNTがREG+19
に達していなければステップ116に戻るが、REG+
19に達すれば次のステップ122へ進む。ここまでで
即時変化を要求する強弱記号に対する特徴抽出を完了し
たことになる。
【0044】ステップ122にてポインタPNTの指定
するチェック項目に対応する速度記号をRAMS(楽譜
情報)の中から探す。ここでの速度記号とはrit.,
accel.,a tempoのいずれかを意味する。
ステップ12あにて対応する速度記号がなければステッ
プ126にジャンプする。あればステップ124に進み
RAMP(演奏情報)の中から対応する箇所を検出す
る。ステップ125にてその検出された部分の最初(例
えばrit.の開始)の操作テンポと最後(rit.の
終了)の操作テンポとの変化幅(差分)を算出し、特徴
データとしてポインタPNTの指定するレジスタに格納
する。
【0045】ステップ126にてポインタPNTの内容
を+1する。ステップ127にてポインタPNTがRE
G+22以上か調べる。ポインタPNTがREG+22
に達していなければステップ122に戻るが、REG+
22に達すれば次のステップ128へ進む。ここまでで
なめらかな変化を要求する速度記号に対する特徴抽出を
完了したことになる。
【0046】ステップ128にてポインタPNTの指定
するチェック項目に対応する強弱記号をRAMS(楽譜
情報)の中から探す。ここでの強弱記号とはpp,p,
mp,mf,f,ffのうちいずれかを意味する。ステ
ップ129にて対応する強弱記号がなければステップ1
32にジャンプする。あればステップ130に進みRA
MP(演奏情報)の中から対応する箇所を検出する。ス
テップ131にてその検出された部分の操作タッチを読
みだし、特微データとしてポインタPNTの指定するレ
ジスタに格納する。
【0047】ステップ132にてポインタPNTの内容
を+1する。ステップ133にてポインタPNTがRE
G+28以上か調べる。ポインタPNTがREG+28
に達していなければステップ128に戻るが、REG+
28に達すれば次のステップ134へ進む。ここまでで
即時変化を要求する強弱記号に対する特徴抽出を完了し
たことになる。
【0048】ステップ134にてポインタPNTの指定
するチェック項目に対応する強弱記号をRAMS(楽譜
情報)の中から探す。ここでの強弱記号とはクレシェン
ド、デクレシェンドのうちいずれかを意味する。ステッ
プ135にて対応する強弱記号がなければステップ13
8にジャンプする。あればステップ136に進みRAM
P(演奏情報)の中から対応する箇所を検出する。ステ
ップ137にてその検出された部分の最初(例えばクレ
ッシェンド開始)の操作タッチと最後(クレッシェンド
終了)の操作タッチからタッチの変化幅を算出し、特徴
データとしてポインタPNTの指定するレジスタに格納
する。
【0049】ステップ138にてポインタPNTの内容
を+1する。ステップ139にてポインタPNTがRE
G+30以上か調べる。ポインタPNTがREG+30
に達していなければステップ134に戻るが、REG+
30に達すれば次のステップ140へ進む。ここまでで
なめらかな変化を要求する強弱記号に対する特徴抽出を
完了したことになる。
【0050】ステップ140にてRAMS(楽譜情報)
の曲の最初の4小節に対応するRAMP(演奏情報)を
検出する。ステップ142にてその部分における操作タ
ッチを読み出すと同時に操作テンポを算出し、特徴デー
タとしてポインタPNTの指定するレジスタに格納す
る。ステップ143にてポインタPNTの内容を+1す
る。操作タッチに関しては複数の押鍵の平均的な強さを
求め、操作テンポに関しては前記4小節を演奏するのに
掛かった時間から逆算して得る。
【0051】ステップ143にてRAMS(楽譜情報)
のリピート部分の1回目演奏の最初の4小節に対応する
MEMP(演奏情報)を検出する。ステップ144にて
その部分における操作タッチと操作テンポを算出し、特
徴データとしてポインタPNTの指定するレジスタに格
納する。ステップ145にてポインタPNTの内容を+
1する。
【0052】ステップ146にてRAMS(楽譜情報)
のリピート部分の2回目演奏の最初の4小節に対応する
RAMP(演奏情報)を検出する。ステップ147にて
その部分における操作タッチと操作テンポを算出し、特
徴データとしてポインタPNTの指定するレジスタに格
納する。ステップ148にてポインタPNTの内容を+
1する。
【0053】ステップ149にてRAMS(楽譜情報)
の曲の最後の4小節に対応するRAMP(演奏情報)を
検出する。ステップ150にてその部分における操作タ
ッチと操作テンポを算出し、特徴データとしてポインタ
PNTの指定するレジスタに格納する。以上のステップ
140〜150にて曲全体の流れに対する特徴抽出を終
了したことになる。
【0054】ステップ151にて上記抽出した特徴デー
タが格納されているRAMC(REG+0〜33)の内
容を特徴データ記憶部50に転送記憶する。
【0055】図3に楽譜情報補正部70のCPUが演奏
情報を作成するルーチンを示す。ステップ200にて特
徴データ記憶部50から読みだした特徴データを内部R
AMのRAMCエリアに格納する。ステップ201にて
演奏情報を記憶する内部RAMのRAMPエリアをクリ
アする。ステップ202にて楽譜情報記憶部60から読
みだした楽譜情報Nを内部RAMのRAMSエリアに格
納する。
【0056】ステップ203にてRAMS(楽譜情報
N)の速度記号とRAMC(特徴データ(i))の速度
記号に関するチェック(REG+14〜21)の結果に
基づき曲全体のテンポシーケンスを作成する。
【0057】例えばRAMS(楽譜情報N)に「and
ante」の記号があれば、RAMC(特徴データ
(i))のREG+15の内容を参照してそのときの演
奏者iの使用するであろうテンポ数値を読み出す。ま
た、RAMS(楽譜情報N)に「rit.」の記号があ
れば、RAMC(特徴データ(i))のREG+19の
内容を参照して一定の遅いテンポに安定するまでの到達
時間とテンポの変化幅を読み出す。
【0058】
【表7】 このテンポシーケンスは表7のようにして記憶される。
それはテンポが変化した時間を特定する小節の頭からの
4分音符の1/96の分解能によるステップタイムと変
化したテンポデータである。この4分音符の1/96と
いう分解能は表2の楽譜情報の分解能に比べて4倍の制
度としている。これは音符としては表現できない程度の
微妙な演奏技術を特徴データとして記憶するためであ
る。そのため全音符の継続時間を1バイトで表現できな
くなり、小節情報の中に本当の小節の頭(小節継続情報
=00h)と小節の頭から2分音符分進んだ時間(小節
継続情報=01h)とを分離表現できるようになってい
る。また、この記憶方式は操作上の変化を検出記憶する
のでなめらかな変化をする「rit.」や「acce
l.」等に関しては多数のテンポデータを続けて記憶す
ることになる。
【0059】ステップ204にて上記作成したテンポシ
ーケンスをRAMC(特徴データ(i))の曲全体の流
れに対するチェック(REG+30〜33)の結果に基
づき補正する。ここでの補正は各部分(曲の先頭部分、
リピート部分の1回目、リピート部分の2回目、曲の最
後部分)のテンポ情報を特徴データに記憶された内容に
基づき何パーセント分か速くまたは遅くする作業であ
る。
【0060】ステップ205にてRAMS(楽譜情報
N)の強弱記号とRAMC(特徴データ(i))の強弱
記号に関するチェック(REG+22〜29)の結果に
基づき曲全体のタッチシーケンスを作成する。
【0061】例えばRAMS(楽譜情報N)に「mp」
の記号があれば、RAMC(特徴データ(i))のRE
G+24の内容を参照してそのときの演奏者iの使用す
るであろうタッチ数値を読み出す。また、RAMS(楽
譜情報N)に「クレシェンド」の記号があれば、RAM
C(特徴データ(i))のREG+13の内容を参照し
て一定の強いタッチに安定するまでの到達時間とタッチ
の変化幅を読み出す。
【0062】このタッチシーケンスはテンポシーケンス
と同じく表7のようにして記憶される。それはタッチが
変化した時間を特定するための小節からの4分音符の1
/96の分解能によるステップタイムと変化したタッチ
数値である。したがってなめらかな変化をする「クレシ
ェンド」や「デクレシェンド」に関しては続けて多数の
タッチデータを記憶することになる。
【0063】ステップ206にて上記作成したタッチシ
ーケンスをRAMC(特徴データ(i))の曲全体の流
れに対するチェック(REG+30〜33)の結果に基
づき補正する。ここでの補正は各部分(曲の先頭部分、
リビート部分の1回目、リピート部分の2回目、曲の最
後部分)のテンポ情報を特徴データに記憶された内容に
基づき何パーセント分か強くまたは弱くする作業であ
る。
【0064】ステップ207にてRAMS(楽譜情報
N)の音符または音符に付随した記号とRAMC(特徴
データ(i))の音符記号関するチェック(REG+0
〜8)の結果に基づき曲全体の音符シーケンスを作成す
る。
【0065】この音符シーケンスの作成は、例えばRA
MS(楽譜情報N)に「8分音符+16分音符」の記号
があれば、RAMC(特徴データ(i))のREG+2
の内容を参照してそのときの演奏者iの使用するであろ
うタイミング(押鍵/離鍵時間)とタッチデータを読み
出してシーケンス上に記憶する。
【0066】ステップ208にて上記音符シーケンスを
音符に付随した記号にて補正する。例えばRAMS(楽
譜情報N)に「スラー」の記号があれば、RAMC(特
徴データ(i))のREG+13の内容を参照して、上
記音符シーケンスの対応する部分のタイミングとタッチ
を補正する。
【0067】
【表8】 表8は音符シーケンスの記憶形式を示し、それは音符が
変化した時間を特定する小節の頭からの4分音符の1/
96の分解能によるステップタイムと変化した音符デー
タである。自動演奏ピアノによる演奏の場合には音符情
報(ゲートタイム)、フットSW情報、小節情報、終了
情報で済む。電子楽器による演奏の場合にはその他にア
フタータッチ情報、音色情報、音量情報、効果情報、音
響情報等の情報が必要であり、それらに関するシーケン
スもこのときに作成する。
【0068】ステップ209にて上記テンポシーケン
ス、タッチシーケンス、音符シーケンスの3つから演奏
情報N(i)を作成する。このステップ209は新たに
作成した演奏情報N(i)を表1に示す最初に記憶した
演奏情報M(i)と同じ形式にするための処理である。
【0069】表1の演奏情報M(i)の記憶形式と表7
(テンポ/タッチシーケンス)や表8(音符シーケン
ス)の記憶形式との主な違いは時間情報の管理にある。
表1では先の変化からの時間を演奏テンポとは無関係な
ms(ミリ秒)単位で計測しているのに対し、表7や表
8では小節の頭からの時間を演奏テンポに基づく4分音
符の1/96の分解能で計測している。従ってステップ
209の処理は主に時間情報の変換である。
【0070】再生のみを考慮するならば、上記テンポシ
ーケンスとタッチシーケンスと音符シーケンスの独立し
たままで演奏情報N(i)とすることも可能である。な
ぜならば現在の電子楽器用シーケンサにおいてもテンポ
シーケンスと音符シーケンスが別であることは周知の事
実であり、これにタッチシーケンスから出力されるタッ
チ量の変化をタッチセンスデータとして出力すれば済む
からである。
【0071】ここで、本願発明をより具体的に説明する
ために三連符に関する楽譜情報と演奏情報の違いを取り
上げる。
【表9】 表9は楽譜上に記憶された4分音符の三連符をそのまま
演奏情報化したデータとその三連符を2人の演奏者がそ
れぞれ演奏した例1,2を示している。ステップタイム
の分解能が4分音符の1/96なので、各音符が使用す
る時間は理想的には96ck/3で32ckとなる。そ
の32ckを更に鍵が操作されている時間(オンタイ
ム)と離されている時間(オフタイム)との比率3対1
で分割すれば表9の左端に記入されたようなデルタタイ
ム列(24,8,24,8,24,8)となる。
【0072】ところが実際の演奏ではそのタイミングが
ずれており、例えば演奏情報の例1は三連符の真中の音
符の長さが長めに演奏されたものである。このときの三
連符の3つめの音符は理論上の押鍵タイミングよりも遅
れている。
【0073】演奏情報の例2は三連符の最初の音符の長
さが長めに演奏されたものである。このときの三連符の
2つめと3つめの音符は理論上の押鍵タイミングよりも
遅れている。
【0074】また、実際の演奏では三連符の各音符の演
奏(押鍵)タイミングの合計は理論上のタイミングから
ずれており通常は三連符の合計の方が長くなる。このず
れも演奏者によって異なり演奏の特徴の一つになってい
る。
【0075】更に、三連符の箇所を強調しようと三連符
の前後の音符よりも強く演奏する演奏者もあるし、三連
符中の特定の音符を意識的に強く演奏する演奏者もあ
る。従って上記のような押鍵時間だけでなくその演奏さ
れた音符に対する操作タッチ(イニシャル/アフター)
の違いが特徴となる。
【0076】加えて、上記三連符に関して、同じ押鍵タ
イミングであつても押鍵から離鍵までの鍵を押している
時間の違いによって演奏上の効果も変わってくる。スタ
ッカート気味に演奏された場合は押鍵から離鍵までの時
間は比較的短かくなり、テヌート気味に演奏された場合
は押鍵から離鍵までの時間は比較的長くなる。
【0077】本願発明は上記実施例に限定されず、本願
発明の趣旨を逸脱しない範囲で変更可能である。例えば
特徴データの記憶形式も例えば楽譜上の連続する音符を
中心にしたチェックでなく単独の音符に対する演奏者の
特徴を抽出することも可能である。更に本願では一つの
楽譜情報Mに関する特徴抽出のみで特徴データを作成し
たが、複数の楽譜演奏情報を使用することによりさらに
詳細なジャンル別の特徴抽出を行なうことも化膿であ
る。
【発明の効果】
【0072】以上詳述したように、本願発明の楽器演奏
者の特徴抽出装置は演奏者が演奏したことのない曲目で
もその演奏者が以前に演奏した曲から抽出記憶された特
徴データで楽譜情報を補正することにより、演奏者の演
奏上の個性を模倣し、聴衆に自然で繊細な音楽を与える
ことができる。
【図面の簡単な説明】
【図1】本願発明のブロック図である。
【図2】特徴データ抽出部の流れ図である。
【図3】楽譜情報補正部の流れ図である。
【符号の説明】
10 演奏情報検出部 20 演奏情報記憶部 30 楽譜情報記憶部 40 特徴データ抽出部 50 特徴データ記憶部 60 楽譜情報記憶部 70 楽譜情報補正部 80 演奏情報記憶部 90 楽器制御部

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】演奏者が楽器を演奏した情報を記憶する演
    奏情報記憶手段と、 前記演奏の楽譜情報を記憶する楽譜情報記憶手段と、 前記演奏情報と前記楽譜情報から特徴データを抽出する
    特徴データ抽出手段と、 前記特徴データを記憶する特徴データ記憶手段とを具
    え、 演奏者の演奏上の個性を抽出記憶することを特徴とする
    楽器演奏者の特徴抽出装置。
  2. 【請求項2】前記特徴データは楽譜上の各種記号に対す
    る演奏者の操作タイミング、操作テンポ、操作タッチの
    うち少なくとも1つを含むことを特徴とする請求項1記
    載の楽器演奏者の特徴抽出装置。
  3. 【請求項3】前記特徴データは曲全体の流れに対する演
    奏者の操作テンポ、操作タッチのうち少なくとも1つを
    含むこと特徴とする請求項1記載の楽器演奏者の特徴抽
    出装置。
  4. 【請求項4】楽譜情報を記憶する楽譜情報記憶手段と、 演奏者の演奏上の個性を特徴データとして記憶した特徴
    データ記憶手段と、 前記特徴データに基づき前記楽譜情報を補正する楽譜情
    報補正手段とを具え、 演奏者の演奏上の個性を模倣した楽器演奏を再生可能と
    することを特徴とする楽器演奏者の特徴再生装置。
  5. 【請求項5】前記特徴データは楽譜上の各種記号に対す
    る演奏者の操作タイミング、操作テンポ、操作タッチの
    うち少なくとも1つを含むことを特徴とする請求項4記
    載の楽器演奏者の特徴再生装置。
  6. 【請求項6】前記特徴データは曲全体の流れに対する演
    奏者の操作テンポ、操作タッチのうち少なくとも1つを
    含むこと特徴とする請求項4記載の楽器演奏者の特徴再
    生装置。
JP4103447A 1992-03-11 1992-03-11 楽器演奏者の特徴抽出再生装置 Pending JPH05257465A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4103447A JPH05257465A (ja) 1992-03-11 1992-03-11 楽器演奏者の特徴抽出再生装置
US08/023,375 US5453569A (en) 1992-03-11 1993-02-26 Apparatus for generating tones of music related to the style of a player

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4103447A JPH05257465A (ja) 1992-03-11 1992-03-11 楽器演奏者の特徴抽出再生装置

Publications (1)

Publication Number Publication Date
JPH05257465A true JPH05257465A (ja) 1993-10-08

Family

ID=14354287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4103447A Pending JPH05257465A (ja) 1992-03-11 1992-03-11 楽器演奏者の特徴抽出再生装置

Country Status (2)

Country Link
US (1) US5453569A (ja)
JP (1) JPH05257465A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058577A (ja) * 2004-08-19 2006-03-02 Yamaha Corp 複数の時系列データを処理するためのデータ処理装置およびプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5602356A (en) * 1994-04-05 1997-02-11 Franklin N. Eventoff Electronic musical instrument with sampling and comparison of performance data
US5902949A (en) * 1993-04-09 1999-05-11 Franklin N. Eventoff Musical instrument system with note anticipation
US5726372A (en) * 1993-04-09 1998-03-10 Franklin N. Eventoff Note assisted musical instrument system and method of operation
JPH07129158A (ja) * 1993-11-05 1995-05-19 Yamaha Corp 演奏情報分析装置
US5773742A (en) * 1994-01-05 1998-06-30 Eventoff; Franklin Note assisted musical instrument system and method of operation
JP2773638B2 (ja) * 1994-03-11 1998-07-09 ヤマハ株式会社 自動演奏装置
JP3303617B2 (ja) * 1995-08-07 2002-07-22 ヤマハ株式会社 自動作曲装置
US5693903A (en) * 1996-04-04 1997-12-02 Coda Music Technology, Inc. Apparatus and method for analyzing vocal audio data to provide accompaniment to a vocalist
US5850051A (en) * 1996-08-15 1998-12-15 Yamaha Corporation Method and apparatus for creating an automatic accompaniment pattern on the basis of analytic parameters
JP3658637B2 (ja) * 1997-06-13 2005-06-08 カシオ計算機株式会社 演奏支援装置
EP1028409B1 (en) * 1999-01-29 2005-03-16 Yamaha Corporation Apparatus for and method of inputting music-performance control data
JP4329191B2 (ja) * 1999-11-19 2009-09-09 ヤマハ株式会社 楽曲情報及び再生態様制御情報の両者が付加された情報の作成装置、特徴idコードが付加された情報の作成装置
US8445766B2 (en) * 2010-02-25 2013-05-21 Qualcomm Incorporated Electronic display of sheet music
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63113498A (ja) * 1986-10-30 1988-05-18 可児 弘文 鍵盤楽器の自動演奏装置
JPH03282592A (ja) * 1990-03-30 1991-12-12 Yamaha Corp 自動演奏装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2764961B2 (ja) * 1988-11-18 1998-06-11 ヤマハ株式会社 電子楽器
US4930390A (en) * 1989-01-19 1990-06-05 Yamaha Corporation Automatic musical performance apparatus having separate level data storage
US5225618A (en) * 1989-08-17 1993-07-06 Wayne Wadhams Method and apparatus for studying music
US5092216A (en) * 1989-08-17 1992-03-03 Wayne Wadhams Method and apparatus for studying music

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63113498A (ja) * 1986-10-30 1988-05-18 可児 弘文 鍵盤楽器の自動演奏装置
JPH03282592A (ja) * 1990-03-30 1991-12-12 Yamaha Corp 自動演奏装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058577A (ja) * 2004-08-19 2006-03-02 Yamaha Corp 複数の時系列データを処理するためのデータ処理装置およびプログラム

Also Published As

Publication number Publication date
US5453569A (en) 1995-09-26

Similar Documents

Publication Publication Date Title
JPH05257465A (ja) 楽器演奏者の特徴抽出再生装置
JP2000514571A (ja) 自動即興演奏システム及び方法
JPH0546172A (ja) 自動演奏装置
JPS59197090A (ja) 電子楽器
JP2522343B2 (ja) 自動演奏装置
JPS59139093A (ja) 電子楽器のデータ伝送システム
JPH01179090A (ja) 自動伴奏装置
JP2587737B2 (ja) 自動伴奏装置
JP2940449B2 (ja) 自動演奏装置
JPH07113829B2 (ja) 自動演奏装置
JP2572317B2 (ja) 自動演奏装置
JP3755385B2 (ja) 音源装置および音源装置において読み取り可能な記録媒体
JP3832147B2 (ja) 曲データ加工方法
JPH058638Y2 (ja)
JPH08314484A (ja) 自動演奏装置
JP2674331B2 (ja) 自動伴奏装置
JP2760346B2 (ja) 電子楽器システム
JP3424989B2 (ja) 電子楽器の自動伴奏装置
JP3120487B2 (ja) 自動伴奏機能付電子楽器
JP2576296B2 (ja) 電子楽器の自動伴奏装置
JPS6365157B2 (ja)
JPS58152291A (ja) 自動学習型伴奏装置
JPH04257895A (ja) 自動伴奏システムのコードステップレコーディング装置及び方法
JPH05188961A (ja) 自動伴奏装置
JPS5988795A (ja) 自動演奏機のテンポ制御装置