JP2002041035A - 再生用符号化データ作成方法 - Google Patents

再生用符号化データ作成方法

Info

Publication number
JP2002041035A
JP2002041035A JP2000229123A JP2000229123A JP2002041035A JP 2002041035 A JP2002041035 A JP 2002041035A JP 2000229123 A JP2000229123 A JP 2000229123A JP 2000229123 A JP2000229123 A JP 2000229123A JP 2002041035 A JP2002041035 A JP 2002041035A
Authority
JP
Japan
Prior art keywords
encoded data
note
data
notes
midi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000229123A
Other languages
English (en)
Other versions
JP4268322B2 (ja
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2000229123A priority Critical patent/JP4268322B2/ja
Publication of JP2002041035A publication Critical patent/JP2002041035A/ja
Application granted granted Critical
Publication of JP4268322B2 publication Critical patent/JP4268322B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【課題】 従来の音響信号の符号化方式の欠点を補い、
演奏者の個性を反映するために演奏録音したデータを用
いながらも、楽譜に忠実な音楽コンテンツを制作するこ
とが可能な再生用符号化データ作成方法を提供する。 【解決手段】 同一楽曲について、演奏録音データを符
号化したMIDI符号化データ(a)、楽譜の記載を忠
実に再現したMIDI打込みデータ(b)を作成する。
所定の規則に従って両データの対応付けを行い、両デー
タが有する音符の対応関係を得る(d)。MIDI打込
みデータ内の1つの音符3に対応するMIDI符号化デ
ータ内の複数の音符7,10を統合する(c)。MID
I符号化データ内から非対応音符を削除する(d)。M
IDI符号化データ内に、MIDI打込みデータ内の非
対応音符を追加する(f)。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、インターネット情報通
信網等のネットワークを経由して汎用パソコンまたは専
用受信機に配信される音楽コンテンツ、固体メモリなど
を記録媒体として備えた携帯音楽プレーヤまたは携帯電
話機向けの音楽コンテンツ、自動演奏機能をもつアコー
スティック楽器、電子楽器、カラオケ再生機向けの音楽
コンテンツの制作に適した音響信号の符号化技術に関す
る。
【0002】
【従来の技術】音響信号を符号化する技術として、PC
M(Pulse Code Modulation)の手法は最も普及してい
る手法であり、現在、オーディオCDなどの記録方式と
して広く利用されている。このPCMの手法の基本原理
は、アナログ音響信号を所定のサンプリング周波数でサ
ンプリングし、各サンプリング時の信号強度を量子化し
てデジタルデータとして表現する点にあり、サンプリン
グ周波数や量子化ビット数を高くすればするほど、原音
を忠実に再現することが可能になる。ただ、サンプリン
グ周波数や量子化ビット数を高くすればするほど、必要
な情報量も増えることになる。そこで、できるだけ情報
量を低減するための手法として、信号の変化差分のみを
符号化するADPCM(Adaptive Differential Pulse
Code Modulation)の手法も用いられている。
【0003】しかし、近年では、ネットワークを経由し
て配信される音楽コンテンツあるいは携帯音楽プレーヤ
に収納される音楽コンテンツの条件として、PCMデー
タに比べてデータ量が少なく同程度の品質が要求され、
これに対応するためにMP3(MPEG-1 layer-3)などが
活用されている。MP3はPCMと同様に波形符号化方
式の一つで、CDに比べ1/10程度のデータ量で同程
度の品質が得られると言われている。しかし、現在検討
されている携帯電話・PHSに携帯音楽プレーヤ(次世
代ウォークマン(登録商標))としての機能を搭載させ
る場合、現状の数十kbpsワイヤレス通信網のインフラで
はMP3はデータ量が大きすぎ、そのためには圧縮率を
更に上げる必要が生じる。
【0004】一方、電子楽器による楽器音を符号化しよ
うという発想から生まれたMIDI(Musical Instrume
nt Digital Interface)規格も、パーソナルコンピュー
タの普及とともに盛んに利用されるようになってきてい
る。このMIDI規格による符号データ(以下、MID
Iデータという)は、基本的には、楽器のどの鍵盤キー
を、どの程度の強さで弾いたか、という楽器演奏の操作
を記述したデータであり、このMIDIデータ自身に
は、実際の音の波形は含まれていない。そのため、実際
の音を再生する場合には、楽器音の波形を記憶したMI
DI音源が別途必要になる。しかしながら、上述したP
CMやMP3の手法で音を記録する場合に比べて、情報
量が極めて少なくて済むという特徴を有し、その符号化
効率の高さが注目を集めている。このMIDI規格によ
る符号化および復号化の技術は、現在、パーソナルコン
ピュータを用いて楽器演奏、楽器練習、作曲などを行う
ソフトウェアに広く採り入れられており、カラオケ、ゲ
ームの効果音といった分野でも広く利用されている。特
に再生時にテンポやトーンを変更する要求があると共
に、新曲を通信回線でダウンロード再生できる通信カラ
オケの分野ではMIDI方式が主流になってきている。
【0005】
【発明が解決しようとする課題】そのため、音楽コンテ
ンツ作成のためにもMIDI方式を適用できることが好
ましい。MIDI方式の作成方法としては、以下の3通
りがあり、それぞれ一長一短がある。第1の方法は、楽
譜の情報をMIDIデータに手作業で打ち込み、演奏上
の表情(強弱など)を手入力編集する方法である。第1
の方法によれば、和音・単音を問わず楽譜に忠実に音符
の時刻、長さ、ノートナンバー(音階)を入力でき、パ
ート譜があればマルチトラックで正確に入力できる、入
力されたデータは楽譜出版にも活用でき、符号化効率が
良い等の利点があるが、楽譜に記載のないベロシティ情
報(音の強弱)については入力が困難で、演奏が譜面通
りの揺らぎのない無味乾燥な音楽になりがちであるた
め、音楽作品として鑑賞する用途に向かない、という問
題がある。
【0006】第2の方法は、電子ピアノ、キーボード、
ギター、パーカッション・ドラム(最近ではサイレント
・バイオリン、クラリネット(サイレントシリーズはヤ
マハ(株)の登録商標)などもある)などMIDIデー
タ出力可能な電子楽器でパソコンと接続しながらミュー
ジシャンに生演奏を行ってもらい、パソコン上のシーケ
ンサーソフトでリアルタイムに各楽器からのMIDIデ
ータを取り込む方法である。第2の方法によれば、演奏
者の表現がベロシティデータとして定量的に記録でき、
楽器によってはペダルを踏んだ等の制御情報も付加され
るため、編集を若干加えれば完成度の高い音楽作品を制
作できるが、対応楽器が限定され、現状では鑑賞に耐え
得るのはピアノ作品にとどまる、演奏者はMIDI音源
出力の音で自分の演奏した音をモニターすることにな
り、アコースティック楽器のように楽器の振動を体感で
きないため、不自然な演奏形態で音楽を表現することに
なる、等の問題が生じる。
【0007】第3の方法は、演奏を録音することにより
得られる音響信号に対して、所定の手法で解析を行うこ
とにより、その構成要素となる周期信号を抽出し、抽出
した周期信号をMIDIデータを用いて符号化する方法
である。例えば、特開平10−247099号公報、特
開平11−73199号公報、特開平11−73200
号公報、特開平11−95753号公報、特開2000
−99009号公報、特開2000−99093号公
報、特願平11−58431号明細書、特願平11−1
77875号明細書、特願平11−329297号明細
書には、任意の時系列信号について、構成要素となる周
波数を解析し、その解析結果からMIDIデータを作成
することができる種々の方法が提案されている。第3の
方法によれば、MIDI楽器などを用いた不自然な環境
でなく、コンサートホールなど自然な状態で演奏された
録音信号から演奏表現情報を獲得できるため、ベロシテ
ィなどの演奏制御情報に関しては得られる精度が高いと
いう利点がある。しかし、信号内のノイズ・ゆらぎなど
の影響を受け易く、ゆらぎにより音の高さを誤認識した
り、特に音符の長さを正確に検出するのが難しい。ま
た、和音および倍音との識別を信号処理だけで完璧に行
うことが難しく、特に金管楽器など倍音レベルが基本音
より高い音源や、ドラムなど雑音に富むリズム楽器に対
しては解析が難しく、音量の高いリズム楽器が鳴ってい
る音楽からメロディーを検出するのは困難である。ま
た、マルチトラックMIDIデータ作成については、ア
ンサンブル演奏録音信号から音源分離して符号化するこ
とが困難である等の問題がある。
【0008】本発明は、上記のような各方法の欠点を補
い、演奏者の個性を反映するために演奏録音したデータ
を用いながらも、楽譜に忠実な音楽コンテンツを制作す
ることが可能な再生用符号化データ作成方法を提供する
ことを課題とする。
【0009】
【課題を解決するための手段】上記課題を解決するた
め、本発明の第1の態様は、録音された音響信号を基
に、発音の時刻、長さ、音の高さ、音の強さの情報を備
えた音符の集合で構成される第1の符号化データ(MI
DI符号化データ)を作成し、演奏に用いられた楽譜に
記載された音符を忠実に符号化して、第2の符号化デー
タ(MIDI打込みデータ)を作成し、第1の符号化デ
ータに含まれる音符と、第2の符号化データに含まれる
音符を時間的な位置関係と音の高さの類似性により対応
付け、第1の符号化データに含まれる音符であって、第
2の符号化データに含まれる音符との対応付けが行なわ
れなかった音符を、第1の符号化データから削除するよ
うに、第1の符号化データに対して補正を施すことによ
り、再生用符号化データを作成するようにしたことを特
徴とする。本発明の第2の態様は、録音された音響信号
を基に、発音の時刻、長さ、音の高さ、音の強さの情報
を備えた音符の集合で構成される第1の符号化データ
(MIDI符号化データ)を作成し、演奏に用いられた
楽譜に記載された音符を忠実に符号化して、第2の符号
化データ(MIDI打込みデータ)を作成し、第1の符
号化データに含まれる音符と、第2の符号化データに含
まれる音符を時間的な位置関係と音の高さの類似性によ
り対応付け、第2の符号化データに含まれる音符であっ
て、第1の符号化データに含まれる音符との対応付けが
行なわれた音符に対して、その発音の時刻、長さ、音の
強さの情報を、第1の符号化データに含まれる対応する
音符の発音の時刻、長さ、音の強さの情報にそれぞれ置
換するように、第2の符号化データに対して補正を施す
ことにより、再生用符号化データを作成するようにした
ことを特徴とする。本発明の前記2つの態様によれば、
演奏録音を基にしたデータに対して、楽譜を基にしたデ
ータで補正を行うようにする、あるいは楽譜を基にした
データに対して、演奏録音を基にしたデータで補正を行
うようにしたので、演奏者の個性を反映させながらも、
楽譜に忠実な音楽コンテンツを制作することが可能とな
る。
【0010】
【発明の実施の形態】以下、本発明の実施形態について
図面を参照して詳細に説明する。本発明による符号化デ
ータ作成方法は、演奏に基づくMIDIデータに補正を
かける方法と楽譜に基づくMIDIデータに補正をかけ
る方法に大別され、前者については1つの楽器によるソ
ロ演奏を1つのトラックに符号化するシングルトラック
を事例に用いて説明し、後者についてはボーカル付き合
奏を各パートごとに別々のトラックに記録するマルチト
ラックを事例に用いて説明する。まず最初に、前者の方
法についてシングルトラックの事例を用いて説明する。
【0011】(演奏に基づくMIDIデータに補正をか
ける方法、シングルトラック例)図1は、シングルトラ
ックすなわち1つの楽器によるソロ演奏の場合の符号化
データ作成方法の概要を示すフローチャートである。な
お、ここでは、符号化の形式としてMIDI規格を採用
した例を用いて説明する。図1に示す再生用符号化デー
タ作成方法では、同一の楽曲に対して演奏録音したPC
Mデータと楽譜を用いて、それぞれを基にMIDIデー
タを作成する。そして、演奏から得られるMIDIデー
タを基本にして、楽譜から得られるMIDIデータを利
用して補正することにより最終的な再生用符号化データ
を得るようにしている。
【0012】具体的には、まず、ステップS1におい
て、演奏録音PCMデータに対してMIDI符号化処理
を行う。これは、上記従来技術の第3の方法で説明した
ように、演奏を録音することにより得られる音響信号に
対して、所定の手法で解析を行うことにより、その構成
要素となる周期信号を抽出し、抽出した周期信号をMI
DIデータを用いて符号化することにより行なわれる。
一方、ステップS2では、同じ楽曲の楽譜からMIDI
データをキーボード等から打込むことにより手作業で入
力する。これは上記従来技術の第1の方法で説明したも
のである。ステップS1の処理により得られるMIDI
データとステップS2により得られるMIDIデータは
同一形式のMIDIデータであるが、両者を区別するた
めに、以降はステップS1の符号化処理により得られる
MIDIデータをMIDI符号化データ、ステップS2
の打込み入力により得られるMIDIデータをMIDI
打込みデータと呼ぶことにする。
【0013】ステップS1、ステップS2において2つ
の異なる方法により同一楽曲のMIDIデータが得られ
たら、ステップS3において、両MIDIデータにおけ
る音符の対応付け処理を行う。ステップS3以降の具体
的な処理について図2を用いて詳細に説明する。図2
(a)にステップS1の処理により、演奏録音PCMデ
ータから得られたMIDI符号化データを示す。図2
(a)はMIDI符号化データのイメージを捉え易いよ
うに、各音符を下向きの三角形で模式化したものであ
り、横軸は時間をMIDI規格のデルタタイムの単位で
表現し、縦軸は三角形の上辺の位置が音の高さ(MID
I規格のノートナンバー)、三角形の高さが音の強さ
(MIDI規格のベロシティ)を表している。図2
(a)の例では、所定の時間内において10個の音符が
符号化されたことになる。
【0014】図2(b)はステップS2の処理により、
楽譜を見て人が手作業により入力したMIDI打込みデ
ータである。図2(b)の例では、図2(a)に示した
MIDI符号化データと同一時間内には、4つの音符が
楽譜に記載されていたことを示している。なお、楽譜で
は各音符の音の強さが記載されていないため、全て同一
のベロシティで入力される。したがって、図2(b)に
おいては、ベロシティを示す三角形の高さは全て同一と
なっている。
【0015】ステップS3では、図2(a)に示すよう
なMIDI符号化データに含まれる音符と、図2(b)
に示すようなMIDI打込みデータに含まれる音符の対
応付け処理を行う。具体的には、ノートナンバーが類似
しており、時間がわずかでも重なっている音符を、同一
の音符であるとみなして対応付ける。ここで音符の時間
の重なり判断に関しては、通常これら2種の音符群は異
なるテンポ設定で作成されるため、全音符の総演奏時間
が一致するようにあらかじめ時間軸の補正をかけた上で
行う。次にノートナンバーの類似性の判断については、
ノートナンバーが同一もしくはちょうど1オクターブず
れている状態をいう。例えば、MIDI符号化データの
「ド」の音符に対しては、MIDI打込みデータにおけ
る、当該「ド」と同じ高さの「ド」、1オクターブ高い
「ド」、1オクターブ低い「ド」の3つが対応付けられ
ることになる。このような対応付けは、楽器音などでは
基本音の周波数の整数倍の倍音成分が顕著に発生し基本
音が不鮮明になることがあるためで、基本音に修正する
ために行われる。また、MIDI符号化データ内の音符
は演奏状態により半音程度ずれている場合があるので、
これを補正するためにノートナンバーを同一とみなす範
囲を半音分(ノートナンバー1つ分)まで許容するよう
な設定にしておくこともできる。この場合、例えば
「ド」の音に対しては、「シ」、「ド#」の音が対応付
けられることになる。これは、1オクターブずれた音符
についても同様である。
【0016】図2(a),(b)に示す例では、1オク
ターブずれた音符が存在せず(図2において1オクター
ブは12目盛分)、時間が重なるもので音階が半音ずれ
ているものも存在しないので、ノートナンバーが同一の
ものについてのみ対応付けが行なわれる。例えば、図2
(a)と図2(b)に示した各音符の対応付け処理を行
うと、図2(d)に示すような対応関係が得られること
になる。このようにして、ステップS3においては、自
動的にMIDI符号化データと、MIDI打込みデータ
の対応付けを行うことができるが、演奏者がビブラート
等、演奏効果上あえて楽譜通りでなく演奏したような場
合、自動的な対応付けがかえって演奏の独創性を削いで
しまうことがある。そのような場合、ここでは、対応付
けを修正することを可能にしている。具体的には、図2
(a)、(b)に示すような模式化したMIDIデータ
を表示可能にしておき、ステップS3の処理により対応
付けられた音符同士を同色で表示する。例えば、図2
(a)に示す音符7を表す三角形と音符10を表す三角
形の内部は、図2(b)に示す音符3を表す三角形の内
部と同色で表示されることになる。対応付けを変更する
場合は、例えば、修正者が図2(b)の音符3を指定し
た後、図2(a)の音符8を指定すると、MIDI符号
化データの音符8と、MIDI打込みデータの音符3が
対応付けられることになる。
【0017】ステップS4においては、MIDI符号化
データにおける対応音符の統合を行う。図2の例では、
MIDI打込みデータ内の音符3に対してMIDI符号
化データ内の音符7、音符10が対応しているので、音
符7と音符10を1つに統合する。これは、音符7の終
了時刻を音符10の終了時刻に変更することにより、図
2(c)に示すような音符7を作成し、音符10を削除
することにより行なわれる。
【0018】図2の例では、ここで対応音符の統合を行
っているが、対応音符の関係によっては、対応音符の分
解が行われることもある。対応音符の分解は、図2の例
とは逆に、MIDI符号化データの1つの音符とMID
I打込みデータの複数の音符が対応している場合に行な
われる。この場合、MIDI符号化データ内の音符は、
対応するMIDI打込みデータ内の音符の数と同数に分
解される。このとき、MIDI符号化データ内の分解さ
れる各音符の発音長さは、対応するMIDI打込みデー
タ内の音符の発音長さの比率と同率になるように分けら
れる。また、分解される各音符の音の強さは、分解前の
音符と同一とする。
【0019】次に、ステップS5において、ステップS
3で行った対応付けに従って、MIDI符号化データの
うち、対応するものがなかった音符を削除する。図2
(c)に示したMIDI符号化データから、対応してい
ない音符を削除すると、図2(e)に示す3つの音符の
みが残ることになる。
【0020】次に、ステップS6において、MIDI打
込みデータのうち、MIDI符号化データと対応しなか
った音符を、MIDI符号化データに追加する処理を行
うが、この処理は演奏内容に意図的な変更を加えること
になるため必須ではない。上述のように、図2(b)に
示したMIDI打込みデータのうち、音符4はMIDI
符号化データに対応しなかったので、この音符4を図2
(e)に示したMIDI符号化データに追加することに
なる。この結果、MIDI符号化データは図2(f)に
示すようになる。図2(f)においては、MIDI符号
化データに元々存在した音符4と区別するために、MI
DI打込みデータから追加される音符4を「追4」と表
記する。「追4」の時間は、この音符と時間的に重なる
図2(b)の音符3に対応する図2(c)の音符7と重
なるように決定され、「追4」の強さとしては、図2
(b)で設定されている値をそのまま用いているが、時
間的に重なる図2(c)の音符7の強度を考慮して補正
をする方法もとれる。
【0021】このようにしてMIDI符号化データを基
本に補正されたMIDIデータが得られたら、ステップ
S7において音源制御データの付加が行なわれ、再生用
符号化データとしてシングルトラックMIDIデータが
得られる。ステップS7における音源制御データの付加
とは、各音符を発音する際の音色を決定する処理であ
り、具体的にはMIDI音源が用意している音色を特定
する情報を各音符に付加する処理などを行う。この処理
は使用するMIDI音源等により異なり省略されること
もある。
【0022】(楽譜に基づくMIDIデータを補正する
方法、マルチトラック例)次に、ボーカル付き合奏を各
パートごとに別々のトラックに記録するマルチトラック
の場合について説明する。図3は、マルチトラックの場
合の符号化データ作成方法の概要を示すフローチャート
である。図3に示す符号化データ作成方法でも、シング
ルトラックの場合と同様に、同一の楽曲に対して演奏録
音したPCMデータと楽譜を用いて、それぞれを基にM
IDIデータを作成する。ただし、楽譜を基にしたMI
DIデータは楽器パートごとに別々のトラックに作成さ
れる。そして、楽譜から得られる各トラックのMIDI
データを、演奏から得られるMIDIデータを利用して
補正すると共に、演奏から得られるMIDIデータか
ら、楽譜から得られる各トラックのMIDIデータの音
符を削除していくことによりボーカルに対応する音符を
抽出する。これによりボーカルに対応したトラックのM
IDIデータと、楽器パートに対応したMIDIデータ
とが得られることになる。
【0023】ステップS11では、シングルトラックの
場合と同様に、演奏録音PCMデータが入力される。た
だし、このPCMデータは楽譜に記載されていないボー
カル成分が記録されたものとなっている。ステップS1
2では、楽譜を基にパート別にMIDIデータを手作業
で入力する。ステップS12では、各楽器パートのデー
タをそれぞれ異なるトラックに入力するようにしてい
る。
【0024】ステップS11、ステップS12において
2つの異なる方法により同一楽曲についてのMIDIデ
ータが得られたら、ステップS13において、両MID
Iデータに含まれる音符の対応付け処理を行う。ステッ
プS13以降の具体的な処理について図4を用いて詳細
に説明する。図4(a)にステップS11の処理によ
り、演奏録音PCMデータから得られたMIDI符号化
データを示す。
【0025】図4(b)はステップS12の処理によ
り、楽譜を見て人が手作業により入力したMIDIデー
タである。ステップS12では、各パート別に入力が行
われるため、楽器パート数分のMIDIデータが作成さ
れることになるが、ここでは、代表してそのうちの1つ
のトラックにおけるMIDIデータを示している。な
お、説明の便宜上、図4(a)(b)に示したMIDI
データは、図2(a)(b)に示したものと全く同一と
なっている。
【0026】ステップS13では、図4(a)に示すよ
うなMIDI符号化データと、図4(b)に示すような
MIDI打込みデータの対応付け処理を行う。ここで、
行なわれる処理は、図1のステップS3で説明した処理
と全く同一であるので説明は省略する。この結果、図2
(e)に示すような対応関係が得られることになる。こ
の対応関係をこのまま利用することもできるが、演奏に
基づくMIDIデータに補正をかける方法の場合と同様
に対応付けを修正することも可能である。
【0027】続いて、ステップS14において、MID
I符号化データのうち、MIDI打込みデータと対応す
る音符を削除する。例えば、図4(a)に示したMID
I符号化データからは、図4(e)の対応表に示した音
符1,4,7,10が削除され、図4(c)に示すよう
な音符が残ることになる。これにより、図4(a)に示
したMIDI符号化データからは、図4(b)に示した
ある楽器に対応した音符が削除されたことになる。
【0028】次に、ステップS15において、MIDI
打込みデータのうち、MIDI符号化データと対応する
音符の表情補正処理を行う。音符の表情補正とは、具体
的には、MIDI打込みデータの各音符のノートオン時
刻、ノートオフ時刻、ベロシティ値を、MIDI符号化
データの対応音符のノートオン時刻、ノートオフ時刻、
ベロシティ値に各々変更することである。これにより、
楽譜を基に打込まれた際には、作曲家の指示通りに指定
された演奏テンポが演奏者の意図通りの変化が施され、
図4(b)のように全て均一に入力されたMIDI打込
みデータの各音符のベロシティ値が、演奏者による音の
強さの抑揚に基づいた変化が与えられることになる。た
だし、図4(b)に示すMIDI打込みデータの音符4
のように対応する音符がない場合は、ベロシティの変更
は行われない。ステップS15の処理により図4(d)
に示すようなMIDI打込みデータが得られることにな
る。
【0029】図4のように、MIDI符号化データの複
数の音符7,10とMIDI打込みデータの1つの音符
3が対応しているような場合、対応音符の分解が行われ
るように設定しておくこともできる。具体的には、MI
DI打込みデータ内の音符は、対応するMIDI符号化
データ内の音符の数と同数に分解される。このとき、M
IDI打込みデータ内の分解される各音符の発音長さ
は、対応するMIDI符号化データ内の音符の発音長さ
の比率と同率になるように分けられる。また、分解され
る各音符の音の強さは、MIDI符号化データ内の各々
対応する音符と同一にする。
【0030】ステップS13〜ステップS15の処理
は、楽器パート数分、すなわち、ステップS12により
入力されたMIDI打込みデータのトラック数分だけ繰
り返し行なわれる。ただし、ステップS14の対応音符
の削除処理については、1つのトラックしかないMID
I符号化データについて繰り返し行われ、ステップS1
5の対応音符の表情補正処理については、各トラックの
MIDI打込みデータに対して1回だけ行われる。例え
ば、図4(d)に示したある楽器パートのMIDI打込
みデータは、これに音色データを付加することにより最
終的なマルチトラックMIDIデータを構成するトラッ
クデータとなるが、図4(c)に示したMIDI符号化
データは最終的なものではなく、再度別のトラックのM
IDI打込みデータと対応付けが行なわれ、対応音符の
削除処理が行われることになる。したがって、ステップ
S14の処理を繰り返すことにより、MIDI符号化デ
ータからは次々に各楽器に対応した音符が削除され、最
終的にボーカルに対応する音符だけが残ることになる。
また、ステップS15の処理を各トラックのMIDI打
込みデータに対して行うことにより、各楽器パートの音
符の強弱が決定されることになる。例えば、全体でNト
ラックからなるマルチトラックMIDIデータを作成す
る場合、ステップS12のデータ打込み処理は(N−
1)トラック分行なわれ、ステップS13〜ステップS
15の処理はそれぞれ(N−1)回繰り返され、最終的
に第1トラックがボーカル、第2〜第Nトラックがそれ
ぞれ各楽器パートに対応したマルチトラックMIDIデ
ータが得られることになる。
【0031】さらに、このマルチトラックMIDIデー
タには、ステップS16において音源制御データの付加
が行なわれる。これは、演奏に基づくMIDIデータを
補正する方法の場合のステップS7の処理を各トラック
に対して同様に行うことにより実現される。
【0032】以上、本発明の好適な実施形態について説
明したが、本発明は上記実施形態に限定されず、種々の
変形が可能である。第2の楽譜に基づくMIDIデータ
を補正する方法は、ボーカルを含むマルチトラックの場
合について説明したが、もちろんボーカルを含まない場
合でも、シングルトラックの場合でも適用可能である。
シングルトラックの場合にはステップS14の処理が不
要になる。逆に、第1の演奏に基づくMIDIデータを
補正する方法をマルチトラックの場合や、ボーカルを含
む場合にも適用可能である。前者の第1の演奏に基づく
MIDIデータを補正する方法をマルチトラックの場合
に適用するには、ステップS2でステップS12と同様
なマルチトラック入力を行い、ステップS3で各トラッ
クごとに対応付けを行い、対応付けられた再生用符号化
データをマルチトラック形式で出力するようにすればよ
い。後者の第1の演奏に基づくMIDIデータを補正す
る方法をボーカルを含む場合に適用するには、ステップ
S5で削除された非対応音符を別のトラックに保存して
同様に再生用符号化データをマルチトラック形式で出力
するようにすればよい。
【0033】更に、上記演奏に基づくMIDIデータを
補正する方法の場合、ステップS4において対応音符を
統合した際に、統合した音符に対してビブラートまたは
ピッチベンド制御情報を付加することも可能である。ま
た、楽譜に基づくMIDIデータを補正する方法の場合
にも、MIDI打込みデータ内の統合された音符に対し
てビブラートまたはピッチベンド制御情報を付加するこ
ともできる。
【0034】
【発明の効果】以上、説明したように本発明によれば、
録音された音響信号を基に、発音の時刻、長さ、音の高
さ、音の強さの情報を備えた音符の集合で構成される第
1の符号化データ(MIDI符号化データ)を作成し、
演奏に用いられた楽譜に記載された音符を忠実に符号化
して、第2の符号化データ(MIDI打込みデータ)を
作成し、第1の符号化データに含まれる音符と、第2の
符号化データに含まれる音符を時間的な位置関係と音の
高さの類似性により対応付け、第1の符号化データに含
まれる音符であって、第2の符号化データに含まれる音
符との対応付けが行なわれなかった音符を、第1の符号
化データから削除して、補正した第1の符号化データを
再生用符号化データとして出力するか、または第2の符
号化データに含まれる音符であって、第1の符号化デー
タに含まれる音符との対応付けが行なわれた音符の発音
の時刻、長さ、音の強さの情報を、第1の符号化データ
の対応する音符の発音の時刻、長さ、音の強さの情報に
各々置換することにより、補正した第2の符号化データ
を再生用符号化データとして出力することにより、再生
用符号化データを作成するようにしたので、演奏者の個
性を反映させながらも、楽譜に忠実な音楽コンテンツを
制作することが可能となるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の演奏に基づくMIDIデータを補正す
る方法をシングルトラック形式に適用した場合のフロー
チャートである。
【図2】シングルトラック形式の場合に、符号化データ
に含まれる音符に対して行われる処理を説明するための
図である。
【図3】本発明の楽譜に基づくMIDIデータを補正す
る方法をマルチトラック形式に適用した場合のフローチ
ャートである。
【図4】マルチトラック形式の場合に、符号化データに
含まれる音符に対して行われる処理を説明するための図
である。
【符号の説明】
1〜10・・・音符

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】演奏を録音することにより得られる時系列
    の音響信号と、前記演奏に用いられた楽譜を用いて、最
    適な再生用符号化データを作成する方法であって、 前記音響信号を基に、発音の時刻、長さ、音の高さ、音
    の強さの情報を備えた音符の集合で構成される第1の符
    号化データを作成する段階と、 前記演奏に用いられた楽譜に記載された音符を忠実に符
    号化して、第2の符号化データを作成する段階と、 前記第1の符号化データに含まれる音符と、前記第2の
    符号化データに含まれる音符を時間的な位置関係と音の
    高さの類似性により対応付ける符号化データ対応付け段
    階と、 前記第1の符号化データに含まれる音符であって、前記
    第2の符号化データに含まれる音符との対応付けが行な
    われなかった音符を、前記第1の符号化データから削除
    する非対応符号化データ補正段階と、 前記補正を施された第1の符号化データを再生用符号化
    データとして出力する再生用符号化データ出力段階と、 を有することを特徴とする再生用符号化データ作成方
    法。
  2. 【請求項2】演奏を録音することにより得られる時系列
    の音響信号と、前記演奏に用いられた楽譜を用いて、最
    適な再生用符号化データを作成する方法であって、 前記音響信号を基に、発音の時刻、長さ、音の高さ、音
    の強さの情報を備えた音符の集合で構成される第1の符
    号化データを作成する段階と、 前記演奏に用いられた楽譜に記載された音符を忠実に符
    号化して、第2の符号化データを作成する段階と、 前記第1の符号化データに含まれる音符と、前記第2の
    符号化データに含まれる音符を時間的な位置関係と音の
    高さの類似性により対応付ける符号化データ対応付け段
    階と、 前記第2の符号化データに含まれる音符であって、前記
    第1の符号化データに含まれる音符との対応付けが行な
    われた音符の発音の時刻、長さ、音の強さの情報を、対
    応する前記第1の符号化データに含まれる音符の発音の
    時刻、長さ、音の強さの情報と各々同一になるように変
    更する対応符号化データ補正段階と、 前記補正を施された第2の符号化データを再生用符号化
    データとして出力する再生用符号化データ出力段階と、 を有することを特徴とする再生用符号化データ作成方
    法。
  3. 【請求項3】前記非対応符号化データ補正段階が、前記
    第2の符号化データに含まれる音符であって、前記第1
    の符号化データに含まれる音符との対応付けが行なわれ
    なかった音符に対して、その発音の時刻、長さ、音の強
    さの情報に適宜修正を施し、前記第1の符号化データに
    追加するような音符追加段階を有することを特徴とする
    請求項1に記載の再生用符号化データ作成方法。
  4. 【請求項4】前記符号化データ対応付け段階は、音の高
    さの類似性の条件を、同一音高とみなされる範囲および
    1オクターブ異なる同一音高とみなされる範囲とするも
    のであり、前記第1の符号化データに含まれる音符と当
    該音符に対応付けられた前記第2の符号化データに含ま
    れる音符の音の高さが1オクターブ異なる場合には、前
    記第1の符号化データに含まれる音符の音の高さを、前
    記第2の符号化データに含まれる音符の音の高さに変更
    するものであることを特徴とする請求項1または2に記
    載の再生用符号化データ作成方法。
  5. 【請求項5】前記符号化データ対応付け段階が、前記第
    1の符号化データに含まれる複数の音符と、前記第2の
    符号化データに含まれる1つの音符を対応付けるもので
    あり、さらに、前記第1の符号化データに含まれる複数
    の音符を1つの音符に統合して、統合された音符の音の
    高さを、前記対応付けられた第2の符号化データに含ま
    れる1つの音符の高さとする音符統合段階を有すること
    を特徴とする請求項1に記載の再生用符号化データ作成
    方法。
  6. 【請求項6】前記符号化データ対応付け段階が、前記第
    1の符号化データに含まれる1つの音符と、前記第2の
    符号化データに含まれる複数の音符を対応付けるもので
    あり、さらに、前記第1の符号化データに含まれる1つ
    の音符を、当該音符に対応する第2の符号化データに含
    まれる音符の数と同数に分解し、分解された各音符の発
    音長さは、対応する第2の符号化データに含まれる音符
    の各長さに応じて決定し、分解された各音符の音の強さ
    は、全て分解前の音符と同一にする音符分解段階を有す
    ることを特徴とする請求項1に記載の再生用符号化デー
    タ作成方法。
  7. 【請求項7】前記符号化データ対応付け段階が、前記第
    2の符号化データに含まれる1つの音符と、前記第1の
    符号化データに含まれる複数の音符を対応付けるもので
    あり、さらに、前記第2の符号化データに含まれる1つ
    の音符を、当該音符に対応する第1の符号化データに含
    まれる音符の数と同数に分解し、分解された各音符の発
    音長さは、対応する第1の符号化データに含まれる音符
    の各長さに応じて決定し、分解された各音符の音の強さ
    は、前記第1の符号化データの各々対応する音符と同一
    にする音符分解段階を有することを特徴とする請求項2
    に記載の再生用符号化データ作成方法。
  8. 【請求項8】前記再生用符号化データ出力段階が、前記
    第1の符号化データに含まれる音符であって、前記第2
    の符号化データに含まれる音符との対応付けが行なわれ
    なかった音符を、他の再生用符号化データとは異なるト
    ラックで前記再生用符号化データに付加するような非対
    応符号化データ追加段階を有し、複数のトラックで構成
    される再生用符号化データを出力するようにしているこ
    とを特徴とする請求項1または2に記載の再生用符号化
    データ作成方法。
  9. 【請求項9】前記第2の符号化データを作成する段階
    が、楽譜のパートに基づいて複数のトラックで構成され
    る符号化データを作成するようにし、 前記符号化データ対応付け段階が、前記第1の符号化デ
    ータに含まれる複数の音符と、前記第2の符号化データ
    の各トラックに含まれる音符を対応付けることにより、
    前記第1の符号化データを複数のトラックに分離するよ
    うなトラック分離段階を有し、 前記再生用符号化データ出力段階が、複数のトラックで
    構成される再生用符号化データを出力するようにしてい
    ることを特徴とする請求項1に記載の再生用符号化デー
    タ作成方法。
JP2000229123A 2000-07-28 2000-07-28 再生用符号化データ作成方法 Expired - Fee Related JP4268322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000229123A JP4268322B2 (ja) 2000-07-28 2000-07-28 再生用符号化データ作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000229123A JP4268322B2 (ja) 2000-07-28 2000-07-28 再生用符号化データ作成方法

Publications (2)

Publication Number Publication Date
JP2002041035A true JP2002041035A (ja) 2002-02-08
JP4268322B2 JP4268322B2 (ja) 2009-05-27

Family

ID=18722295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000229123A Expired - Fee Related JP4268322B2 (ja) 2000-07-28 2000-07-28 再生用符号化データ作成方法

Country Status (1)

Country Link
JP (1) JP4268322B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162282A (ja) * 2001-11-28 2003-06-06 Yamaha Corp 演奏情報生成方法、演奏情報生成装置およびプログラム
JP2004077721A (ja) * 2002-08-15 2004-03-11 Osamu Hori 大正琴実演奏補正プログラム及び大正琴実演奏補正装置
JP2005017706A (ja) * 2003-06-26 2005-01-20 Nec Corp 録音システムおよび録音方法
JP2012053204A (ja) * 2010-08-31 2012-03-15 Brother Ind Ltd データ修正装置、及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162282A (ja) * 2001-11-28 2003-06-06 Yamaha Corp 演奏情報生成方法、演奏情報生成装置およびプログラム
JP2004077721A (ja) * 2002-08-15 2004-03-11 Osamu Hori 大正琴実演奏補正プログラム及び大正琴実演奏補正装置
JP2005017706A (ja) * 2003-06-26 2005-01-20 Nec Corp 録音システムおよび録音方法
JP2012053204A (ja) * 2010-08-31 2012-03-15 Brother Ind Ltd データ修正装置、及びプログラム

Also Published As

Publication number Publication date
JP4268322B2 (ja) 2009-05-27

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
US7601904B2 (en) Interactive tool and appertaining method for creating a graphical music display
US5792971A (en) Method and system for editing digital audio information with music-like parameters
JP2010518459A (ja) 配布オーディオファイル編集用ウェブポータル
CN1145679A (zh) 用于改变音频信号音质和/或进行音调控制的方法和装置
Lindemann Music synthesis with reconstructive phrase modeling
JP2003241757A (ja) 波形生成装置及び方法
CN1750116A (zh) 自动表演风格确定设备和方法
JP2008527463A (ja) 完全なオーケストレーションシステム
JP4268322B2 (ja) 再生用符号化データ作成方法
JP4407473B2 (ja) 奏法決定装置及びプログラム
Mazzola et al. Basic Music Technology
JP6819732B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JP2001005450A (ja) 音響信号の符号化方法
Menzies New performance instruments for electroacoustic music
Subramanian Synthesizing Carnatic music with a computer
JP4220108B2 (ja) 音響信号符号化システム
JP4152502B2 (ja) 音響信号の符号化装置および符号データの編集装置
WO2004025306A1 (en) Computer-generated expression in music production
JP6981239B2 (ja) 機器、方法及びプログラム
JP3760909B2 (ja) 楽音生成装置及び方法
EP1017039B1 (en) Musical instrument digital interface with speech capability
JP4473979B2 (ja) 音響信号の符号化方法および復号化方法ならびに当該方法を実行するプログラムを記録した記録媒体
JP3832422B2 (ja) 楽音生成装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090220

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees