JPH0736455A - 音楽イベントインデックス作成装置 - Google Patents
音楽イベントインデックス作成装置Info
- Publication number
- JPH0736455A JPH0736455A JP5181475A JP18147593A JPH0736455A JP H0736455 A JPH0736455 A JP H0736455A JP 5181475 A JP5181475 A JP 5181475A JP 18147593 A JP18147593 A JP 18147593A JP H0736455 A JPH0736455 A JP H0736455A
- Authority
- JP
- Japan
- Prior art keywords
- matching
- unit
- spectrum
- score
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
(57)【要約】
【目的】 マルチメディアソフトウェア制作時に必要と
なる、CDなどに収録された音楽の中での音符などの演
奏時刻と、楽譜上での位置の対応の情報を自動的に作成
する。 【構成】 スペクトル作成部13はオーディオの一区間
から音階毎のパワースペクトルを作成し、楽譜窓部17
は時間方向に展開された楽譜情報の一区間を取りだし、
スペクトル合成部110は楽譜データと、楽器・音域別
に用意された倍音スペクトルパターンを用い、該当区間
の予想スペクトルを合成出力し、マッチング部18は、
スペクトル作成部13とスペクトル合成部110の出力
を比較し、両者の差異が小さくなった場合のセグメント
窓部12の中心時刻を出力し、マッチング結果記録部1
9はその時刻を楽譜データ入力部16の対応する音符に
合わせて記録し、マッチング制御部14はマッチング部
18の結果がマッチング不十分時にはセグメント窓を時
間軸の増加方向に移動して再度マッチングを試み、また
十分マッチする場合には楽譜窓、セグメント窓を移動さ
せる。
なる、CDなどに収録された音楽の中での音符などの演
奏時刻と、楽譜上での位置の対応の情報を自動的に作成
する。 【構成】 スペクトル作成部13はオーディオの一区間
から音階毎のパワースペクトルを作成し、楽譜窓部17
は時間方向に展開された楽譜情報の一区間を取りだし、
スペクトル合成部110は楽譜データと、楽器・音域別
に用意された倍音スペクトルパターンを用い、該当区間
の予想スペクトルを合成出力し、マッチング部18は、
スペクトル作成部13とスペクトル合成部110の出力
を比較し、両者の差異が小さくなった場合のセグメント
窓部12の中心時刻を出力し、マッチング結果記録部1
9はその時刻を楽譜データ入力部16の対応する音符に
合わせて記録し、マッチング制御部14はマッチング部
18の結果がマッチング不十分時にはセグメント窓を時
間軸の増加方向に移動して再度マッチングを試み、また
十分マッチする場合には楽譜窓、セグメント窓を移動さ
せる。
Description
【0001】
【産業上の利用分野】本発明は、CDやDATなどのメ
ディアに記録された演奏と、それに対応する楽譜との間
の、時刻的な対応関係を抽出する装置に関する。
ディアに記録された演奏と、それに対応する楽譜との間
の、時刻的な対応関係を抽出する装置に関する。
【0002】
【従来の技術】近年、記録デバイスの高密度大容量化な
どにともなって、コンピュータのマルチメディア化が進
み、テキスト情報の他に音声や動画などをコンピュータ
で取り扱う機会が増えている。それらのメディアを統合
的に使用する際には、時刻進行型のメディア、例えば音
楽や動画などの間で同期をとる場合が多い。
どにともなって、コンピュータのマルチメディア化が進
み、テキスト情報の他に音声や動画などをコンピュータ
で取り扱う機会が増えている。それらのメディアを統合
的に使用する際には、時刻進行型のメディア、例えば音
楽や動画などの間で同期をとる場合が多い。
【0003】その中で、特に音楽については古来よりの
表現として楽譜があり、現代でも広く音楽の情報を記述
する方法として用いられている。表現方法のもう一つの
代表としては演奏のオーディオ信号記録があるが、楽譜
と演奏の間には時間及び時刻についての差が存在する。
楽譜と音声メディアとの間の同期には、楽譜に記述され
ている音楽イベントと演奏の中での位置の対応付けが必
要であるが、現状では、手動で対応する時刻を計測する
ケースが多い。そのため、マルチメディアを有効に用い
た音楽パッケージソフト、特に音楽と譜面をはじめとす
るメディアとを結合したソフトを作成する際に大きな問
題となっている。
表現として楽譜があり、現代でも広く音楽の情報を記述
する方法として用いられている。表現方法のもう一つの
代表としては演奏のオーディオ信号記録があるが、楽譜
と演奏の間には時間及び時刻についての差が存在する。
楽譜と音声メディアとの間の同期には、楽譜に記述され
ている音楽イベントと演奏の中での位置の対応付けが必
要であるが、現状では、手動で対応する時刻を計測する
ケースが多い。そのため、マルチメディアを有効に用い
た音楽パッケージソフト、特に音楽と譜面をはじめとす
るメディアとを結合したソフトを作成する際に大きな問
題となっている。
【0004】楽譜上の音楽イベントと演奏の対応を求め
る方法としては高見らの方法(ピアノ演奏における演奏
情報の抽出、電子情報通信学会論文誌D−II Vo
l.J72−D−II No.6,917頁から926
頁、以下文献1)がある。文献1では、対象をピアノに
限定して、楽譜上の音符表現と演奏における揺らぎの抽
出を行なっており、その副次的な結果として、ある音符
の楽譜上と演奏中の位置の対応が得られている。ただ
し、文献1で用いられている方法では、楽器がピアノに
限定されていること、また音の立ち上がり及び立ち下が
りを求めるための余分な計算時間がかかっていた。
る方法としては高見らの方法(ピアノ演奏における演奏
情報の抽出、電子情報通信学会論文誌D−II Vo
l.J72−D−II No.6,917頁から926
頁、以下文献1)がある。文献1では、対象をピアノに
限定して、楽譜上の音符表現と演奏における揺らぎの抽
出を行なっており、その副次的な結果として、ある音符
の楽譜上と演奏中の位置の対応が得られている。ただ
し、文献1で用いられている方法では、楽器がピアノに
限定されていること、また音の立ち上がり及び立ち下が
りを求めるための余分な計算時間がかかっていた。
【0005】対象楽器の単一楽器への限定は、和音が演
奏された時に、個々の音程を同定しやすくするための条
件である。しかし、オーケストラをはじめとして、複数
種類の楽器による演奏も多数存在するために、楽器の限
定は実用性を欠く。また、楽器に依存しない複数音程認
識としては、従来あらかじめ演奏内容が与えられないと
いう前提で得られる精度の低いものしかなく、また、計
算量も多かった。
奏された時に、個々の音程を同定しやすくするための条
件である。しかし、オーケストラをはじめとして、複数
種類の楽器による演奏も多数存在するために、楽器の限
定は実用性を欠く。また、楽器に依存しない複数音程認
識としては、従来あらかじめ演奏内容が与えられないと
いう前提で得られる精度の低いものしかなく、また、計
算量も多かった。
【0006】
【発明が解決しようとする課題】本発明の目的は、対象
楽器の範囲をピアノ以外にも拡大し、また、少ない計算
量で楽譜と演奏の対応抽出を行なう装置を提供すること
にある。
楽器の範囲をピアノ以外にも拡大し、また、少ない計算
量で楽譜と演奏の対応抽出を行なう装置を提供すること
にある。
【0007】
【課題を解決するための手段】本発明の音楽イベントイ
ンデックス作成装置は、音楽を記録した録音メディア上
の演奏と該演奏に対応する音譜上の音符の時刻的対応及
びその一を検出する装置であって、演奏のオーディオ信
号を入力するオーディオデータ入力手段と、前記オーデ
ィオデータ入力手段から得られるデータのうちの時間的
に一部を選択出力するセグメント窓部と、前記セグメン
ト窓部の出力するデータから周波数スペクトルを作成す
るスペクトル作成部と、利用者が楽譜を入力する楽譜デ
ータ入力手段と、前記楽譜データ入力手段に与えられる
データから時刻的に一部を選択出力する楽譜窓部と、前
記楽譜窓部が出力する部分楽譜に対応する周波数スペク
トルを合成するスペクトル合成部と、前記スペクトル作
成部が出力する計算スペクトルと前記スペクトル合成部
が出力する合成スペクトルを整合するマッチング部と、
前記マッチング部の整合結果により前記セグメント窓部
と前記楽譜窓部のうち少なくとも一方の窓を移動させる
マッチング制御部と、前記マッチング部が出力する対応
時刻情報を記録するマッチング記録部とを有することを
特徴とする。
ンデックス作成装置は、音楽を記録した録音メディア上
の演奏と該演奏に対応する音譜上の音符の時刻的対応及
びその一を検出する装置であって、演奏のオーディオ信
号を入力するオーディオデータ入力手段と、前記オーデ
ィオデータ入力手段から得られるデータのうちの時間的
に一部を選択出力するセグメント窓部と、前記セグメン
ト窓部の出力するデータから周波数スペクトルを作成す
るスペクトル作成部と、利用者が楽譜を入力する楽譜デ
ータ入力手段と、前記楽譜データ入力手段に与えられる
データから時刻的に一部を選択出力する楽譜窓部と、前
記楽譜窓部が出力する部分楽譜に対応する周波数スペク
トルを合成するスペクトル合成部と、前記スペクトル作
成部が出力する計算スペクトルと前記スペクトル合成部
が出力する合成スペクトルを整合するマッチング部と、
前記マッチング部の整合結果により前記セグメント窓部
と前記楽譜窓部のうち少なくとも一方の窓を移動させる
マッチング制御部と、前記マッチング部が出力する対応
時刻情報を記録するマッチング記録部とを有することを
特徴とする。
【0008】
【作用】本発明の基本的な原理は、オーディオ記録から
得られた周波数スペクトルと楽譜から求める周波数スペ
クトルを比較することで従来問題であった音程同定問題
を回避して整合させることにある。また、音程同定を行
なわないことで、従来音程同定にかかっていた計算を全
て省略でき、結果として計算時間も短くなる。
得られた周波数スペクトルと楽譜から求める周波数スペ
クトルを比較することで従来問題であった音程同定問題
を回避して整合させることにある。また、音程同定を行
なわないことで、従来音程同定にかかっていた計算を全
て省略でき、結果として計算時間も短くなる。
【0009】
【実施例】図1は本発明による音楽インデックス作成装
置の一実施例を示すブロック図である。
置の一実施例を示すブロック図である。
【0010】利用者は、A/Dデータ入力手段11に楽
曲の演奏をデジタイズしたオーディオデータを与え、楽
譜データ生成手段15には対応する楽譜情報を与える。
与えるべきオーディオデータとしては、例えば、音楽C
Dなどの記録データ、DATなどに収録したデータがあ
る。また、与えられるべき楽譜データとしては、反復な
どの記号を含んだ譜面の電子表現やMIDIデータなど
が考えられる。
曲の演奏をデジタイズしたオーディオデータを与え、楽
譜データ生成手段15には対応する楽譜情報を与える。
与えるべきオーディオデータとしては、例えば、音楽C
Dなどの記録データ、DATなどに収録したデータがあ
る。また、与えられるべき楽譜データとしては、反復な
どの記号を含んだ譜面の電子表現やMIDIデータなど
が考えられる。
【0011】セグメント窓部12では、A/Dデータ入
力手段11に与えられたオーディオデータの一区間を取
り出し出力する。
力手段11に与えられたオーディオデータの一区間を取
り出し出力する。
【0012】スペクトル作成部13ではセグメント窓部
12が出力するデータから音階毎のパワースペクトルを
作成する。パワースペクトルを作成する方法としては、
フーリエ変換や自己相関係数など、既知の方法がある。
12が出力するデータから音階毎のパワースペクトルを
作成する。パワースペクトルを作成する方法としては、
フーリエ変換や自己相関係数など、既知の方法がある。
【0013】楽譜データ入力部16では楽譜データ生成
手段15に与えられた楽譜情報から、反復などの音楽表
現記号を音階・強さ・タイミング・楽器の種類などを時
間方向に展開した表現へ変換する。
手段15に与えられた楽譜情報から、反復などの音楽表
現記号を音階・強さ・タイミング・楽器の種類などを時
間方向に展開した表現へ変換する。
【0014】楽譜窓部17では楽譜データ入力部16で
変換した表現のうち、時刻的に一区間を取りだし出力す
る。
変換した表現のうち、時刻的に一区間を取りだし出力す
る。
【0015】スペクトル合成部110では楽譜窓部17
から出力される楽譜データと、あらかじめ楽器別・音域
別に用意された倍音スペクトルパターンを用いて、該当
する区間の予想スペクトルパターンを合成して出力す
る。また、倍音スペクトルパターンとして、時刻推移に
伴う倍音構成の変化に対応してスペクトルパターンを用
いることも可能である。
から出力される楽譜データと、あらかじめ楽器別・音域
別に用意された倍音スペクトルパターンを用いて、該当
する区間の予想スペクトルパターンを合成して出力す
る。また、倍音スペクトルパターンとして、時刻推移に
伴う倍音構成の変化に対応してスペクトルパターンを用
いることも可能である。
【0016】マッチング部18では、スペクトル作成部
13とスペクトル合成部110が出力するスペクトルを
比較し両者の差異があらかじめ定められたより小さくな
った場合を十分マッチングした状態、それ以外の場合を
マッチング不十分な状態と判断する。マッチング十分時
にはセグメント窓部12で設けたセグメント窓の中心に
相当する時刻を出力する。
13とスペクトル合成部110が出力するスペクトルを
比較し両者の差異があらかじめ定められたより小さくな
った場合を十分マッチングした状態、それ以外の場合を
マッチング不十分な状態と判断する。マッチング十分時
にはセグメント窓部12で設けたセグメント窓の中心に
相当する時刻を出力する。
【0017】マッチング結果記録部19はマッチング部
18が出力する時刻を楽譜データ入力部の対応する音符
に合わせてメモリあるいは外部記憶装置に記録する。
18が出力する時刻を楽譜データ入力部の対応する音符
に合わせてメモリあるいは外部記憶装置に記録する。
【0018】マッチング制御部14はマッチング部18
のマッチング結果に従い、マッチング不十分にはセグメ
ント窓を時間軸の増加方向に移動して再度マッチングを
試み、また十分マッチする場合には楽譜窓、セグメント
窓を移動させる。
のマッチング結果に従い、マッチング不十分にはセグメ
ント窓を時間軸の増加方向に移動して再度マッチングを
試み、また十分マッチする場合には楽譜窓、セグメント
窓を移動させる。
【0019】マッチング部18は、例えば、図2の
(a),(b),(c)それぞれに示す構成で実現す
る。
(a),(b),(c)それぞれに示す構成で実現す
る。
【0020】(a)においては、スペクトル作成部13
及びスペクトル合成部110より得られるスペクトルを
ベクトルとみなした場合の距離、例えばユークリッド距
離を距離比較部21で計算し、あらかじめ用意されたし
きい値と比較した場合の数値の大小でマッチングを行な
う。
及びスペクトル合成部110より得られるスペクトルを
ベクトルとみなした場合の距離、例えばユークリッド距
離を距離比較部21で計算し、あらかじめ用意されたし
きい値と比較した場合の数値の大小でマッチングを行な
う。
【0021】(b)においては、スペクトル作成部13
およびスペクトル合成部110それぞれの出力を一定期
間バッファリングするリングバッファとして演奏スペク
トルバッファ22と楽譜スペクトルバッファ23が用意
され、その両者を用いてDPマッチング部24でDPマ
ッチングを行なうことで両スペクトルのマッチングを取
る。DPマッチングについては、例えば、文献「音声情
報処理の基礎」187頁から190頁(オーム社刊)に
詳しい。DPマッチングでは標準パターン及び比較する
対象のベクトルの距離関数が必要であるが、これには例
えば両者をそれぞれ正規化したベクトルの内積の絶対値
を単位ベクトルの大きさから引いた数値などを整合のた
めの評価関数として用いる。
およびスペクトル合成部110それぞれの出力を一定期
間バッファリングするリングバッファとして演奏スペク
トルバッファ22と楽譜スペクトルバッファ23が用意
され、その両者を用いてDPマッチング部24でDPマ
ッチングを行なうことで両スペクトルのマッチングを取
る。DPマッチングについては、例えば、文献「音声情
報処理の基礎」187頁から190頁(オーム社刊)に
詳しい。DPマッチングでは標準パターン及び比較する
対象のベクトルの距離関数が必要であるが、これには例
えば両者をそれぞれ正規化したベクトルの内積の絶対値
を単位ベクトルの大きさから引いた数値などを整合のた
めの評価関数として用いる。
【0022】(c)においては、演奏スペクトルバッフ
ァ22と同様な演奏スペクトルバッファ25、および、
楽譜スペクトルバッファ23と同様な楽譜スペクトルバ
ッファ27が存在している。音符密度計算部26は、楽
譜の単位時間あたりの密度に応じてセグメント窓部12
で求めるスペクトルのセグメント窓の移動長を決定し、
マッチング制御部14を通じてスペクトルを計算する頻
度を制御し、最終的にはスペクトル作成部13及びスペ
クトル合成部110に接続された両バッファ部を用いて
(b)と同様にDPマッチング部28においてDPマッ
チングを用いてマッチングを行なう。
ァ22と同様な演奏スペクトルバッファ25、および、
楽譜スペクトルバッファ23と同様な楽譜スペクトルバ
ッファ27が存在している。音符密度計算部26は、楽
譜の単位時間あたりの密度に応じてセグメント窓部12
で求めるスペクトルのセグメント窓の移動長を決定し、
マッチング制御部14を通じてスペクトルを計算する頻
度を制御し、最終的にはスペクトル作成部13及びスペ
クトル合成部110に接続された両バッファ部を用いて
(b)と同様にDPマッチング部28においてDPマッ
チングを用いてマッチングを行なう。
【0023】次に、動作時の処理の流れについて、図3
に示す波形に対応するディジタル入力と図4に示す楽譜
入力とをマッチングさせる場合について説明する。ここ
で、上記(a),(b),(c)のそれぞれを用いた実
施例においては、動作タイミングを制御しているマッチ
ング制御部はマッチング部とインタラクティブな制御関
係にある。そのため、個々の部分の動作は同じでも全体
のタイミングが異なり得るため、以下に(a),
(b),(c)を用いた場合それぞれについて全体の動
作タイミングを説明する。
に示す波形に対応するディジタル入力と図4に示す楽譜
入力とをマッチングさせる場合について説明する。ここ
で、上記(a),(b),(c)のそれぞれを用いた実
施例においては、動作タイミングを制御しているマッチ
ング制御部はマッチング部とインタラクティブな制御関
係にある。そのため、個々の部分の動作は同じでも全体
のタイミングが異なり得るため、以下に(a),
(b),(c)を用いた場合それぞれについて全体の動
作タイミングを説明する。
【0024】まず、マッチング部18が図2(a)の構
成である場合について説明する。
成である場合について説明する。
【0025】1.動作開始時には、使用者はA/Dデー
タ入力手段11に、演奏のオーディオ信号を量子化した
データを時刻順に与える。また、使用者は楽譜データ生
成手段15には、該データとマッチングを取るべき楽譜
情報を与える。与えられた楽譜情報は楽譜データ入力部
16に与えられた楽譜データを、本装置での処理に適し
た形式に変換する。処理に適した形式とは、すなわち、
与えられた楽譜の情報のうち、少なくとも音程の情報、
発音される絶対または相対的な時刻および時間の情報を
含む形式である。その他の情報、例えば演奏楽器などの
種類は適宜取捨して変換する。具体的な形式の一つとし
ては、たとえば標準MIDIファイルフォーマットがあ
げられる。図5に図4を標準MIDIファイルフォーマ
ットに変換した例を示す。ただし、図5は、標準MID
Iファイルフォーマットのタイプ0またはタイプ1のM
Trkチャンクのみを示している。ここで、楽器の種類
を指定する場合には、MTrkチャンクの先頭にFF0
4より始まるメタイベントとして楽器名を記述すること
ができる。なお、標準MIDIファイルフォーマットの
詳細は、株式会社リットーミュージック刊”キーボード
マガジン”誌第14巻12号別冊”スタンダードMID
Iファイル・ハンドブック”に詳しい。
タ入力手段11に、演奏のオーディオ信号を量子化した
データを時刻順に与える。また、使用者は楽譜データ生
成手段15には、該データとマッチングを取るべき楽譜
情報を与える。与えられた楽譜情報は楽譜データ入力部
16に与えられた楽譜データを、本装置での処理に適し
た形式に変換する。処理に適した形式とは、すなわち、
与えられた楽譜の情報のうち、少なくとも音程の情報、
発音される絶対または相対的な時刻および時間の情報を
含む形式である。その他の情報、例えば演奏楽器などの
種類は適宜取捨して変換する。具体的な形式の一つとし
ては、たとえば標準MIDIファイルフォーマットがあ
げられる。図5に図4を標準MIDIファイルフォーマ
ットに変換した例を示す。ただし、図5は、標準MID
Iファイルフォーマットのタイプ0またはタイプ1のM
Trkチャンクのみを示している。ここで、楽器の種類
を指定する場合には、MTrkチャンクの先頭にFF0
4より始まるメタイベントとして楽器名を記述すること
ができる。なお、標準MIDIファイルフォーマットの
詳細は、株式会社リットーミュージック刊”キーボード
マガジン”誌第14巻12号別冊”スタンダードMID
Iファイル・ハンドブック”に詳しい。
【0026】2.A/Dデータ入力手段11及び楽譜デ
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
最初のセグメントの出力要求、及び楽譜データの最初の
音の出力要求を発行する。
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
最初のセグメントの出力要求、及び楽譜データの最初の
音の出力要求を発行する。
【0027】3.マッチング制御部14では、受けとっ
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。
【0028】4.セグメント窓部12では、要求に基づ
き、A/Dデータ入力手段11から得られるデータの最
初のセグメントをスペクトル作成部13へと出力する。
この時のセグメントの大きさは、あらかじめシステム内
で指定しておくか、もしくは使用者が直接または間接的
に装置に指定しておくものとする。スペクトル作成部1
3では、セグメント窓部12から受け取ったセグメント
についてのパワースペクトルを計算し、マッチング部1
8に出力する。
き、A/Dデータ入力手段11から得られるデータの最
初のセグメントをスペクトル作成部13へと出力する。
この時のセグメントの大きさは、あらかじめシステム内
で指定しておくか、もしくは使用者が直接または間接的
に装置に指定しておくものとする。スペクトル作成部1
3では、セグメント窓部12から受け取ったセグメント
についてのパワースペクトルを計算し、マッチング部1
8に出力する。
【0029】5.一方、楽譜窓部17では、受けとった
要求に基づき、最初の音について少なくとも、音程のデ
ータを、スペクトル合成部110へ出力する。この時に
は、元の楽譜情報または楽譜データ入力部で識別された
音程以外の情報をスペクトル合成部110へ適宜取捨出
力する。また、複数パートによる演奏など、一般に和音
として扱われる情報は、同一時刻で鳴っているもの全て
をスペクトル合成部110に渡す。スペクトル合成部1
10では、楽譜窓部17より得られた音程情報及び付加
的な情報を用いて予想パワースペクトルを合成し、マッ
チング部18へ出力する。この時、楽譜窓部17より渡
された付加的な情報が楽器の種類や音色を指定している
場合には、それに応じて倍音スペクトルパターンを用い
て予想スペクトルパターンを作成する。また、この時、
スペクトル合成部110は、内部状態として用いたスペ
クトルパターンと、その発音の譜面上での時刻を記録す
る。このタイミングは以降、新たなスペクトルを合成す
る際に用いられる。
要求に基づき、最初の音について少なくとも、音程のデ
ータを、スペクトル合成部110へ出力する。この時に
は、元の楽譜情報または楽譜データ入力部で識別された
音程以外の情報をスペクトル合成部110へ適宜取捨出
力する。また、複数パートによる演奏など、一般に和音
として扱われる情報は、同一時刻で鳴っているもの全て
をスペクトル合成部110に渡す。スペクトル合成部1
10では、楽譜窓部17より得られた音程情報及び付加
的な情報を用いて予想パワースペクトルを合成し、マッ
チング部18へ出力する。この時、楽譜窓部17より渡
された付加的な情報が楽器の種類や音色を指定している
場合には、それに応じて倍音スペクトルパターンを用い
て予想スペクトルパターンを作成する。また、この時、
スペクトル合成部110は、内部状態として用いたスペ
クトルパターンと、その発音の譜面上での時刻を記録す
る。このタイミングは以降、新たなスペクトルを合成す
る際に用いられる。
【0030】6.マッチング部18は、スペクトル作成
部13とスペクトル合成部110からそれぞれパワース
ペクトル、予想パワースペクトルを受け取り、両者のマ
ッチングを行なう。この結果がマッチしない場合には、
マッチング部18は、マッチング制御部14にマッチン
グ結果を返し、スペクトル作成部110からの新しいデ
ータを持つ。結果がマッチした場合の動作については以
下の8で後述する。
部13とスペクトル合成部110からそれぞれパワース
ペクトル、予想パワースペクトルを受け取り、両者のマ
ッチングを行なう。この結果がマッチしない場合には、
マッチング部18は、マッチング制御部14にマッチン
グ結果を返し、スペクトル作成部110からの新しいデ
ータを持つ。結果がマッチした場合の動作については以
下の8で後述する。
【0031】7.マッチング制御部14は、マッチング
結果がマッチしなかった場合には、セグメント窓部12
に対しセグメント窓移動の要求を出す。セグメント窓部
12では、あらかじめ設定された移動量だけ、時間軸の
増加方向に移動させて、新しいセグメントをスペクトル
作成部13に出力する。スペクトル作成部13では、直
前の場合と同様にパワースペクトルを計算し、新たなパ
ワースペクトルをもとめ、マッチング部18へと出力す
る。マッチング18では、新たに得られたパワースペク
トルと、予想スペクトルのマッチングを行なう。この結
果が異なっていた場合は、マッチング制御部14にマッ
チング結果を返して、スペクトル作成部110からの新
しいデータを持ち、7を繰り返す。最終的にはマッチン
グ結果が整合を示すまで、セグメント窓の移動とスペク
トル作成を繰り返す。整合するセグメントが演奏データ
から得られる前に演奏データがなくなる場合には、動作
を終了する。
結果がマッチしなかった場合には、セグメント窓部12
に対しセグメント窓移動の要求を出す。セグメント窓部
12では、あらかじめ設定された移動量だけ、時間軸の
増加方向に移動させて、新しいセグメントをスペクトル
作成部13に出力する。スペクトル作成部13では、直
前の場合と同様にパワースペクトルを計算し、新たなパ
ワースペクトルをもとめ、マッチング部18へと出力す
る。マッチング18では、新たに得られたパワースペク
トルと、予想スペクトルのマッチングを行なう。この結
果が異なっていた場合は、マッチング制御部14にマッ
チング結果を返して、スペクトル作成部110からの新
しいデータを持ち、7を繰り返す。最終的にはマッチン
グ結果が整合を示すまで、セグメント窓の移動とスペク
トル作成を繰り返す。整合するセグメントが演奏データ
から得られる前に演奏データがなくなる場合には、動作
を終了する。
【0032】8.結果がマッチした場合には、演奏デー
タ先頭から測った該セグメントの先頭の時刻と、楽譜窓
部17で扱っている音程データの時刻を元の楽譜情報の
先頭より測った時刻としてマッチング記録部19に出力
する。出力完了の後、マッチング部18はマッチング制
御部14にマッチの結果を返し、新たなパワースペクト
ル及び予想パワースペクトルを要求し、動作は3からの
繰り返しになる。
タ先頭から測った該セグメントの先頭の時刻と、楽譜窓
部17で扱っている音程データの時刻を元の楽譜情報の
先頭より測った時刻としてマッチング記録部19に出力
する。出力完了の後、マッチング部18はマッチング制
御部14にマッチの結果を返し、新たなパワースペクト
ル及び予想パワースペクトルを要求し、動作は3からの
繰り返しになる。
【0033】ここで、データが終了して、楽譜窓もしく
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。
【0034】次に、マッチング部18が図2(b)の構
成である場合について説明する。
成である場合について説明する。
【0035】1.動作開始時には、(a)の場合と同様
に、使用者はA/Dデータ入力手段11に、演奏のオー
ディオ信号を量子化したデータを時刻順に与える。ま
た、使用者は楽譜データ生成手段15には、該データと
マッチングを取るべき楽譜情報を与える。与えられた楽
譜情報は楽譜データ入力部16に与えられた楽譜データ
を、本装置での処理に適した、(a)の場合と同様な形
式に変換する。
に、使用者はA/Dデータ入力手段11に、演奏のオー
ディオ信号を量子化したデータを時刻順に与える。ま
た、使用者は楽譜データ生成手段15には、該データと
マッチングを取るべき楽譜情報を与える。与えられた楽
譜情報は楽譜データ入力部16に与えられた楽譜データ
を、本装置での処理に適した、(a)の場合と同様な形
式に変換する。
【0036】2.A/Dデータ入力手段11及び楽譜デ
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
先頭から数セグメント分のセグメントの出力要求、及び
楽譜データの最初からいくつか分の音の出力要求を発行
する。これらのセグメント数及び音数はあらかじめシス
テム内に設定しておくか、ユーザが動作開始時に楽譜デ
ータなどと合わせて入力するものとする。
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
先頭から数セグメント分のセグメントの出力要求、及び
楽譜データの最初からいくつか分の音の出力要求を発行
する。これらのセグメント数及び音数はあらかじめシス
テム内に設定しておくか、ユーザが動作開始時に楽譜デ
ータなどと合わせて入力するものとする。
【0037】3.マッチング制御部14では、受けとっ
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。
【0038】4.セグメント窓部12では、A/Dデー
タ入力手段11から得られるセグメントを、要求にされ
た数だけ、順にスペクトル作成部13へと出力する。こ
の時のセグメントの大きさは、あらかじめシステム内に
設定しておくか、もしくは使用者が直接または間接的に
装置に設定しておくものとする。スペクトル作成部13
では、セグメント窓部12から受け取ったセグメント毎
にパワースペクトルを計算し、順にマッチング部18に
出力する。
タ入力手段11から得られるセグメントを、要求にされ
た数だけ、順にスペクトル作成部13へと出力する。こ
の時のセグメントの大きさは、あらかじめシステム内に
設定しておくか、もしくは使用者が直接または間接的に
装置に設定しておくものとする。スペクトル作成部13
では、セグメント窓部12から受け取ったセグメント毎
にパワースペクトルを計算し、順にマッチング部18に
出力する。
【0039】5.一方、楽譜窓部17では、受けとった
要求に基づき、少なくとも、音程のデータを、スペクト
ル合成部110へ出力する。この時には、元の楽譜情報
または楽譜データ入力部で識別された音程以外の情報を
スペクトル合成部110へ適宜取捨出力する。また、複
数パートによる演奏など、一般に和音として扱われる情
報は、同一時刻で鳴っているもの全てをスペクトル合成
部110に渡す。スペクトル合成部110では、楽譜窓
部17より得られた音毎に、音程情報及び付加的な情報
を用いて予想パワースペクトルを合成し、マッチング部
18へ順に出力する。この時、楽譜窓部17より渡され
た付加的な情報が楽器の種類や音色を指定している場合
には、(a)の場合に準じて予想スペクトルパターンを
作成する。また、この時、スペクトル合成部110は、
内部状態として用いたスペクトルパターンと、その発音
の譜面上での時刻を記録する。このタイミングは以降、
新たな異なる時間タイミングのスペクトルを合成する際
に用いられ、主に時間経過によるパワー減衰を実現する
ために用いられる。
要求に基づき、少なくとも、音程のデータを、スペクト
ル合成部110へ出力する。この時には、元の楽譜情報
または楽譜データ入力部で識別された音程以外の情報を
スペクトル合成部110へ適宜取捨出力する。また、複
数パートによる演奏など、一般に和音として扱われる情
報は、同一時刻で鳴っているもの全てをスペクトル合成
部110に渡す。スペクトル合成部110では、楽譜窓
部17より得られた音毎に、音程情報及び付加的な情報
を用いて予想パワースペクトルを合成し、マッチング部
18へ順に出力する。この時、楽譜窓部17より渡され
た付加的な情報が楽器の種類や音色を指定している場合
には、(a)の場合に準じて予想スペクトルパターンを
作成する。また、この時、スペクトル合成部110は、
内部状態として用いたスペクトルパターンと、その発音
の譜面上での時刻を記録する。このタイミングは以降、
新たな異なる時間タイミングのスペクトルを合成する際
に用いられ、主に時間経過によるパワー減衰を実現する
ために用いられる。
【0040】6.マッチング部18は、スペクトル作成
部13とスペクトル合成部110からそれぞれパワース
ペクトル列、予想パワースペクトル列を受け取り、両者
のDPマッチングを行なう。この時、あらかじめ定めら
れたセグメント数及び音数がそろうまではマッチング動
作を開始しない。DPマッチングの結果、パワースペク
トル列の末尾二つ以上が予想パワースペクトルの一点に
集中するなど、それぞれのスペクトル列の長さが不足し
ている場合には、マッチング部18は、マッチング制御
部14にマッチング結果を返し、パワースペクトルと予
想パワースペクトルの少なくともどちらかについて、少
なくとも一つ以上のデータの追加を要求し、要求データ
の到着を待つ。それ以外の場合の動作については8で後
述する。
部13とスペクトル合成部110からそれぞれパワース
ペクトル列、予想パワースペクトル列を受け取り、両者
のDPマッチングを行なう。この時、あらかじめ定めら
れたセグメント数及び音数がそろうまではマッチング動
作を開始しない。DPマッチングの結果、パワースペク
トル列の末尾二つ以上が予想パワースペクトルの一点に
集中するなど、それぞれのスペクトル列の長さが不足し
ている場合には、マッチング部18は、マッチング制御
部14にマッチング結果を返し、パワースペクトルと予
想パワースペクトルの少なくともどちらかについて、少
なくとも一つ以上のデータの追加を要求し、要求データ
の到着を待つ。それ以外の場合の動作については8で後
述する。
【0041】7.マッチング制御部14は、マッチング
の結果、それぞれのスペクトル列の長さが不足していた
場合には、マッチング部からの要求に基づき、セグメン
ト窓部12および楽譜窓部17に対し、それぞれセグメ
ント窓移動の要求と楽譜窓移動の要求を出す。セグメン
ト窓部12では、あらかじめ設定された移動量だけ、時
間軸の増加方向に移動させて、新しいセグメントをスペ
クトル作成部13に出力する。スペクトル作成部13で
は、直前の場合と同様にパワースペクトルを計算し、新
たなパワースペクトルをもとめ、マッチング部18へと
出力する。要求があったセグメント数だけ、これら一連
のセグメント窓移動及びパワースペクトルの計算を、要
求数だけ繰り返す。マッチング部18では、新たに得ら
れたパワースペクトルと、新たに得られた予想パワース
ペクトルを、それまでに受けとっていたそれぞれのスペ
クトル列に付加し、再度DPマッチングを行なう。この
結果、スペクトル列の長さがやはり不足している場合
は、マッチング制御部14にマッチング結果を返し、さ
らに新しい追加データを持って7を繰り返す。最終的に
はマッチング結果が整合を示すまで、セグメント窓の移
動とスペクトル作成を繰り返す。整合するセグメントが
演奏データから得られる前に演奏データがなくなる場合
には、動作を終了する。
の結果、それぞれのスペクトル列の長さが不足していた
場合には、マッチング部からの要求に基づき、セグメン
ト窓部12および楽譜窓部17に対し、それぞれセグメ
ント窓移動の要求と楽譜窓移動の要求を出す。セグメン
ト窓部12では、あらかじめ設定された移動量だけ、時
間軸の増加方向に移動させて、新しいセグメントをスペ
クトル作成部13に出力する。スペクトル作成部13で
は、直前の場合と同様にパワースペクトルを計算し、新
たなパワースペクトルをもとめ、マッチング部18へと
出力する。要求があったセグメント数だけ、これら一連
のセグメント窓移動及びパワースペクトルの計算を、要
求数だけ繰り返す。マッチング部18では、新たに得ら
れたパワースペクトルと、新たに得られた予想パワース
ペクトルを、それまでに受けとっていたそれぞれのスペ
クトル列に付加し、再度DPマッチングを行なう。この
結果、スペクトル列の長さがやはり不足している場合
は、マッチング制御部14にマッチング結果を返し、さ
らに新しい追加データを持って7を繰り返す。最終的に
はマッチング結果が整合を示すまで、セグメント窓の移
動とスペクトル作成を繰り返す。整合するセグメントが
演奏データから得られる前に演奏データがなくなる場合
には、動作を終了する。
【0042】8.結果がマッチした場合には、マッチし
たそれぞれペアについて、演奏データ先頭から測った該
セグメントの先頭の時刻と、楽譜窓部17で扱っている
音程データの時刻を元の楽譜情報の先頭より測った時刻
としてマッチング記録部19に出力する。出力完了の
後、マッチング部18は、出力が済んだペアをパワース
ペクトル列と予想パワースペクトル列からそれぞれ取り
除き、その後マッチング制御部14にマッチの結果を返
し、各パワースペクトル列が、あらかじめ定めた長さよ
り長くなるまで、追加のパワースペクトル及び予想パワ
ースペクトルを要求し、3より繰り返す。
たそれぞれペアについて、演奏データ先頭から測った該
セグメントの先頭の時刻と、楽譜窓部17で扱っている
音程データの時刻を元の楽譜情報の先頭より測った時刻
としてマッチング記録部19に出力する。出力完了の
後、マッチング部18は、出力が済んだペアをパワース
ペクトル列と予想パワースペクトル列からそれぞれ取り
除き、その後マッチング制御部14にマッチの結果を返
し、各パワースペクトル列が、あらかじめ定めた長さよ
り長くなるまで、追加のパワースペクトル及び予想パワ
ースペクトルを要求し、3より繰り返す。
【0043】ここで、データが終了して、楽譜窓もしく
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。
【0044】次に、マッチング部18が図2(c)の構
成である場合について説明する。
成である場合について説明する。
【0045】1.動作開始時には、(a),(b)の場
合と同様に、使用者はA/Dデータ入力手段11に、演
奏のオーディオ信号を量子化したデータを時刻順に与え
る。また、使用者は楽譜データ生成手段15には、該デ
ータとマッチングを取るべき楽譜情報を与える。与えら
れた楽譜情報は楽譜データ入力部16に与えられた楽譜
データを、本装置での処理に適した、(a)の場合と同
様な形式に変換する。
合と同様に、使用者はA/Dデータ入力手段11に、演
奏のオーディオ信号を量子化したデータを時刻順に与え
る。また、使用者は楽譜データ生成手段15には、該デ
ータとマッチングを取るべき楽譜情報を与える。与えら
れた楽譜情報は楽譜データ入力部16に与えられた楽譜
データを、本装置での処理に適した、(a)の場合と同
様な形式に変換する。
【0046】2.A/Dデータ入力手段11及び楽譜デ
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
先頭から数セグメント分のセグメントの出力要求、及び
楽譜データの最初からいくつか分の音の出力要求を発行
する。これらのセグメント数及び音数はあらかじめシス
テム内に設定しておくか、ユーザが動作開始時に入力す
るものとする。
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
先頭から数セグメント分のセグメントの出力要求、及び
楽譜データの最初からいくつか分の音の出力要求を発行
する。これらのセグメント数及び音数はあらかじめシス
テム内に設定しておくか、ユーザが動作開始時に入力す
るものとする。
【0047】3.マッチング制御部14では、受けとっ
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。
【0048】4.セグメント窓部12では、要求に基づ
き、A/Dデータ入力手段11から得られるデータのセ
グメントを順にスペクトル作成部13へと出力する。こ
の時のセグメントの大きさは、あらかじめシステム内で
指定しておくか、もしくは使用者が直接または間接的に
装置に指示しておくものとする。スペクトル作成部13
では、セグメント窓部12から受け取ったセグメント毎
にパワースペクトルを計算し、順にマッチング部18に
出力する。
き、A/Dデータ入力手段11から得られるデータのセ
グメントを順にスペクトル作成部13へと出力する。こ
の時のセグメントの大きさは、あらかじめシステム内で
指定しておくか、もしくは使用者が直接または間接的に
装置に指示しておくものとする。スペクトル作成部13
では、セグメント窓部12から受け取ったセグメント毎
にパワースペクトルを計算し、順にマッチング部18に
出力する。
【0049】5.一方、楽譜窓部17では、受けとった
要求に基づき、少なくとも、音程のデータを、スペクト
ル合成部110へ出力する。この時には、元の楽譜情報
または楽譜データ入力部で識別された音程以外の情報を
スペクトル合成部110へ適宜取捨出力する。また、複
数パートによる演奏など、一般に和音として扱われる情
報は、同一時刻で鳴っているもの全てをスペクトル合成
部110に渡す。スペクトル合成部110では、楽譜窓
部17より得られた音毎に、音程情報及び付加的な情報
を用いて予想パワースペクトルを合成し、マッチング部
18へ順に出力する。この時、楽譜窓部17より渡され
た付加的な情報が楽器の種類や音色を指定している場合
には、(a),(b)の場合に準じて予想スペクトルパ
ターンを作成する。また、この時、スペクトル合成部1
10は、内部状態として用いたスペクトルパターンと、
その発音の譜面上での時刻を記録する。このタイミング
は以降、新たな異なる時間タイミングのスペクトルを合
成する際に用いられ、主に時間経過によるパワーの減衰
を実現するために用いられる。
要求に基づき、少なくとも、音程のデータを、スペクト
ル合成部110へ出力する。この時には、元の楽譜情報
または楽譜データ入力部で識別された音程以外の情報を
スペクトル合成部110へ適宜取捨出力する。また、複
数パートによる演奏など、一般に和音として扱われる情
報は、同一時刻で鳴っているもの全てをスペクトル合成
部110に渡す。スペクトル合成部110では、楽譜窓
部17より得られた音毎に、音程情報及び付加的な情報
を用いて予想パワースペクトルを合成し、マッチング部
18へ順に出力する。この時、楽譜窓部17より渡され
た付加的な情報が楽器の種類や音色を指定している場合
には、(a),(b)の場合に準じて予想スペクトルパ
ターンを作成する。また、この時、スペクトル合成部1
10は、内部状態として用いたスペクトルパターンと、
その発音の譜面上での時刻を記録する。このタイミング
は以降、新たな異なる時間タイミングのスペクトルを合
成する際に用いられ、主に時間経過によるパワーの減衰
を実現するために用いられる。
【0050】6.マッチング部18は、スペクトル作成
部13とスペクトル合成部110からそれぞれパワース
ペクトル列、予想パワースペクトル列を受け取り、両者
のDPマッチングを行なう。この時、あらかじめ定めら
れたセグメント数及び音数がそろうまではマッチング動
作を開始しない。DPマッチング結果、パワースペクト
ル列中の一点が予想パワースペクトル列の多点に対応し
ている場合には、該当するパワースペクトル中の点の前
後のフレーム周期を短くして、再度DPマッチングを行
う為に、音符密度計算部26では、対応している予想パ
ワースペクトル列中の点の数を求め、その数を基に新た
なフレーム周期を求める。例えば、パワースペクトルC
(t)と予想パワースペクトルP(t),P(t+
1),・・・P(t+n−1),t,nは自然数が対応
しているならば、P(t−1)及びP(t+1)との間
をそれぞれn分割したフレーム周期を用いる。その後、
マッチング部18は、マッチング制御部14にマッチン
グ結果を返し、フレーム周期を短くしたデータを要求
し、その到着を待つ。また特に(b)の場合と同様に、
どちらかのパワースペクトル列の末尾で多対一対応して
いた場合には、少なくとも一つ以上のデータの追加を要
求する。
部13とスペクトル合成部110からそれぞれパワース
ペクトル列、予想パワースペクトル列を受け取り、両者
のDPマッチングを行なう。この時、あらかじめ定めら
れたセグメント数及び音数がそろうまではマッチング動
作を開始しない。DPマッチング結果、パワースペクト
ル列中の一点が予想パワースペクトル列の多点に対応し
ている場合には、該当するパワースペクトル中の点の前
後のフレーム周期を短くして、再度DPマッチングを行
う為に、音符密度計算部26では、対応している予想パ
ワースペクトル列中の点の数を求め、その数を基に新た
なフレーム周期を求める。例えば、パワースペクトルC
(t)と予想パワースペクトルP(t),P(t+
1),・・・P(t+n−1),t,nは自然数が対応
しているならば、P(t−1)及びP(t+1)との間
をそれぞれn分割したフレーム周期を用いる。その後、
マッチング部18は、マッチング制御部14にマッチン
グ結果を返し、フレーム周期を短くしたデータを要求
し、その到着を待つ。また特に(b)の場合と同様に、
どちらかのパワースペクトル列の末尾で多対一対応して
いた場合には、少なくとも一つ以上のデータの追加を要
求する。
【0051】それ以外の場合の動作については8で後述
する。
する。
【0052】7.マッチング制御部14は、マッチング
の結果、多対一対応、それぞれのスペクトル列の長さが
不足していた場合には、マッチング部からの要求に基づ
き、セグメント窓部12および楽譜窓部17に対し、そ
れぞれセグメント窓移動の要求と楽譜窓移動の要求を出
す。セグメント窓部12では、マッチング部18からマ
ッチング制御部14を通して設定された位置で、同じく
指定された移動量だけ、時間軸の増加方向に移動させ
て、フレーム周期を短くしたセグメントをスペクトル作
成部13に出力する。さらに、追加のセグメントについ
ても同様に処理する。スペクトル作成部13では、直前
の場合と同様にパワースペクトルを計算し、新たなパワ
ースペクトルをもとめ、マッチング部18へと出力す
る。要求があったセグメント数だけ、これら一連のセグ
メント窓移動及びパワースペクトル計算を繰り返す。一
方、楽譜窓についても、楽譜窓移動と予想パワースペク
トルの計算を、要求数だけ繰り返す。マッチング部18
では、新たに得られたパワースペクトルと、新たに得ら
れた予想パワースペクトルを、それまでに受けとってい
たそれぞのスペクトル列の該当部分と置き換え、あるい
は付加し、再度DPマッチングを行なう。この結果、ス
ペクトル列の長さがやはり不足している場合は、あるい
は、多対一対応がみられた場合には、マッチング制御部
14にマッチング結果を返し、さらに新しい追加データ
を持って7を繰り返す。最終的にはマッチング結果が整
合を示すまで、セグメント窓の移動とスペクトル作成を
繰り返す。整合するセグメントが演奏データから得られ
る前に演奏データがなくなる場合には、動作を終了す
る。
の結果、多対一対応、それぞれのスペクトル列の長さが
不足していた場合には、マッチング部からの要求に基づ
き、セグメント窓部12および楽譜窓部17に対し、そ
れぞれセグメント窓移動の要求と楽譜窓移動の要求を出
す。セグメント窓部12では、マッチング部18からマ
ッチング制御部14を通して設定された位置で、同じく
指定された移動量だけ、時間軸の増加方向に移動させ
て、フレーム周期を短くしたセグメントをスペクトル作
成部13に出力する。さらに、追加のセグメントについ
ても同様に処理する。スペクトル作成部13では、直前
の場合と同様にパワースペクトルを計算し、新たなパワ
ースペクトルをもとめ、マッチング部18へと出力す
る。要求があったセグメント数だけ、これら一連のセグ
メント窓移動及びパワースペクトル計算を繰り返す。一
方、楽譜窓についても、楽譜窓移動と予想パワースペク
トルの計算を、要求数だけ繰り返す。マッチング部18
では、新たに得られたパワースペクトルと、新たに得ら
れた予想パワースペクトルを、それまでに受けとってい
たそれぞのスペクトル列の該当部分と置き換え、あるい
は付加し、再度DPマッチングを行なう。この結果、ス
ペクトル列の長さがやはり不足している場合は、あるい
は、多対一対応がみられた場合には、マッチング制御部
14にマッチング結果を返し、さらに新しい追加データ
を持って7を繰り返す。最終的にはマッチング結果が整
合を示すまで、セグメント窓の移動とスペクトル作成を
繰り返す。整合するセグメントが演奏データから得られ
る前に演奏データがなくなる場合には、動作を終了す
る。
【0053】8.結果がマッチした場合には、マッチし
たそれぞれのペアについて、演奏データ先頭から測った
該セグメントの先頭の時刻と、楽譜窓部17で扱ってい
る音程データの時刻を元の楽譜情報の先頭より測った時
刻としてマッチング記録部19に出力する。出力完了の
後、マッチング部18は、出力が済んだペアをパワース
ペクトル列と予想パワースペクトル列からそれぞれ取り
除き、その後マッチング制御部14にマッチの結果を返
し、各パワースペクトル列が、あらかじめ定めた長さよ
り長くなるまで、追加のパワースペクトル及び予想パワ
ースペクトルを要求し、3より繰り返す。
たそれぞれのペアについて、演奏データ先頭から測った
該セグメントの先頭の時刻と、楽譜窓部17で扱ってい
る音程データの時刻を元の楽譜情報の先頭より測った時
刻としてマッチング記録部19に出力する。出力完了の
後、マッチング部18は、出力が済んだペアをパワース
ペクトル列と予想パワースペクトル列からそれぞれ取り
除き、その後マッチング制御部14にマッチの結果を返
し、各パワースペクトル列が、あらかじめ定めた長さよ
り長くなるまで、追加のパワースペクトル及び予想パワ
ースペクトルを要求し、3より繰り返す。
【0054】ここで、データが終了して、楽譜窓もしく
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。
【0055】
【発明の効果】以上の発明によれば、楽譜と実際の演奏
の記録との間で、時刻的な対応を自動的に作成していく
ことができる。またスペクトルを直接比較することによ
り、複合音の場合にも自動作成ができ、さらに、時間的
対応が分離不十分の部分のみを再計算することにより、
従来よりも高速に計算することができる。
の記録との間で、時刻的な対応を自動的に作成していく
ことができる。またスペクトルを直接比較することによ
り、複合音の場合にも自動作成ができ、さらに、時間的
対応が分離不十分の部分のみを再計算することにより、
従来よりも高速に計算することができる。
【図1】本発明の音楽インデックス作成装置の一実施例
のブロック図である。
のブロック図である。
【図2】本発明の実施例としてあげたマッチング部の実
施例のブロック図である。
施例のブロック図である。
【図3】本発明の実施例で用いたディジタル入力波形図
【図4】本発明の実施例で用いた楽譜
【図5】本発明の実施例で用いた標準MIDIファイル
フォーマット
フォーマット
11 A/Dデータ入力手段 12 セグメント窓部 13 スペクトル作成部 14 マッチング制御部 15 楽譜データ生成手段 16 楽譜データ入力部 17 楽譜窓部 18 マッチング部 19 マッチング記録部 110 スペクトル合成部 21 距離比較部 22 演奏スペクトルバッファ 23 楽譜スペクトルバッファ 24 DPマッチング部 25 演奏スペクトルバッファ 26 音符密度計算部 27 楽譜スペクトルバッファ 28 DPマッチング部
Claims (1)
- 【請求項1】 音楽を記録した録音メディア上の演奏と
該演奏に対応する楽譜上の音符の時刻的対応及びその位
置を検出する装置であって、演奏のオーディオ信号を入
力するオーディオデータ入力手段と、前記オーディオデ
ータ入力手段から得られるデータののうちの時間的に一
部を選択出力するセグメント窓部と、前記セグメント窓
部の出力するデータから周波数スペクトルを作成するス
ペクトル作成部と、利用者が楽譜を入力する楽譜データ
入力手段と、前記楽譜データ入力手段に与えられるデー
タから時刻的に一部を選択出力する楽譜窓部と、前記楽
譜窓部が出力する部分楽譜に対応する周波数スペクトル
を合成するスペクトル合成部と、前記スペクトル作成部
が出力する計算スペクトルと前記スペクトル合成部が出
力する合成スペクトルを整合するマッチング部と、前記
マッチング部の整合結果により前記セグメント窓部と前
記楽譜窓部のうち少なくとも一方の窓を移動させるマッ
チング制御部と、前記マッチング部が出力する対応時刻
情報を記録するマッチング記録部とを有することを特徴
とする音楽イベントインデックス作成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5181475A JP2636685B2 (ja) | 1993-07-22 | 1993-07-22 | 音楽イベントインデックス作成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5181475A JP2636685B2 (ja) | 1993-07-22 | 1993-07-22 | 音楽イベントインデックス作成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0736455A true JPH0736455A (ja) | 1995-02-07 |
JP2636685B2 JP2636685B2 (ja) | 1997-07-30 |
Family
ID=16101409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5181475A Expired - Fee Related JP2636685B2 (ja) | 1993-07-22 | 1993-07-22 | 音楽イベントインデックス作成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2636685B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004515808A (ja) * | 2000-12-05 | 2004-05-27 | アミューズテック カンパニー リミテッド | 演奏楽器の音情報を用いた音楽分析方法 |
JP2004533016A (ja) * | 2001-05-21 | 2004-10-28 | アミューズテック カンパニー リミテッド | 楽譜追跡方法およびその装置 |
JP2005514666A (ja) * | 2001-12-18 | 2005-05-19 | アミューズテック カンパニー リミテッド | 演奏楽器の音情報を用いた音楽分析装置 |
WO2005081222A1 (ja) * | 2004-02-20 | 2005-09-01 | Kabushiki Kaisha Kawai Gakki Seisakusho | 演奏指示に従って演奏された自然楽器の楽音判定装置、楽音判定プログラムおよび該プログラムを記録した媒体 |
JP2005234303A (ja) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | 演奏音判定装置および演奏音判定プログラムおよび該プログラムを記録した媒体 |
JP2005234304A (ja) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | 演奏音判定装置および演奏音判定プログラム |
JP2005241717A (ja) * | 2004-02-24 | 2005-09-08 | Kawai Musical Instr Mfg Co Ltd | 自然楽器の楽音判定装置におけるモデル作成装置およびモデル作成用プログラム |
JP2005249844A (ja) * | 2004-03-01 | 2005-09-15 | Kawai Musical Instr Mfg Co Ltd | 演奏指示装置および演奏指示プログラム |
JP2007017651A (ja) * | 2005-07-07 | 2007-01-25 | Xing Inc | 楽音再生プログラムおよび楽音再生装置 |
JP2009157063A (ja) * | 2007-12-26 | 2009-07-16 | Kawai Musical Instr Mfg Co Ltd | 演奏評価装置,プログラムおよび電子楽器 |
WO2011125204A1 (ja) * | 2010-04-08 | 2011-10-13 | パイオニア株式会社 | 情報処理装置及び方法、並びにコンピュータプログラム |
JP2012168538A (ja) * | 2011-02-14 | 2012-09-06 | Honda Motor Co Ltd | 楽譜位置推定装置、及び楽譜位置推定方法 |
JP2013228508A (ja) * | 2012-04-25 | 2013-11-07 | Casio Comput Co Ltd | 音符位置検出装置、音符位置推定方法およびプログラム |
JP2014048469A (ja) * | 2012-08-31 | 2014-03-17 | Brother Ind Ltd | 楽器演奏評価装置、カラオケ装置、楽器演奏評価システム |
WO2017057318A1 (ja) * | 2015-09-30 | 2017-04-06 | ヤマハ株式会社 | 再生制御方法及び再生制御システム |
WO2018207936A1 (ja) * | 2017-05-12 | 2018-11-15 | 株式会社デザインMプラス | 譜面自動検出方法および装置 |
-
1993
- 1993-07-22 JP JP5181475A patent/JP2636685B2/ja not_active Expired - Fee Related
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004515808A (ja) * | 2000-12-05 | 2004-05-27 | アミューズテック カンパニー リミテッド | 演奏楽器の音情報を用いた音楽分析方法 |
JP2004533016A (ja) * | 2001-05-21 | 2004-10-28 | アミューズテック カンパニー リミテッド | 楽譜追跡方法およびその装置 |
JP2005514666A (ja) * | 2001-12-18 | 2005-05-19 | アミューズテック カンパニー リミテッド | 演奏楽器の音情報を用いた音楽分析装置 |
JP4492932B2 (ja) * | 2004-02-20 | 2010-06-30 | 株式会社河合楽器製作所 | 演奏音判定装置および演奏音判定プログラムおよび該プログラムを記録した媒体 |
WO2005081222A1 (ja) * | 2004-02-20 | 2005-09-01 | Kabushiki Kaisha Kawai Gakki Seisakusho | 演奏指示に従って演奏された自然楽器の楽音判定装置、楽音判定プログラムおよび該プログラムを記録した媒体 |
JP2005234303A (ja) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | 演奏音判定装置および演奏音判定プログラムおよび該プログラムを記録した媒体 |
JP2005234304A (ja) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | 演奏音判定装置および演奏音判定プログラム |
JP2005241717A (ja) * | 2004-02-24 | 2005-09-08 | Kawai Musical Instr Mfg Co Ltd | 自然楽器の楽音判定装置におけるモデル作成装置およびモデル作成用プログラム |
JP2005249844A (ja) * | 2004-03-01 | 2005-09-15 | Kawai Musical Instr Mfg Co Ltd | 演奏指示装置および演奏指示プログラム |
JP2007017651A (ja) * | 2005-07-07 | 2007-01-25 | Xing Inc | 楽音再生プログラムおよび楽音再生装置 |
JP4624879B2 (ja) * | 2005-07-07 | 2011-02-02 | 株式会社エクシング | 楽音情報発生プログラムおよび楽音情報発生装置 |
JP2009157063A (ja) * | 2007-12-26 | 2009-07-16 | Kawai Musical Instr Mfg Co Ltd | 演奏評価装置,プログラムおよび電子楽器 |
WO2011125204A1 (ja) * | 2010-04-08 | 2011-10-13 | パイオニア株式会社 | 情報処理装置及び方法、並びにコンピュータプログラム |
JP2012168538A (ja) * | 2011-02-14 | 2012-09-06 | Honda Motor Co Ltd | 楽譜位置推定装置、及び楽譜位置推定方法 |
JP2013228508A (ja) * | 2012-04-25 | 2013-11-07 | Casio Comput Co Ltd | 音符位置検出装置、音符位置推定方法およびプログラム |
JP2014048469A (ja) * | 2012-08-31 | 2014-03-17 | Brother Ind Ltd | 楽器演奏評価装置、カラオケ装置、楽器演奏評価システム |
WO2017057318A1 (ja) * | 2015-09-30 | 2017-04-06 | ヤマハ株式会社 | 再生制御方法及び再生制御システム |
JPWO2017057318A1 (ja) * | 2015-09-30 | 2018-04-19 | ヤマハ株式会社 | 再生制御方法及び再生制御システム |
WO2018207936A1 (ja) * | 2017-05-12 | 2018-11-15 | 株式会社デザインMプラス | 譜面自動検出方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2636685B2 (ja) | 1997-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7189912B2 (en) | Method and apparatus for tracking musical score | |
Bonada et al. | Synthesis of the singing voice by performance sampling and spectral models | |
JP2636685B2 (ja) | 音楽イベントインデックス作成装置 | |
JP4207902B2 (ja) | 音声合成装置およびプログラム | |
US20230402026A1 (en) | Audio processing method and apparatus, and device and medium | |
US7335834B2 (en) | Musical composition data creation device and method | |
Lindemann | Music synthesis with reconstructive phrase modeling | |
JP3716725B2 (ja) | 音声処理装置、音声処理方法および情報記録媒体 | |
JP5560769B2 (ja) | 音素符号変換装置および音声合成装置 | |
JP3775319B2 (ja) | 音楽波形のタイムストレッチ装置および方法 | |
JPH11259066A (ja) | 音楽音響信号分離方法、その装置およびそのプログラム記録媒体 | |
TW201027514A (en) | Singing synthesis systems and related synthesis methods | |
JP2000293188A (ja) | 和音リアルタイム認識方法及び記憶媒体 | |
JP2000099009A (ja) | 音響信号の符号化方法 | |
JP2001005450A (ja) | 音響信号の符号化方法 | |
Joysingh et al. | Development of large annotated music datasets using HMM based forced Viterbi alignment | |
JP6047863B2 (ja) | 音響信号の符号化方法および装置 | |
WO2023171497A1 (ja) | 音響生成方法、音響生成システムおよびプログラム | |
JPH1173199A (ja) | 音響信号の符号化方法およびコンピュータ読み取り可能な記録媒体 | |
JP2003108179A (ja) | 歌唱音声合成における韻律データ収集方法、韻律データ収集プログラム、そのプログラムを記録した記録媒体 | |
JP3904871B2 (ja) | 歌唱音声合成における韻律生成方法及び韻律生成プログラム、そのプログラムを記録した記録媒体 | |
Roy | Instrumental Bengali music synthesis from transcription with Indian percussion instruments | |
Janer et al. | Morphing techniques for enhanced scat singing | |
JP2001056817A (ja) | 音楽検索システム | |
JP2001148633A (ja) | 音響信号の符号化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19970311 |
|
LAPS | Cancellation because of no payment of annual fees |