JP4225812B2 - ディジタル楽譜の音符とその楽譜のリアリゼーションとの間のリンクを生成する方法 - Google Patents

ディジタル楽譜の音符とその楽譜のリアリゼーションとの間のリンクを生成する方法 Download PDF

Info

Publication number
JP4225812B2
JP4225812B2 JP2003082227A JP2003082227A JP4225812B2 JP 4225812 B2 JP4225812 B2 JP 4225812B2 JP 2003082227 A JP2003082227 A JP 2003082227A JP 2003082227 A JP2003082227 A JP 2003082227A JP 4225812 B2 JP4225812 B2 JP 4225812B2
Authority
JP
Japan
Prior art keywords
onset
time interval
realization
generating
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003082227A
Other languages
English (en)
Other versions
JP2003308067A (ja
Inventor
ヴァーナー・クライヒバウム
ゲルハルト・ステンツェル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2003308067A publication Critical patent/JP2003308067A/ja
Application granted granted Critical
Publication of JP4225812B2 publication Critical patent/JP4225812B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音楽のディジタル表現の分野、および利用者がその音楽の選択されたリアリゼーションを入力することを可能にする技術に関する。
【0002】
【従来の技術】
今日のオーディオ・データのほとんどは、専門家レベルにおいても消費者レベルにおいても、ディジタル・フォーマットで配布され、記憶されている。これによって、オーディオ・ファイルの伝送およびオーディオ・ファイルの修正など、録音済みオーディオ材料の一般的な取り扱いが大幅に改善されている。
【0003】
オーディオ・データ・ファイル間をナビゲートするための技術も開発されている。例えば、コンパクト・ディスク(CD)のナビゲーション手段として、トラック数および時間が使用されている。プログラム・セグメント間をナビゲートするための、またそれ以外にオーディオ・ファイルを処理するための、様々な高度技術が、従来技術から知られている。
【0004】
米国特許第6,199,076号は、動的プログラム選択コントローラを含むオーディオ・プログラム・プレイヤを示している。これは、ホストから受け取ったプログラム・セグメントを再生するための加入者位置にある再生ユニットと、プログラム・セグメント間でインタラクティブにナビゲートするためのメカニズムを含む。
【0005】
米国特許第5,393,926号は、仮想音楽システムである。これには、利用者が演奏すると、それに応答して複数の信号を生成するマルチエレメント・アクチュエータが含まれている。このシステムはまた、制御信号に応答してオーディオ・トーンを生成するオーディオ・シンセサイザを備えている。マルチエレメント・アクチュエータのために楽譜を記憶するメモリがあり、記憶された楽譜は、一続きの主音、および関連する一続きの和声音配列を含む。一続きの和声音配列のそれぞれは、主音の異なる1つに対応し、和声音を含まないか、あるいは1つまたは複数の和声音を含む。この楽器はまた、マルチエレメント・アクチュエータから複数の信号を受け取り、それらから第1の制御信号のセットを生成するディジタル・プロセッサも含む。ディジタル・プロセッサは、記憶されている楽譜中の一続きの主音の中から、複数の信号のうち第1の信号に対応する主音を識別するようにプログラムされている。ディジタル・プロセッサはまた、複数の信号の残りのセットを、選択された主音に関連する和声音があるならばどのような和声音にもマップするようにプログラムされている。さらに、ディジタル・プロセッサは、識別した主音、および複数の信号のうちの信号がマップされた前記和声音から、第1の制御信号のセットを生成するようにプログラムされている。この第1の制御信号セットは、シンセサイザに、識別した主音およびマップされた和声音を表すサウンドを生成させる。
【0006】
米国特許第5,390,138号は、オーディオ・オブジェクトを様々なマルチメディア・オブジェクトに接続することによって、記憶装置およびディスプレイを備えたコンピュータを用いた、マルチメディア・プレゼンテーションのオブジェクト指向シミュレーションを可能にするためのシステムである。少なくとも1つの接続オブジェクトおよび少なくとも1つのオーディオ・オブジェクトを含む、複数のマルチメディア・オブジェクトがディスプレイ上に作成される。少なくとも1つのオーディオ・オブジェクトを含む、マルチメディア・オブジェクトが表示される。マルチメディア・オブジェクトおよびオーディオ・オブジェクトは、マルチメディア・プレゼンテーションを生成する。
【0007】
米国特許第5,388,264号は、MIDI(楽器ディジタル・インターフェース)オブジェクトを様々なマルチメディア・オブジェクトに接続することによって、記憶装置およびディスプレイを備えたコンピュータを用いた、マルチメディア・プレゼンテーションのオブジェクト指向シミュレーションを可能にするためのシステムである。記憶装置中の少なくとも1つの接続オブジェクトおよび少なくとも1つのMIDIオブジェクトを含む、複数のマルチメディア・オブジェクトがディスプレイ上に作成される。マルチメディア・オブジェクトとMIDIオブジェクトが接続され、それらの間で情報が送られて、マルチメディア・プレゼンテーションが生成される。
【0008】
米国特許第5,317,732号は、データ処理システム中で実行されるプロセスであって、第1のメモリから第2のメモリに再配置すべき、複数のマルチメディア・プレゼンテーションのうちの1つを選択する入力を受け取るステップ、選択されたマルチメディア・プレゼンテーションに対応する複数のリソースを認識するために選択されたマルチメディア・プレゼンテーションのリンクされているデータ構造を走査するステップ、および識別した複数のリソースに対応する選択されたマルチメディア・プレゼンテーション内の名前および位置のリストを生成するステップを含む。このプロセスはまた、生成したリストの上の名前を変えるステップ、選択されたマルチメディア・プレゼンテーション中の識別した複数のリソースの名前を生成したリスト上の新しい名前に変更するステップ、および選択されたマルチメディア・プレゼンテーションと、生成したリスト上で識別したリソースを第2のメモリに移動するステップを含む。
【0009】
米国特許第5,262,940号は、ポータブル・オーディオ/オーディオ・ビジュアル媒体追跡デバイスである。
【0010】
米国特許第5,247,126号は、画像再生装置、画像情報記録媒体、および伴奏装置である。
【0011】
米国特許第5,208,421号は、MIDIファイルのオーディオ編集のための方法および装置である。この発明を利用することによって、マッチするノート・オンまたはノート・オフ・メッセージをファイルまたはファイル・セクション中に自動的に挿入して、そのような編集によって生じた不一致を修正することにより、ソースMIDIファイル、コピーまたは除去されたセクション、またはターゲット・ファイルの完全性を確実にすることができる。さらに、プログラム・ステータス・メッセージが、ソース・ファイル、コピーまたは除去されたセクション、またはターゲット・ファイル中に自動的に挿入されることによって、ディジタル・オーディオ・データを編集することにより得ることができる結果と一致する結果が生み出される。利用者が複雑なMIDIシーケンサを学ぶ必要なく、MIDIファイルを選択的に編集することができるように、タイミング情報が選択的に追加または維持される。
【0012】
米国特許第5,153,829号は、情報処理装置である。この発明は、入力される楽譜、キーボード、および楽音時間情報を、画面上に表示するためのユニットを有する。また、キーボードおよび楽音時間情報が、表示ユニット上にそれぞれに表示される位置を指定するためのユニットもある。さらに、この発明は、キーボードおよび楽音時間情報表示が表示ユニット上に表示される位置を指定ユニットが指定することによって生成された音楽情報を記憶するためのユニットを含む。さらに、表示ユニットの画面上で楽譜、キーボード、および楽音時間情報の表示を制御するためのユニットがある。このユニットはまた、楽音のパターン、または表示ユニット上の楽譜の残りの部分の表示を、それぞれ、指定ユニットによって指定されたキーボードおよび楽音時間情報の位置に従って、制御するためのものでもある。最後に、記憶ユニット中に記憶されている音楽情報を読み込むことによって、楽音を生成するためのユニットがある。
【0013】
米国特許第5,142,961号は、アコースティック楽器の特性を忠実に再生する、システム制御による楽器上で、音楽を記憶、編曲、操作、および再生するための方法である。このシステムは、音楽源、中央処理装置(CPU)、および、任意の数のアコースティックまたはアコースティック・ハイブリッドの楽器という形の、CPU制御による複数の楽器トランスデューサを含む。一実施形態では、パフォーマンス情報が、音楽源、MIDIコントローラからCPUに送られ、CPU中で編集され、電子信号に変換され、トランスデューサ・ドライバによって楽器トランスデューサに送られる。別の実施形態では、ディジタルまたはサウンド・テープ媒体中に記憶されている個々のパフォーマンスが、楽器トランスデューサを通して再生され、または、記憶、編集またはCPUにおけるパフォーマンスのためのピッチ/周波数検出デバイスによって、MIDIデータに変換される。さらに別の実施形態では、パフォーマンス情報がピッチ/周波数検出デバイスによって電子記録媒体またはライブ・パフォーマンスから抽出され、CPU中で編集され、電子信号に変換され、任意の数の楽器トランスデューサに送られる。このデバイスはまた、アコースティック楽器によくある遅延の問題も解消する。
【0014】
米国特許第5,083,491号は、ソレノイド作動のプレイヤ・ピアノ・システム上で再生するために、MIDIフォーマットで録音された音楽演奏の中に含まれている表現効果をソレノイド作動の音楽生成器上で再現するための方法および装置である。検出された、MIDI録音中に含まれる打音速度情報は、復号され、制御側マイクロプロセッサ中に記憶されている打音マップと相互に関連付けられる。打音マップは、所望の音楽表現効果に対応するデータを含む。固定された幅および振幅の時間識別パルスが、打音マップ中のデータに従って作動ソレノイドに向けられ、次には作動ソレノイドがピアノ線を打つ。その後、均一の振幅および周波数のパルスが作動ソレノイドに向けられ、音符の終わりまでその打音を維持する。打音マップは、打音が持続している間ずっと、ソレノイドの位置を動的に制御して、ソレノイドの動作およびピアノの鍵盤の動きの非線形特性を補正し、それによって、オリジナルの音楽パフォーマンスの本物通りの再生を提供する。
【0015】
米国特許第5,046,004号は、音楽を再生し、その音楽の歌詞を表示するための、コンピュータおよびキーボードを用いたシステムである。音楽を再生し、歌詞を表示するためのデータは、バイナリコード化されたディジタル信号で構成されている。このような信号は、公衆通信回線を介してダウンロードされる。あるいは、複数の曲や歌に対応するデータが前もって装置に記憶されていて、その記憶されているデータが、コンピュータの中央処理装置によって選択的に処理される。インストルメンタル音楽データには、歌詞データの処理を促進するためのトリガ信号が存在し、それによって、音楽の再生および歌詞の表示が互いにリンクされる。このようにして再生された音楽は、バックグラウンド・ミュージックとして、または、利用者がそのような音楽の再生と同調して表示される歌詞を見ながら、その伴奏に合わせて歌うことができるようにするために利用される。
【0016】
米国特許第4,744,281号は、互いに別々に再生される、少なくとも2つの結合されたパートで構成された、1曲が録音されているメモリ・ディスクを用いるアンサンブル再生動作モードの操作を備えた自動音楽プレイヤ・システムであり、前記パートは少なくとも2つのデータ・サブブロックの形で録音されている。前記自動音楽プレイヤ・システムは、機械的または電子的に起動されると機械的にサウンドを生成する第1のサウンド・ジェネレータと、電子的に起動されると電子的にサウンドを生成する少なくとも1つの第2のサウンド・ジェネレータと、第1および第2のサウンド・ジェネレータに接続されたコントロール・ユニットとを含む。ディスクから読み取られるデータの2つまたはそれ以上のサブブロックのうち1つは別のものとは区別され、データ・サブブロックのその区別された1つは第1のサウンド・ジェネレータに伝送され、別のデータ・サブブロックは第2のサウンド・ジェネレータに伝送される。さらに、第2のサウンド・ジェネレータへのデータの伝送は、継続的に、第1のサウンド・ジェネレータへのデータの伝送より所定の時間だけ遅らされ、そのため、2つのサウンド・ジェネレータは、同時に、かつ互いに呼応してサウンドを生成することが可能になる。
【0017】
オーディオ・データ間をナビゲートすることは、面倒かつ著しく正確さに欠けるという点が、従来技術の共通する欠点である。
【0018】
【発明が解決しようとする課題】
したがって、本発明の一態様は、ディジタル楽譜の音符とその楽譜のリアリゼーションの間のリンクを生成するための改良された方法、および対応するコンピュータ・プログラム製品を提供することである。さらに、本発明は、改良されたナビゲーション機能を備えた電子オーディオ・デバイスを提供する。
【0019】
【課題を解決するための手段】
本発明は、1音楽の表現と、その音楽の録音されているオーディオ・データ(以下、リアリゼーションともいう)の間のリンクを作成することを可能にする。これによって、ディジタル楽譜のある音符を選択することによって、その選択した音符から、リアリゼーションの再生を自動的に開始することができる。
【0020】
本発明の好ましい実施形態によれば、ディジタル楽譜が、コンピュータのモニタ上で視覚化される。利用者は、グラフィカル・ユーザ・インターフェースを使って、そのディジタル楽譜のある音符を選択することができる。例えば、これは、コンピュータ・マウスを使って、音符の上を「クリックする」ことによって行うことができる。このようにして、その音符に関連付けられたリンクが選択される。このリンクは、利用者が選択した音符に対応する、その音楽の録音リアリゼーションのある位置を示す。さらに、音符を選択することによって、その選択した音符に関連付けられているリンクが示す位置から、リアリゼーションの再生を開始する信号が、自動的に生成される。
【0021】
本発明のさらなる好ましい実施形態によれば、ディジタル楽譜を分析して、その音楽中の顕著なオーディオ・イベントを決定する。これは、楽譜のすべての音符をその時間単位の整数倍数として表現することを可能にする時間単位を選択することによってなされる。このようにして、時間軸が論理時間間隔に分割される。
【0022】
時間間隔それぞれにおける、楽譜のオンセットの数を決定する。これによって、長い時間にわたるオンセットの数が得られる。このオンセット曲線をフィルタにかける。オンセット曲線をフィルタにかける一方法は、オンセット曲線に閾値を適用することである。これは、時間間隔のオンセットの合計のうち、事前定義した閾値を超えないものを、オンセット曲線から取り除くことを意味する。このようにして、顕著ではないオーディオ・イベントはフィルタによって除去される。
【0023】
フィルタにかけたオンセット曲線は、閾値以上のオンセット合計数を有する時間間隔系列を決定する。この時間間隔系列を、音楽の録音リアリゼーション中の同じオーディオ・イベントを表す、対応する時間間隔系列と位置合わせする。
【0024】
本発明の好ましい一実施形態によれば、録音リアリゼーションのオーディオ信号の信号強度をある閾値と比較することによって、該録音リアリゼーションについての時間間隔系列を決定する。強度が閾値以下に落ちると、対応する時間間隔がその時間間隔系列に選択される。
【0025】
本発明のさらなる好ましい実施形態によれば、表現およびリアリゼーションの時間間隔系列のマッピングを、その2つ系列の間のハウスドルフ距離を最小にすることによって行う。
【0026】
フェリックス・ハウスドルフ(Felix Hausdorff)(1868〜1942)は、距離空間のサブセット間の距離関数を考案した。定義によれば、2つのセットは、一方のセットのいずれかの点がもう一方のセットのある点から距離dの範囲内にある場合、互いからハウスドルフ距離dの範囲内にある。
【0027】
2つの点のセットを、A={a1,...,am}、およびB={b1,...,bn}と仮定すると、ハウスドルフ距離は以下のように定義される。
H(A,B)=max(h(A,B),h(B,A)) (1)
ここで、
【数1】
Figure 0004225812
【0028】
関数h(A,B)をAからBに向かうハウスドルフ「距離」と呼ぶ(この関数は対称ではなく、したがって真の距離ではない)。それは、Bの任意の点から最も遠い点a∈Aを識別し、aから、B中の最もaに近い点までの距離を測定する。したがって、ハウスドルフ距離、H(A,B)は、Bの任意の点から最も遠いAの点、またAの任意の点から最も遠いBの点までの距離を反映するので、2つのセット間のずれの程度を測定する。直感的にわかるように、ハウスドルフ距離がdの場合、Aのすべての点はBのある点から距離dの範囲内になければならず、またBのすべての点はAのある点から距離dの範囲内になければならない。
【0029】
楽譜の分析およびリアリゼーションの分析によって得られた2つの時間間隔系列を、その2つの時間間隔のセットの間のハウスドルフ距離が最小になるまで、互いに対して移動させる。このようにして、2つの時間系列の時間間隔のペアが決定される。したがって、各ペアについて、特定の時間間隔に属する音符がリアリゼーションのある時点上にマップされて、音符とリアリゼーションの録音の対応する位置との間にリンクが形成される。
【0030】
マッピング操作を実施するための別の方法は、2つの時間間隔系列を相互相関関数が最大値になるまで互いに対して移動させる方法である。2つの系列が最も一致する位置を見つけるためのその他の数学的方法を使用することができる。
【0031】
【発明の実施の形態】
図1は、ディジタル楽譜の音符とその楽譜のリアリゼーションの間のリンクを作成するための方法の概略図である。ステップ1で、ディジタル楽譜を入力する。ステップ2で、ディジタル楽譜をフィルタにかけて、その音楽の有意なオンセットを決定する。これは、すべての声部の音符オンセットの回数を合計し、その結果得られた時系列をクリップして、録音中にマスキングされる可能性がある有意ではない音符のオンセットを除外することによって行われることができる。このようにして、ディジタル楽譜は、有意な音符オンセットを有する時間間隔系列に変換される
【0032】
一方、ステップ3で、その楽譜によって表される音楽のリアリゼーションのアナログまたはディジタルの録音を入力する。ステップ4で、その録音を変化検出器によって分析する。変化検出器の目的は、録音内のオーディオ信号が有意な変化する時間間隔を識別することである。
【0033】
一実施形態では、変化検出器が、オーディオ信号の時間領域内で動作する。好ましい一実施形態では、変化検出器が、録音されているオーディオ信号の総合強度に基づいている。信号が事前定義の閾値レベルを超えると、対応する信号ピークがオンセットであるとして定義される。このようにして、有意なオンセットを有する時間間隔系列が作成される。
【0034】
本発明の別の実施形態では、変化検出器が周波数領域で動作する。これについては、図5に関して詳細に説明する。
【0035】
ステップ5では、ステップ2および4で決定された時間間隔系列を、互いに対し位置合わせし、録音されているオーディオ信号とディジタル楽譜の中の対応するオンセットを決定する。ステップ6で、その2つの時間間隔系列中の対応するオンセット・イベントのペアを、リンクによって相互に関係付ける。好ましくは、それらのリンクを別々のリンク・ファイル中に記憶する。
【0036】
図2は、ディジタル楽譜の例(ジョゼフ・ハイドン、交響曲Hob.I−1)を示す。このディジタル楽譜を、MIDIファイルまたは同様のディジタル楽譜フォーマットの形で記憶することができる。利用者がコンピュータ・マウス上をクリックすることによってそのディジタル楽譜の個々の音符を選択できるように、ディジタル楽譜が、グラフィカル・ユーザ・インターフェースを備えたコンピュータ画面上に表示される。
【0037】
ディジタル楽譜の下に、離散タイム・スケールを有する時間軸7がある。時間軸7は、いくつかの時間間隔に分けられている。好ましくは、時間軸7のスケールを、楽譜のすべての音符がこのような時間間隔の整数倍数として表現され得るように選択する。
【0038】
この離散時間軸をミリ秒の時間軸に変換するために、楽譜の時間間隔の合計を楽譜のリアリゼーションの継続時間と等しくすることによって、この間隔に倍率をかける。この好ましいケースでは、前述の時間間隔が時点に変換される。ここで考慮している例では、この時間間隔が16分音符である。
【0039】
図2の例で示すように、この時間間隔の各倍数について、その時に開始する音符の数が数えられ、累積されて、オンセット曲線を生成する。時間t1において、この時に開始する音符の合計数は、n1=8である。引き続く時間間隔t2では、次の時間間隔t3と同様、音符オンセット合計数は、n2=2である。
【0040】
このようにして、ディジタル楽譜全体を走査して、時間軸7の時間間隔それぞれにおいて開始する楽譜の音符の数を求める。これによって、図2の図に描かれている点によって表されたオンセット曲線が生成される。
【0041】
図3は、オンセット曲線のさらなる処理を示す。合計オンセット値nは、閾値8と比較される。閾値8よりも下の合計オンセット値nはすべて廃棄される。曲線の残っている点が、有意なオンセットの系列9を構成するいくつかの時間間隔を決定する。
【0042】
図4は、対応する流れ図を示す。
【0043】
ステップ10で、ディジタル楽譜が入力される。ステップ11で、楽譜のすべての音符を時間単位の整数倍数として表現することができるように、時間軸に対して適切な時間単位が自動的に選択される。このようにして、時間軸は、いくつかの時間間隔に分けられる。
【0044】
ステップ12および13で、各時間間隔のオンセットをすべての音声部の所与の時間間隔内のオンセットを合計することによって求める。好ましくは、合計プロセスのためのオンセットにそれぞれの動的値で重みを付けて、それらの音符がフォルテで演奏されるようにする。
【0045】
ステップ14で、録音中にマスキングされる可能性がある有意ではないオンセット・イベントをフィルタにより除去するために、フィルタ関数が適用される。
【0046】
ステップ15で、フィルタにかけたオンセット曲線を、ポイント・プロセス、すなわち、楽譜内の有意なオーディオ・イベントを表す時間間隔系列に変換する。
【0047】
図5は、周波数領域中の変化検出器(図1のステップ4参照)の一実施形態を示す。
【0048】
ステップ16で、そのディジタル楽譜のリアリゼーションが入力される。ステップ17では、時間周波数分析が実施される。好ましくは、これは、短時間高速フーリエ変換(FFT)によって行われる。このようにして、時間軸(図2の時間軸7を参照)の時間間隔のそれぞれについて、周波数スペクトルが得られる。
【0049】
ステップ18で、時間周波数分析によって得られた三次元データの「リッジ」又は「クレスト・ライン」が識別される。このような「リッジ」を識別する1つの方法として、従来技術(米国特許第5,463,698号)や時間周波数分布のクレイジ・クライマ・アルゴリズム(crazy climber algorithms to the time-frequency distribution)[Rene Carmona他、PracticalTime-Frequency Analysis、アカデミック・プレス社、ニューヨーク、1988]から知られるように、時間周波数分析によって提供されるデータに対して三次元watershed変換(three dimensional watershed transform)を実施する方法が挙げられる。
【0050】
ステップ19で、各リッジの開始点が識別される。各開始点は、時間間隔の1つに属する。このようにして、時間間隔系列が決定される。これを、リアリゼーションのオンセット曲線について説明したように、フィルタにかけることができる。
【0051】
ステップ20で、上記に説明したように、リアリゼーションおよび楽譜の間隔の時系列が相互に関連付けられる。ステップ21で、楽譜の音符からその音楽の録音リアリゼーション内の位置へポインタを使ってリンクを生成し、そして該リンク・データを含むリンク・ファイルが作成される。
【0052】
図6は、電子デバイス22のブロック図を示す。電子デバイスは、マルチメディア機能、CDまたはDVDプレイヤ、あるいは別のオーディオ・デバイスを備えたパーソナル・コンピュータであってよい。デバイス22はプロセッサ23を備え、リアリゼーション24、表現25、およびリンク・ファイル26を記憶するための記憶手段を有する。
【0053】
さらに、電子デバイス22は、グラフィック・ユーザ・インターフェース27、およびオーディオ出力のためのスピーカ28を備えている。プロセッサ23は、表現25を、グラフィカル・ユーザ・インターフェース27上に表示される楽譜の形でレンダする役割を果たす。さらに、プロセッサ23は、楽譜のリアリゼーション24を再生する役割を果たす。
【0054】
操作中、利用者はグラフィカル・ユーザ・インターフェース27を介して、楽譜の音符を選択することができる。プロセッサ23は、応答して、リンク・ファイル26にアクセスし、ユーザが選択した音符に関連付けられたリンクを読み込む。このリンクは、リンクによって識別された位置からリアリゼーション24の再生を開始することを可能にする、リアリゼーション24へのアクセス・ポイントを提供する。再生は、スピーカ28から出力される。
【0055】
まとめとして、本発明の構成に関して以下の事項を開示する。
【0056】
(1)ディジタル楽譜の音符と前記楽譜のリアリゼーションとの間のリンクを生成する方法であって、
連続する時間間隔で始まる楽譜の音符の数を決定することによって、オンセット曲線を表す第1のデータを生成するステップと、
前記オンセット曲線をフィルタにかけるステップであって、フィルタにかけられた前記オンセット曲線が第1の時間間隔の第1の系列を表し、前記第1の時間間隔のそれぞれは有意な数のオンセットを有する、前記オンセット曲線をフィルタにかけるステップと、
前記リアリゼーションについて第2の時間間隔の第2の系列を生成するステップであって、各第2の時間間隔は前記リアリゼーションの有意な動的変化を有する、前記リアリゼーションについて第2の時間間隔の第2の系列を生成するステップと、
前記リンクを生成するために、前記第1および第2の系列をマッピングするステップと
を含む、方法。
(2)前記ディジタル楽譜の音符のすべてのオンセットが、離散時間間隔の整数倍で表され得るように、離散時間間隔を有する離散時間軸を選択するステップをさらに含む、上記(1)に記載の方法。
(3)前記オンセット曲線をフィルタにかけるステップが、前記第1のデータを閾値と比較するステップを含む、上記(1)または(2)に記載の方法。
(4)前記第2の系列が、前記リアリゼーションの強度がその中において前記閾値よりも上に高まる第2の時間間隔を決定することによって生成される、上記(1)、(2)または(3)に記載の方法。
(5)前記第2の時間間隔の第2の系列の前記決定が、
前記リアリゼーションの時間周波数分析を実施するステップと、
時間周波数領域におけるリッジを識別するステップと、
前記リッジのそれぞれについて開始点を識別するステップと、
前記開始点のそれぞれについて第2の時間間隔を決定するステップと
を含む、上記(1)ないし(4)のいずれか一項に記載の方法。
(6)前記マッピングするステップが、前記第1および第2の系列のハウスドルフ距離を最小にすることによって実施される、上記(1)ないし(5)のいずれか一項に記載の方法。
(7)前記マッピングするステップが、前記第1および第2の系列の相互相関係数を最大にすることによって実施される、上記(1)ないし(5)のいずれか一項に記載の方法。
(8)前記第1のデータが、各音符の終点を表す、上記(5)ないし(7)のいずれか一項に記載の方法。
(9)各リッジの終点が開始点として使用される、上記(5)ないし(8)のいずれか一項に記載の方法。
(10)上記(1)ないし(9)のいずれか一項に従った方法を実施するためのコンピュータ・プログラム製品。
(11)ディジタル楽譜のリアリゼーション(24)および表現(25)と、前記ディジタル楽譜の表現の音符と前記リアリゼーションとの間のリンクを含むリンク・ファイル(26)とを処理する手段(23)を含む電子デバイスであって、前記リンクが、上記(1)ないし(8)のいずれか一項に記載の方法に従って生成される電子デバイス。
(12)利用者の音符またはリンクあるいはその両方の選択を入力する手段をさらに含む、上記(11)に記載の電子デバイス。
(13)前記リアリゼーションの再生を、前記利用者の選択に対応する第2の時間間隔で開始する手段をさらに含む、上記(11)または(12)に記載の電子デバイス。
【図面の簡単な説明】
【図1】本発明の方法の好ましい実施形態を示す図である。
【図2】ディジタル楽譜のオンセット曲線がどのように決定されるかを一例として示す図である。
【図3】オンセット曲線の閾値処理、および対応する時間間隔系列の決定を示す図である。
【図4】ディジタル楽譜の表現について時間間隔系列を決定するための好ましい実施形態を示す図である。
【図5】楽譜のリアリゼーションについて時系列を決定するための好ましい実施形態を示す図である。
【図6】電子デバイスの好ましい実施形態のブロック図である。
【符号の説明】
7 時間軸
8 閾値
9 系列
22 電子デバイス
23 プロセッサ
24 リアリゼーション
25 表現
26 リンク・ファイル
27 ユーザ・インターフェース
28 スピーカ

Claims (3)

  1. ディジタル楽譜の音符と前記ディジタル楽譜のリアリゼーションとの間のリンクを生成する方法であって、
    コンピュータに、
    ディジタル楽譜を走査して、前記ディジタル楽譜の第1の時間間隔それぞれにおいて開始する音符の数を決定することによって、オンセット曲線を表す第1のデータを生成するステップであって、前記オンセット曲線は、時間軸と、前記時間軸の前記第1の時間間隔それぞれにおいて開始する音符の数であるオンセット値とを有する、前記第1のデータを生成するステップと、
    前記オンセット曲線上のオンセット値を閾値と比較して、該閾値よりも下のオンセット値を廃棄するフィルタにかけるステップであって、フィルタ後のオンセット曲線は、前記廃棄されなかったオンセットを有する第2の時間間隔を有する、前記フィルタにかけるステップと、
    前記ディジタル楽譜の前記リアリゼーションについて、時間周波数分析を使用して、前記第1の時間間隔のそれぞれにおける周波数スペクトルを生成するステップと、
    前記第2の時間間隔の夫々において、前記ディジタル楽譜からのフィルタ後のオンセットを前記リアリゼーションからの周波数スペクトル上のリッジの開始点と関係付けて、リンクを生成するステップであって、前記関連付けは、前記第2の時間間隔と前記リッジの開始点夫々から求められる時間間隔との間のハウスドルフ距離が最小になるように又は前記第2の時間間隔と前記リッジの開始点夫々から求められる時間間隔との間の相互相関関数が最大になるように行われる、前記生成するステップ
    を実行させる、前記方法。
  2. ディジタル楽譜の音符と前記ディジタル楽譜のリアリゼーションとの間のリンクを生成するプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    コンピュータに、
    ディジタル楽譜を走査して、前記ディジタル楽譜の第1の時間間隔それぞれにおいて開始する音符の数を決定することによって、オンセット曲線を表す第1のデータを生成するステップであって、前記オンセット曲線は、時間軸と、前記時間軸の前記第1の時間間隔それぞれにおいて開始する音符の数であるオンセット値とを有する、前記第1のデータを生成するステップと、
    前記オンセット曲線上のオンセット値を閾値と比較して、該閾値よりも下のオンセット値を廃棄するフィルタにかけるステップであって、フィルタ後のオンセット曲線は、前記廃棄されなかったオンセットを有する第2の時間間隔を有する、前記フィルタにかけるステップと、
    前記ディジタル楽譜の前記リアリゼーションについて、時間周波数分析を使用して、前記第1の時間間隔のそれぞれにおける周波数スペクトルを生成するステップと、
    前記第2の時間間隔の夫々において、前記ディジタル楽譜からのフィルタ後のオンセットを前記リアリゼーションからの周波数スペクトル上のリッジの開始点と関係付けて、リンクを生成するステップであって、前記関連付けは、前記第2の時間間隔と前記リッジの開始点夫々から求められる時間間隔との間のハウスドルフ距離が最小になるように又は前記第2の時間間隔と前記リッジの開始点夫々から求められる時間間隔との間の相互相関関数が最大になるように行われる、前記生成するステップ
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  3. ディジタル楽譜の音符と前記ディジタル楽譜のリアリゼーションとの間のリンクを生成するコンピュータであって、
    ディジタル楽譜を走査して、前記ディジタル楽譜の第1の時間間隔それぞれにおいて開始する音符の数を決定することによって、オンセット曲線を表す第1のデータを生成する手段であって、前記オンセット曲線は、時間軸と、前記時間軸の前記第1の時間間隔それぞれにおいて開始する音符の数であるオンセット値とを有する、前記第1のデータを生成する手段と、
    前記オンセット曲線上のオンセット値を閾値と比較して、該閾値よりも下のオンセット値を廃棄するフィルタにかける手段であって、フィルタ後のオンセット曲線は、前記廃棄されなかったオンセットを有する第2の時間間隔を有する、前記フィルタにかける手段と、
    前記ディジタル楽譜の前記リアリゼーションについて、時間周波数分析を使用して、前記第1の時間間隔のそれぞれにおける周波数スペクトルを生成する手段と、
    前記第2の時間間隔の夫々において、前記ディジタル楽譜からのフィルタ後のオンセットを前記リアリゼーションからの周波数スペクトル上のリッジの開始点と関係付けて、リンクを生成する手段であって、前記関連付けは、前記第2の時間間隔と前記リッジの開始点夫々から求められる時間間隔との間のハウスドルフ距離が最小になるように又は前記第2の時間間隔と前記リッジの開始点夫々から求められる時間間隔との間の相互相関関数が最大になるように行われる、前記生成する手段
    を含む、前記コンピュータ。
JP2003082227A 2002-04-09 2003-03-25 ディジタル楽譜の音符とその楽譜のリアリゼーションとの間のリンクを生成する方法 Expired - Fee Related JP4225812B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02007897.8 2002-04-09
EP02007897 2002-04-09

Publications (2)

Publication Number Publication Date
JP2003308067A JP2003308067A (ja) 2003-10-31
JP4225812B2 true JP4225812B2 (ja) 2009-02-18

Family

ID=28459459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003082227A Expired - Fee Related JP4225812B2 (ja) 2002-04-09 2003-03-25 ディジタル楽譜の音符とその楽譜のリアリゼーションとの間のリンクを生成する方法

Country Status (2)

Country Link
US (1) US6768046B2 (ja)
JP (1) JP4225812B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797523B2 (ja) * 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4692189B2 (ja) * 2005-09-28 2011-06-01 ヤマハ株式会社 合奏システム
JP4752425B2 (ja) * 2005-09-28 2011-08-17 ヤマハ株式会社 合奏システム
PL2115732T3 (pl) 2007-02-01 2015-08-31 Museami Inc Transkrypcja muzyczna
CN102867526A (zh) 2007-02-14 2013-01-09 缪斯亚米有限公司 用于分布式音频文件编辑的门户网站
US8494257B2 (en) * 2008-02-13 2013-07-23 Museami, Inc. Music score deconstruction
CA2823907A1 (en) 2011-01-06 2012-07-12 Hank Risan Synthetic simulation of a media recording
JP5477410B2 (ja) * 2012-03-21 2014-04-23 ヤマハ株式会社 音楽コンテンツ表示装置及びプログラム
JP6801225B2 (ja) * 2016-05-18 2020-12-16 ヤマハ株式会社 自動演奏システムおよび自動演奏方法
US10460712B1 (en) * 2018-12-10 2019-10-29 Avid Technology, Inc. Synchronizing playback of a digital musical score with an audio recording
US10748515B2 (en) 2018-12-21 2020-08-18 Electronic Arts Inc. Enhanced real-time audio generation via cloud-based virtualized orchestra
US10790919B1 (en) 2019-03-26 2020-09-29 Electronic Arts Inc. Personalized real-time audio generation based on user physiological response
US10799795B1 (en) 2019-03-26 2020-10-13 Electronic Arts Inc. Real-time audio generation for electronic games based on personalized music preferences
US10657934B1 (en) * 2019-03-27 2020-05-19 Electronic Arts Inc. Enhancements for musical composition applications
US10643593B1 (en) 2019-06-04 2020-05-05 Electronic Arts Inc. Prediction-based communication latency elimination in a distributed virtualized orchestra
US11017751B2 (en) * 2019-10-15 2021-05-25 Avid Technology, Inc. Synchronizing playback of a digital musical score with an audio recording

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6141191A (ja) * 1984-08-01 1986-02-27 ローランド株式会社 同期自動演奏装置
EP0239917A3 (en) 1986-03-29 1989-03-29 Yamaha Corporation Automatic sound player system having acoustic and electronic sound sources
US5153829A (en) 1987-11-11 1992-10-06 Canon Kabushiki Kaisha Multifunction musical information processing apparatus
AU633828B2 (en) 1988-12-05 1993-02-11 Ricos Co., Ltd. Apparatus for reproducing music and displaying words
US5142961A (en) 1989-11-07 1992-09-01 Fred Paroutaud Method and apparatus for stimulation of acoustic musical instruments
US5262940A (en) 1990-08-23 1993-11-16 Lester Sussman Portable audio/audio-visual media tracking device
US5208421A (en) 1990-11-01 1993-05-04 International Business Machines Corporation Method and apparatus for audio editing of midi files
JP3241372B2 (ja) 1990-11-27 2001-12-25 パイオニア株式会社 カラオケ演奏方法
FR2674349B1 (fr) 1991-03-20 1993-07-02 Armines Procede de traitement d'images par files d'attente hierarchisees.
US5317732A (en) 1991-04-26 1994-05-31 Commodore Electronics Limited System for relocating a multimedia presentation on a different platform by extracting a resource map in order to remap and relocate resources
US5083491A (en) 1991-05-31 1992-01-28 Burgett, Inc. Method and apparatus for re-creating expression effects on solenoid actuated music producing instruments
US5405153A (en) * 1993-03-12 1995-04-11 Hauck; Lane T. Musical electronic game
US5393926A (en) 1993-06-07 1995-02-28 Ahead, Inc. Virtual music system
US5390138A (en) 1993-09-13 1995-02-14 Taligent, Inc. Object-oriented audio system
US5388264A (en) 1993-09-13 1995-02-07 Taligent, Inc. Object oriented framework system for routing, editing, and synchronizing MIDI multimedia information using graphically represented connection object
JPH0962262A (ja) * 1995-08-28 1997-03-07 Casio Comput Co Ltd メロディ変換装置及びその方法
US5663517A (en) * 1995-09-01 1997-09-02 International Business Machines Corporation Interactive system for compositional morphing of music in real-time
JP3298384B2 (ja) * 1995-10-17 2002-07-02 ヤマハ株式会社 自動演奏装置
JP3635361B2 (ja) * 1996-07-18 2005-04-06 ローランド株式会社 電子楽器の音素材処理装置
US6199076B1 (en) 1996-10-02 2001-03-06 James Logan Audio program player including a dynamic program selection controller
AUPP547898A0 (en) * 1998-08-26 1998-09-17 Canon Kabushiki Kaisha System and method for automatic music generation
JP2000242267A (ja) * 1999-02-22 2000-09-08 Kawai Musical Instr Mfg Co Ltd 音楽学習支援装置及び音楽学習支援プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3631650B2 (ja) * 1999-03-26 2005-03-23 日本電信電話株式会社 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した計算機読み取り可能な記録媒体
US6372973B1 (en) * 1999-05-18 2002-04-16 Schneidor Medical Technologies, Inc, Musical instruments that generate notes according to sounds and manually selected scales

Also Published As

Publication number Publication date
US20030188626A1 (en) 2003-10-09
US6768046B2 (en) 2004-07-27
JP2003308067A (ja) 2003-10-31

Similar Documents

Publication Publication Date Title
EP1646035B1 (en) Mapped meta-data sound-playback device and audio-sampling/sample processing system useable therewith
JP3675287B2 (ja) 演奏データ作成装置
JP4225812B2 (ja) ディジタル楽譜の音符とその楽譜のリアリゼーションとの間のリンクを生成する方法
JP4463421B2 (ja) 自動音楽生成装置及び方法
Kapur et al. Query-by-beat-boxing: Music retrieval for the DJ
Pachet et al. Reflexive loopers for solo musical improvisation
CN1136535C (zh) 一种卡拉ok装置及演奏方法
JP5982980B2 (ja) 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
US5939654A (en) Harmony generating apparatus and method of use for karaoke
JP3975772B2 (ja) 波形生成装置及び方法
US6798427B1 (en) Apparatus for and method of inputting a style of rendition
US20020144587A1 (en) Virtual music system
US6864413B2 (en) Ensemble system, method used therein and information storage medium for storing computer program representative of the method
US20020105359A1 (en) Waveform generating metohd, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus
JP3239672B2 (ja) 自動演奏装置
JP3900188B2 (ja) 演奏データ作成装置
JP3577561B2 (ja) 演奏分析装置及び演奏分析方法
JP3829780B2 (ja) 奏法決定装置及びプログラム
JP3750533B2 (ja) 波形データ録音装置および録音波形データ再生装置
JP3623557B2 (ja) 自動作曲システムおよび自動作曲方法
JP4219652B2 (ja) リピート演奏時に直前に計測したピッチ誤差に基づいて該当箇所の主旋律音量を制御するカラオケ装置の歌唱練習支援システム
JP2013076887A (ja) 情報処理システム,プログラム
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JP3900187B2 (ja) 演奏データ作成装置
JP2002297139A (ja) 演奏データ変更処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050322

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050518

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20050523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050916

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050916

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20050916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060104

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060104

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060223

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081021

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081118

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees