JP3907587B2 - 演奏楽器の音情報を用いた音響分析方法 - Google Patents

演奏楽器の音情報を用いた音響分析方法 Download PDF

Info

Publication number
JP3907587B2
JP3907587B2 JP2002548707A JP2002548707A JP3907587B2 JP 3907587 B2 JP3907587 B2 JP 3907587B2 JP 2002548707 A JP2002548707 A JP 2002548707A JP 2002548707 A JP2002548707 A JP 2002548707A JP 3907587 B2 JP3907587 B2 JP 3907587B2
Authority
JP
Japan
Prior art keywords
sound
information
frame
sound information
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002548707A
Other languages
English (en)
Other versions
JP2004515808A (ja
Inventor
ジョン,ドイル
Original Assignee
アミューズテック カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アミューズテック カンパニー リミテッド filed Critical アミューズテック カンパニー リミテッド
Publication of JP2004515808A publication Critical patent/JP2004515808A/ja
Application granted granted Critical
Publication of JP3907587B2 publication Critical patent/JP3907587B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/125Extracting or recognising the pitch or fundamental frequency of the picked up signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/126Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of individual notes, parts or phrases represented as variable length segments on a 2D or 3D representation, e.g. graphical edition of musical collage, remix files or pianoroll representations of MIDI-like files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

[技術分野]
本発明は、デジタル音響信号を分析する方法に関し、特に、入力されるデジタル音響信号の周波数成分と演奏楽器の音の周波数成分とを比較することによって、デジタル音響信号を分析する方法に関する。
【0001】
[背景技術]
1980年代にパソコンの補給が始まって以来、コンピュータの技術、性能および環境が急速に発展し、1990年代に入ってはインターネットが会社の各部門および個人性格領域にまでも急に広がりつつある。これによって、21世紀には全世界においてコンピュータの利用が全分野で非常に重要視され、音楽分野においてこれを応用したものの1つとしてミディ(MIDI:Music Instrument Digital Interface)がある。「ミディ」とは、人の音声や楽器の演奏音を合成(synthesis)し、格納することのできるコンピュータ音楽技術であって、音楽家が利用している代表的なものであると言え、現在、大衆音楽の作曲家や演奏者が主に利用しているものである。
【0002】
例えば、作曲家は、ミディ機能を有する電子楽器をコンピュータと連結して手軽に作曲でき、このように作曲した演奏曲は、コンピュータまたはシンセサイザーの音響合成を用いて手軽に再生できるようになっている。また、録音過程においてミディ装備で製作された音響が、歌手の歌とミキシングされて人々に好まれる音楽に作られることもあった。
【0003】
ミディ技術は、このように大衆音楽と関連しながら持続的に発達すると共に、音楽教育分野へも進出している。すなわち、ミディは、音楽演奏の実際音とは無関係に、単に楽器の種類、音の高さおよび強さ、音の始まりと終わり情報のみを用いているため、ミディ楽器とコンピュータを用いてミディ情報をやり取りすることができる。従って、ミディ機能を有する電子ピアノとコンピュータをミディケーブルで連結した後、電子ピアノの演奏時に生成されるミディ情報を用いることで、音楽教育に活用し得る。これによって、日本のヤマハを始めとした多くの会社でミディを用いた音楽教育ソフトウェアを開発して適用してきている。
【0004】
しかし、このようなミディ技術は、アコースティック楽器の音とアコースティック楽器の演奏から感じられる感じを大事にする多くのクラシック音楽家の欲求を充足させていない。即ち、多くのクラシック音楽家は、電子楽器の音や感じをあまり好まないため、伝統的な方法で音楽を勉強し、アコースティック楽器の演奏を学ぶのが実状である。従って、音楽教師がクラシック音楽を教えるか学生が音楽を学ぶには、音楽学院や音楽学校などを用い、学生は音楽教師の指導に全的に依存している現状である。このようなクラシック音楽教育環境に鑑みてみると、クラシック音楽分野にコンピュータ技術とデジタル信号処理技術を導入して、アコースティック楽器で演奏された音楽を分析し、その分析結果を定量的な演奏情報として示すことができれば好ましいだろう。
【0005】
このため、アコースティック楽器の演奏音をデジタル音響に変換した後、該デジタル音響をコンピュータで分析する技術の工夫が種々試みられている。
【0006】
このような例の1つとして、「Eric D. Scheirer」の修士論文である『Extracting Expressive Performance Information from Recorded Music』においては、録音されたデジタル音響からミディ音楽を抽出するため楽譜情報を利用している。前記論文に記載のように、彼は、各音の強さ、始まりタイミング、終わりタイミングを抽出してミディ音楽に変化させる方法について研究した。しかし、前記論文に記載の実験結果を見ると、楽譜情報を用いた場合、録音されたデジタル音響から始まるタイミングは正確に抽出されるが、終わるタイミングと音の強さ情報の抽出は、やはり正確でないという問題点がある。
【0007】
なお、全世界的に少数の会社が音楽認識技術を用いて簡単なデジタル音響を分析できる初期の製品を出しており、インターネット上のalt.music.midi FAQによれば、ウェーブ(wave)形式のデジタル音響を分析してミディ形式に変換または楽譜化する製品が多数開発されている。これらのものとしては、Akoff Music Composer、Sound2MIDI、Gama、WIDI、Digital Ear、WAV2MID、Polyaxe Driver、WAV2MIDI、IntelliScore、PFS−System、Hanauta Musician、Audio to MIDI、AmazingMIDI、Capella−Audio、AutoScoreおよびごく最近に発表されたWaveGoodbyeなどが挙げられる。
【0008】
これらの幾つかは、複音の分析も可能であると広報しているが、実際に試験を行った結果、複音の分析は不可能であった。そのため、前記FAQ文書では、コンピュータでウェーブ形式の音楽をミディ形式に変更した後、再生時には元のウェーブ音楽と同様に聞こえるか否かに対して、不可であると説明している。さらに、現在としては、ウェーブ音楽をミディ音楽に変更するソフトウェアに対して全て価値がないと明示されている。
【0009】
以下、これらの製品の中でAraki Software社のAmazingMIDIを使用してウェーブ音楽がどのように分析されるかに関する実験結果について記述する。
【0010】
図1は、実験に使用した曲の楽譜の、ベートーベンのピアノスナタ第8番第2楽章の初の2小節に相当し、図2は、図1に示された楽譜を分析の便宜のため、それぞれの単音に区分して各音符に音程を表示する記号を付したものである。図3は、AmazingMIDIでウェーブ音楽をミディ音楽に変更するために使用者が設定するパラメータ入力ウィンドウであり、図4は、各種パラメータの値を最右側に設定した時に変換されたミディウィンドウであり、図5は、図2の楽譜情報を用いて元のウェーブ音楽に相当する部分を、図4に黒棒で表示したものである。図6は、各種パラメータ値を最左側に設定した時に変換されたミディウィンドウであり、図7は、図5と同様に、図6にウェーブ音楽に相当する部分を黒棒で表示したものである。
【0011】
まず、図1および図2を参照する。最初にC4、A3、A2の3つの音が示され、C4およびA2の鍵盤が押された状態で、A3の代わりにE3の鍵盤が押され、再度A3、E3の順に繰り返される。次いで、C4の音はB3の音に変わり、A2の音はD3の音に変わり、E3の音がG3の音に変わり、再度B3およびD3の鍵盤が押された状態でE3、G3、E3の順に繰り返される。従って、これらの楽譜をミディに変換する場合、図5に黒棒で示されたようなミディ情報が構成される必要があるが、実際には図4に示されたようなミディ情報が構成されるという問題点がある。
【0012】
図3に示したように、AmazingMIDIでは、使用者が各種パラメータを設定してウェーブ音楽をミディ音楽に変更しているが、これらの設定値によって構成されるミディ情報が大きな差を示すことがわかる。図3の設定値のうち、Minimum Analysisの値(最小分析値)、Minimum Relativeの値(最小相関値)、Minimum Noteの値(最小音符値)を全て最右側に設定してミディ音楽に変換した結果が、図4に、各値を全て最左側に設定してミディ音楽に変換した結果が、図6に示されている。図4と図6とを比較すると、大きな違いがあることがわかる。すなわち、図4では、周波数領域において強さの大きな周波数部分のみを認識してミディとして示しており、図6では、強さの小さな部分も認識してミディに示していることがわかる。従って、図4のミディ情報項目は基本的に図6に含まれて示されるようになる。
【0013】
図4と図5とを比較すると、図4の場合、実際に演奏された部分であるA2、E3、G3、D3が全く認識されておらず、C4、A3、B3の場合も認識された部分が実際演奏される部分と大きく相違していることがわかる。すなわち、C4の場合、認識された部分が全体音長さのうち初期25%に止めており、B3の場合、20%よりも小さく認識されていることがわかる。また、A3の場合、35%程度に止めている。これに対して、非演奏の部分が非常に多く認識されていることがわかる。E4の場合、非常に強い大きさに認識されており、A4、G4、B4、D5、F5などの音も誤って認識されている。
【0014】
図6と図7とを比較すると、図6の場合、実際に演奏された部分であるA2、E3、G3、D3、C4、A3、B3が全て認識されているが、認識された部分と実際演奏された部分とが非常に相違していることがわかる。すなわち、C4、A2の場合、鍵盤を続けて押していたので、実際に続けて音が出ているにもかかわらず、少なくとも一度音の切れた状態に認識されていることがわかる。さらに、A3、E3などの場合、実際に演奏された時点と音の長さとが相当に違って認識された。図6および図7に示されたように、黒棒で示した部分以外に多くの部分がグレー色の棒で示されていることがわかる。これらの部分は、実際に演奏されなかったにもかかわらず、誤って認識されたもので、正しく認識されたものより遥かに多く占めている。本明細書では、AmazingMIDIプログラム以外の他のプログラムを実験した結果は記載しないが、現在まで公開された全てのプログラムの音楽認識結果は、前述のようなAmazingMIDIプログラムを用いて実験を行った結果と同様であり、あまり満足でないことが確認された。
【0015】
すなわち、コンピュータ技術とデジタル信号処理技術を導入して、アコースティック楽器で演奏された音楽を分析するための技術の工夫が種々試みられているが、未だ満足な結果が得られていない実状である。
【0016】
[発明の開示]
従って、本発明では、演奏に使用された楽器に対して予め格納されている情報を用いることによって、より正確な演奏分析結果を導出することができ、その結果を定量的なデータとして抽出することができる、音楽分析方法を提供することを目的とする。
【0017】
すなわち、本発明の目的は、演奏楽器の音情報を用いてデジタル音響に含まれた構成信号と当該音情報の構成信号とを比較・分析することによって、単音は勿論、複音の分析も正確に行える音楽分析方法を提供することにある。
【0018】
また、本発明の他の目的は、演奏楽器の音情報および演奏曲の楽譜情報を用いて、上記のように正確な分析結果が得られると共に、分析にかかる時間を減らすことのできる音楽分析方法を提供することにある。
【0019】
上記の目的を達成するための本発明が提供する演奏楽器の音情報を用いた音楽分析方法は、コンピュータが、演奏楽器別の音情報を生成し、コンピュータ読取り可能な記録媒体に格納するステップ(a)と、コンピュータが、前記格納された演奏楽器別の音情報のうち実際に演奏される楽器の音情報を選択するステップ(b)と、コンピュータが、デジタル音響を入力で受けるステップ(c)と、コンピュータが、前記入力されたデジタル音響信号を単位フレーム別の周波数成分に分解するステップ(d)と、コンピュータが、前記入力されたデジタル音響信号に含まれた単音情報を導出するステップ(e)とを含み、前記ステップ(e)は、前記入力されたデジタル音響信号のフレーム別に当該フレームに含まれた最も低いピーク周波数を選択するステップ(e1)と、前記選択された演奏楽器の音情報のうちから前記選択されたピーク周波数を含む音情報を導出するステップ(e2)と、前記導出された音情報のうち当該フレームのピーク周波数成分と最も近似したピーク情報を有する音情報を単音情報として導出するステップ(e3)と、前記導出された単音情報に相当する音情報の周波数成分を当該フレームから除去するステップ(e4)と、当該フレームのピーク周波数成分が残っている場合、前記ステップ(e1〜e4)を繰り返して行うステップ(e5)とを含むことを特徴とする。
【0020】
また、上記の他の目的を達成するため、本発明が提供する演奏楽器の音情報および楽譜情報を用いた音楽分析方法は、コンピュータが、演奏楽器別の音情報を生成し、コンピュータ読取り可能な記録媒体に格納するステップ(a)と、コンピュータが、演奏される楽譜の楽譜情報を生成し、コンピュータ読取り可能な記録媒体に格納するステップ(b)と、コンピュータが、前記格納された演奏楽器別の音情報および楽譜情報のうち実際に演奏される楽器の音情報および楽譜情報を選択するステップ(c)と、コンピュータが、デジタル音響を入力で受けるステップ(d)と、コンピュータが、前記入力されたデジタル音響信号を単位フレーム別の周波数成分に分解するステップ(e)と、コンピュータが、前記入力されたデジタル音響信号に含まれた演奏誤り情報および単音情報を導出するステップ(f)とを含み、前記ステップ(f)は、前記楽譜情報を参照して当該演奏楽器の演奏進行に従うデジタル音響信号のフレーム別の演奏期待値をリアルタイムで生成し、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在するか否かをフレーム単位で確認するステップ(f1)と、前記ステップ(f1)の結果、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在しない場合、演奏誤り情報および単音情報を導出した後、該演奏誤り情報および単音情報として導出された音情報の周波数成分を当該フレームのデジタル音響信号から除去するステップ(f2)と、前記ステップ(f1)の結果、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在する場合、当該フレームのデジタル音響信号に含まれた単音情報を導出し、前記単音情報として導出された音情報の周波数成分を該単音情報が含まれたフレームのデジタル音響信号から除去するステップ(f3)と、フレーム単位のデジタル音響信号にピーク周波数成分が残っている場合、前記ステップ(f1〜f3)を繰り返して行うステップ(f4)とを含み、前記ステップ(f2)は、前記入力されたデジタル音響信号のフレーム別に当該フレームに含まれた最も低いピーク周波数を選択するステップ(f2_1)と、当該演奏楽器の音情報のうちから前記選択されたピーク周波数を含む音情報を導出するステップ(f2_2)と、前記導出された音情報のうち当該フレームのピーク周波数成分と最も近似したピーク情報を有する音情報を演奏誤り情報として導出するステップ(f2_3)と、前記演奏誤り情報が楽譜情報において次に演奏される音符に含まれる場合、前記演奏誤り情報に含まされた音を演奏期待値に追加した後、該演奏誤り情報を単音情報として導出するステップ(f2_4)と、前記演奏誤り情報および単音情報として導出された音情報の周波数成分を当該フレームから除去するステップ(f2_5)とを含み、前記ステップ(f3)は、前記フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値に含まれた音情報のうち最も低い音の情報を選択するステップ(f3_1)と、前記選択された音情報の周波数成分が当該フレームのデジタル音響信号に含まれた周波数成分に含まれる場合、該音情報を単音情報として導出した後、該音情報の周波数成分を当該フレームのデジタル音響信号から除去するステップ(f3_2)と、前記選択された音情報の周波数成分が当該フレームのデジタル音響信号に含まれていない場合、前記演奏期待値を訂正するステップ(f3_3)とを含むことを特徴とする。
【0021】
[発明を実施するための最良の形態]
以下、添付の図面を参照して本発明の音楽分析方法の詳細を説明する。
【0022】
図8は、デジタル音響を分析する方法に関する概念図である。同図に示されたように、デジタル音響を入力され演奏楽器の音情報(84)および楽譜情報(82)を用いて入力されたデジタル音響の信号を分析(80)し、その結果として演奏情報および正確度、ミディ音楽などを導出して電子楽譜を描く概念が示されている。
【0023】
ここで、デジタル音響は、PCMウェーブ、CDオーディオ、MP3ファイルなど、入力される音をデジタル変換してコンピュータ読取り可能な形態で格納された全てのものを意味し、実際に演奏されている音楽の場合は、コンピュータに連結されたマイクを介して入力された後、デジタル変換して格納しながら分析を行うこともできる。
【0024】
入力音楽の楽譜情報(82)は、例えば、音の高さ、音の長さ、速さ情報(例えば、四分音符=64、フェルマータなど)、拍子情報、音の強さ情報(例えば、forte、piano>−accent、<だんだん強く(crescendo)など)、細部演奏情報(例えば、スタッカート、スタッカティッスィモ、プラルトリラーなど)およびピアノのように両手を用いて演奏する場合、左手の演奏および右手の演奏に相当する部分を区分するための情報などを含む。また、2つ以上の楽器で演奏された場合は、各楽器に相当する楽譜の部分情報などを含む。すなわち、楽器の演奏時に、目で見て適用する楽譜上の情報は全て楽譜情報として活用できるが、作曲家や時代によって表記法が相違しているため、細部の表記法については本明細書で言及しない。
【0025】
なお、演奏楽器の音情報(84)は、図9A〜図9Eに示されたように、演奏される特定の楽器別に予め構築されているものであって、音の高さ、音の強さ、ペダル表などがあるが、これについては、図9A〜図9Eを参照して説明する部分において再度説明する。
【0026】
図8に示されたように、本発明では、入力されるデジタル音響を分析する時、音情報または音情報および楽譜情報を活用し、ピアノ演奏曲のように同時に複数の音が演奏される場合、各構成音の高さおよび強さを正確に分析することができ、各時間別に分けて分析した構成音に関する情報から、どの音がどの強さで演奏されたかに関する演奏情報を分析結果として導出することができる。
【0027】
この時、音楽分析のために演奏楽器の音情報を用いる理由は、一般に、音楽において使用する各音は、その高さに応じて固有なピッチ(Pitch)周波数およびハーモニック(Harmonic)周波数を有するが、アコースティック楽器の演奏音および人音声の分析において基本となるものが、ピッチ周波数とハーモニック周波数であるからである。
【0028】
なお、このようなピーク周波数−ピッチ周波数およびハーモニック周波数−成分は、一般に、各楽器の種類別に違って現われる。従って、このような楽器の種類別のピーク周波数成分を予め導出し、当該楽器の音情報として格納した後、入力されるデジタル音響に含まれたピーク周波数成分と、既に格納されている演奏楽器の音情報とを比較することによって、前記デジタル音響を分析することが可能となる。
【0029】
例えば、ピアノの場合、88個の鍵盤に関する音情報を予め知っていれば、該ピアノで演奏される演奏音の分析結果、同時に複数の音が演奏されたとしても、該演奏音を予め格納された88個の音情報の組合わせと比較することができるため、それぞれの個別音を正確に分析することができる。
【0030】
図9A〜図9Eは、デジタル音響を分析するために使用するピアノの音情報を示す例示図である。すなわち、韓国の会社であるYOUNG CHANGピアノ社製のピアノの88個の鍵盤に関する音情報の例を示している。この時、図9A〜図9Cは、当該ピアノの音情報を導出するための条件を示すもので、図9Aは、88個の鍵盤のそれぞれに関する音の高さ(A0、1/4、C8)を区分して示したものであり、図9Bは、音の強さ別の識別情報を示したものであり、図9Cは、ペダルの使用有無に関する識別情報を示したものである。図9Bに示されたように、各音の強さは、「−∞」〜「0」を所定の段階に分類して格納することができる。図9Cに示されたように、ペダルを使用した場合を「1」、ペダルを使用しない場合を「0」とし、3つのペダルを有するピアノにおいてペダルの使用形態に関する全ての場合の数について示した。
【0031】
また、図9Dおよび図9Eは、前記ピアノに関する音情報の実際的な格納形態を示したものであって、図9A〜図9Cに示された各音情報の条件から、音の高さが「C4」、音の強さが「−7dB」で、ペダルを全く使用しない場合の音情報を示している。特に、図9Dは、当該音情報がウェーブで格納された形態を示し、図9Eは、当該音情報がスペクトログラムで格納された形態を示している。ここで、スペクトログラムとは、時間の流れに従う各周波数成分の強さを示すもので、スペクトログラムの横軸は時間情報を示し、縦軸は周波数情報を示すことで、図9Eのようなスペクトログラムを参照すると、各時間別の周波数成分に関する強さの情報がわかるようになる。
【0032】
すなわち、当該演奏楽器の音情報を1つ以上の強さ別の音のサンプルとして格納する時、音情報として表現可能な各単音を、図9Dのようにウェーブ形態で格納した後、デジタル音響の分析時に該ウェーブから周波数成分を導出可能にすることができ、図9Eのように周波数成分別の強さをもって直接格納することもできる。
【0033】
このように演奏楽器の音情報を周波数成分別の強さで直接表現するためには、フーリエ変換およびウェーブレット変換などのような周波数分析方法を使用することができる。
【0034】
一方、前記演奏楽器が、ピアノでなくバイオリンのような弦楽器である場合は、該弦楽器の各弦別の音情報を分類して格納する。
【0035】
なお、このような各演奏楽器別の音情報は、使用者の選択によって周期的に更新して格納するが、これは、当該楽器の音情報が時間が経つにつれて、または、温度などの周辺環境によって変化するためである。
【0036】
図10〜図10Bは、本発明の一実施例に係るデジタル音響分析過程を示す図であって、以下、これらを参照して本発明の実施例をより詳しく説明する。
【0037】
まず、図10は、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響を分析する過程に関する処理フローを示す図である。同図を参照して、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響を分析する過程を説明すると、次の通りである。
【0038】
本発明の一実施例を行うためには、事前に楽器別の音情報を生成し格納する過程を経た後(図示せず)、格納された楽器別の音情報のうちから実際に演奏される楽器の音情報を選択する(s100)。この時、楽器別の音情報の格納形態例は、図9A〜図9Eの通りである。
【0039】
また、外部からデジタル音響が入力されると(s200)、該デジタル音響信号を単位フレーム別の周波数成分に分解した後(s400)、前記デジタル音響信号の周波数成分と前記選択された演奏楽器の音情報の周波数成分とを比較・分析することによって、前記デジタル音響に含まれた単音情報をフレーム別に導出する(s500)。
【0040】
このように、外部から入力されたデジタル音響の単音情報が導出されると、該単音情報を出力する(s600)。
【0041】
このような一連の過程(s200乃至s600)を、デジタル音響入力が中断されるかまたは終了命令が入力される(s300)まで繰り返して行う。
【0042】
図10Aは、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響のフレーム別の単音情報を導出する過程(s500)を示す処理フローチャートである。同図では、1つのフレームに対する情報導出過程を説明している。同図に示されたように、デジタル音響のフレーム別の単音情報を導出するため、まず、当該フレームの時間情報を導出し(s510)、該単位フレーム別の周波数成分と演奏楽器の音情報の周波数成分とを比較・分析し(s520)、各単位フレーム別に含まれた単音の音高さ別、強さ別の情報を時間情報と共に導出する。また、その導出結果を単音情報として導出する (s530)。
【0043】
また、前記過程(s530)によって導出された単音が前フレームに含まれていない新しい単音である場合(s540)、現フレームをサブフレームに区分した後(s550)、該サブフレームのうち新しい単音が含まれたサブフレームを導出し(s560)、前記サブフレームの時間情報を導出し(s570)、このとき、新しく導出された時間情報を現在導出された単音情報の時間情報に変更する(s580)。但し、このような一連の過程(s540乃至s580)は、導出された単音が低音の帯域に含まれている場合、または、時間情報の正確性が要求されない場合は、省略可能である。
【0044】
図10Bは、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響および当該演奏楽器の音情報のフレーム別の周波数情報を比較・分析する過程(s520)を示す処理フローチャートである。
【0045】
同図に示されたように、まず、前記入力されたデジタル音響信号のフレーム別に当該フレームに含まれた最も低いピーク周波数を選択する(s521)。また、当該演奏楽器の音情報のうちから前記選択されたピーク周波数を含む音情報を導出し(s522)、該音情報のうち前記過程(s521)で選択されたピーク周波数の周波数成分と最も近似したピーク情報を有する音情報を単音情報として導出する(s523)。
【0046】
このように、最も低いピーク周波数に相当する単音情報を導出し、次いで当該フレームに含まれた周波数成分のうち前記導出された単音情報に含まれる周波数成分を除去した後(s524)、当該フレームに残余のピーク周波数が存在する場合、前記過程(s521乃至s524)を繰り返して行う。
【0047】
例えば、外部から入力されたデジタル音響信号の当該フレームに、「C4、E4、G4」の3つの音が含まれた場合、前記過程(s521)によって、「C4」の基本周波数成分を、現フレームに含まれたピーク周波数成分のうち最も低いピーク周波数成分として選択する。
【0048】
そして、前記過程(s522)によって予め設定されている当該演奏楽器の音情報のうち「C4」の基本周波数成分を含む音情報を導出する。この場合、一般に、「C4」、「C3」、「G2」1/4など、多数の音情報が導出されるようになる。
【0049】
次いで、前記過程(s523)によって導出された多数個の音情報のうち前記過程(s521)で選択されたピーク周波数成分と最も近似した「C4」の音情報を当該周波数成分に関する単音情報として導出する。
【0050】
また、該単音情報(「C4」)を、前記デジタル音響信号の当該フレームに含まれた周波数成分(「C4、E4、G4」)から除去する(s524)。そうすると、当該フレームには「E4、G4」に相当する周波数成分のみが残るようになる。このようにして当該フレームにおいて周波数成分が完全に消滅するまでに前記過程(s521乃至s524)を繰り返して行うことで、当該フレームに含まれた全ての音に関する単音情報を導出することができる。
【0051】
上記の例において、前記過程(s521乃至s524)を、3回繰り返して行い、「C4、E4、G4」の音に関する単音情報を全て導出している。
【0052】
以下、〔疑似コード(pseudo−code)1〕に基づいて、このような音情報を用いたデジタル音響分析方法に関する処理過程を説明する。なお、疑似コードのうち本明細書において説明しない部分は、従来のデジタル音響分析方法を参照したものである。
〔疑似コード1〕
line 1 デジタル音響信号(das)入力;
line 2 // FFT ウィンドウのサイズ別、ウィンドウ間の間隔別(重畳許容)に
// dasを フレーム(frame) 単位で区分
line 3 frame = dasをフレーム別に区分(das, fft-size, overlap-size);
line 4 for 全てのframe
line 5 x = fft(frame); // フーリエ変換
line 6 peak = 最も低いピーク周波数(x);
line 7 timing = frameの時間情報;
line 8 while (peakが存在する間)
line 9 candidates = ピークを含む音情報(peak);
line 10 sound = 最も近似した音情報(candidates, x);
line 11 if soundが新しい音の始まりであれば
line 12 subframe = フレームをサブフレーム(subframe)別に区分
(frame, sub-size, overlap-size);
line 13 for 全てのsubframe
line 14 subx = fft(subframe);
line 15 if subxに peakがあれば
line 16 timing = subframeの時間情報;
line 17 exit-for;
line 18 end-if
line 19 end-for
line 20 end-if
line 21 result = 分析結果格納(result, timing, sound);
line 22 x = x - sound;
line 23 peak = 最も低いピーク周波数(x);
line 24 end-while
line 25 end-for
line 26 performance = 楽器別の演奏補正(result);
〔疑似コード1〕に示されたように、まず、デジタル音響信号を入力され(line 1)、フレーム別に区分(line 3)した後、各フレーム別にループ(for loop)を回りながら分析を行う(line 4〜line 25)。フーリエ変換を経て周波数成分を導出し(line 5)、最も低いピーク周波数成分を探す(line 6)。次いで(line 7)では、現フレームに相当する時間情報を(line 21)で格納するために導出する。次いで、現フレームに対してピーク周波数成分が存在する間、ループを(while loop)を回りながら分析を行う(line 8〜line 24)。(line 9)で現フレームのピーク周波数成分を有する音情報を導出し、(line 10)でこれらの中で現フレーム上のピーク周波数成分およびハーモニック周波数成分を比較して最も近似した音情報を導出するようになる。このとき、音情報は、現フレーム上のピーク周波数の強さに準じる強さに調節される。導出された音情報が新しい音の始まりであることを意味すると(line 11)、FFTウィンドウのサイズを小さくして正確な時間情報を抽出するようになる。
【0053】
この過程において、現フレームを複数個のサブフレームに分け(line 12)、各サブフレームに対してループ(for loop)を回りながら分析を行う(line 13〜line 19)。フーリエ変換を経て周波数成分を導出し(line 14)、(line 6)で導出したピーク周波数が含まれているサブフレームが見つかると(line 15)、(line 16)では、サブフレームに相当する時間情報を(line 21)で格納するために導出する。(line 7)の時間情報は、FFTウィンドウのサイズが大きなフレーム単位の時間情報であるため、時間誤差の多い情報であるが、(line 16)の時間情報は、FFTウィンドウのサイズが小さなサブフレーム単位の情報であるため、時間誤差がほとんどない情報である。(line 17)で(line 13〜line 19)のループ(for loop)を抜け出るため、(line 21)で格納される時間情報は、(line 7)で導出した時間情報の代わりに(line 16)で導出した正確な時間情報となる。
【0054】
このように(line 11)から(line 20)に至るまで新しい音が始まった場合は、単位フレームの大きさを小さくして正確な時間情報を導出するようになる。(line 21)では、導出された単音の音高さ情報および強さ情報を時間情報と共に格納し、(line 22)では(line 10)で導出された音情報を、現フレームから減じた後、再度ピーク周波数を探すようになる(line 23)。上記の過程を繰り返しながら全てのデジタル音響の分析結果は、(line 21)において結果変数(result)に格納される。
【0055】
なお、該結果変数(result)に格納された分析結果は、実際演奏情報として活用するには十分でない。ピアノの場合、鍵盤を押して音が発生した最初には、正確な周波数帯域に表現されないため、1つ以上のフレームを経た上で、次フレームにおいて正確に分析される可能性が多い。従って、このような場合、ピアノの音はごく短い時間(例えば、3〜4つのフレームに相当する時間)の間は音が変更されないという特性を用いれば、より正確な演奏情報を導出することができる。そのため、(line 26)の過程においてこのような楽器別特性を用いて分析された結果変数(result)に格納された値を、より正確な演奏情報であるパフォーマンス(performance)に補正するようになる。
【0056】
図11乃至図11Dは、本発明の他の実施例によるデジタル音響分析過程を示す図であって、これらの図を参照して本発明の実施例をより詳しく説明すると、次の通りである。
【0057】
本発明の他の実施例は、楽器別の音情報と演奏しようとする楽譜情報とを同時に用いる方法に関するものであって、音情報の構築時に各単音別に含まれた周波数成分の変化に応じてできる限り全ての情報を構築することができれば、ほぼ正確に入力されたデジタル音響信号を分析することができるが、実際状況ではこのような音情報の構築は容易でないため、これを補完するための方法に関するものである。すなわち、本発明の他の実施例は、演奏しようとする演奏曲に関する楽譜情報を導出した後、既に抽出された楽器別の音情報と前記楽譜情報によって入力される音を予想し、予想された音の情報を用いてデジタル音響を分析する方法に関するものである。
【0058】
まず、図11は、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響を分析する過程を示す処理フローチャートである。同図に示したように、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響を分析する過程を説明すると、次の通りである。
【0059】
本発明の他の実施例を行うため、演奏楽器別の音情報を生成し格納する過程と、演奏される楽譜の楽譜情報を生成し格納する過程を予め行った後(図示せず)、その格納された演奏楽器別の音情報および楽譜情報のうちから実際に演奏される楽器の音情報および楽譜情報を選択する(t100、t200)。このとき、楽器別の音情報の格納形態の例は、「図9A〜図9E」の通りである。なお、演奏される楽譜から楽譜情報を生成する方法は、本発明の範囲に属せず、現在、紙の楽譜をスキャンすると、直にミディ音楽の演奏情報に変換して格納する技術などが多数存在しているため、楽譜情報を生成し格納する方法に関する説明は省略する。
【0060】
但し、楽譜情報に含まれる情報の例としては、時間の経過に従う音の高さ、音の長さ情報、速さ情報、拍子情報、音の強さ情報、細部演奏情報(例えば、スタッカート、スタッカティッスィモ、プラルトリラーなど)や両手演奏または多数の楽器演奏に対する演奏区分情報などが挙げられる。
【0061】
上記のように、当該演奏楽器の音情報および楽譜情報を選択(t100、t200)した後、外部からデジタル音響が入力されると(t300)、該デジタル音響信号を単位フレーム別の周波数成分に分解し(t500)、前記デジタル音響信号の周波数成分と前記選択された演奏楽器別の音情報の周波数成分および楽譜情報を比較・分析し、前記デジタル音響信号に含まれた演奏誤り情報および単音情報を導出する(t600)。
【0062】
このように、外部から入力されたデジタル音響の単音情報および演奏誤り情報が導出されると、該単音情報を出力する(t700)。
【0063】
なお、前記演奏誤り情報に基づいて演奏の正確度を判別したり(t800)、該演奏誤り情報が演奏者の意図によって演奏された音(例えば、変奏音)である場合、これを既存の楽譜情報に追加する過程(t900)を選択的に行うこともできる。
【0064】
図11Aは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響のフレーム別の単音情報および演奏誤り情報を導出する過程(t600)に関する処理フローチャートである。同図では、1つのフレームに関する単音情報および演奏誤り情報の導出過程を説明している。同図に示されたように、デジタル音響のフレーム別の単音情報および演奏誤り情報を導出するため、先ず当該フレームの時間情報を導出し(t610)、該単位フレーム別の周波数成分と演奏楽器の音情報の周波数成分および楽譜情報を比較・分析し(t620)、各単位フレーム別に含まれた単音の音高さ別、強さ別の情報を時間情報と共に導出する。また、その分析結果として導出された単音情報および演奏誤り情報をフレーム別に導出する(t640)。
【0065】
なお、前記過程(t640)によって導出された単音が前フレームに含まれていない新しい単音である場合(t650)、現フレームをサブフレームに区分した後(t660)、該サブフレームのうち新しい単音が含まれたサブフレームを導出し(t670)、前記導出されたサブフレームの時間情報を導出する(t680)。また、この時に新しく導出された時間情報によって現在導出されている単音情報の時間情報を変更する(t690)。但し、このような一連の過程(t650乃至t690)は、前述の本発明の一実施例でのように、単音が低音の帯域に含まれている場合や時間情報の正確性が要求されない場合は省略可能である。
【0066】
図11Bおよび図11Cは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響および当該楽器の音情報および楽譜情報のフレーム別の周波数成分を比較・分析する過程(t620)を示す処理フローチャートである。
【0067】
同図に示されたように、先ず、楽譜情報を参照して当該演奏楽器の演奏進行に従うデジタル音響信号のフレーム別の演奏期待値をリアルタイムで生成し、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在するか否かをフレーム単位で確認する(t621)。
【0068】
また、前記確認(t621)の結果、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在しない場合、当該フレームのデジタル音響信号に含まれた周波数成分が演奏誤り情報であるか否かを確認し、演奏誤り情報および単音情報を導出した後、該演奏誤り情報および単音情報として導出された音情報の周波数成分を当該フレームのデジタル音響信号から除去する過程(t622乃至t628)を行う。
【0069】
すなわち、前記入力されたデジタル音響信号のフレーム別に当該フレームに含まれた最も低いピーク周波数を選択した後(t622)、当該演奏楽器の音情報のうちから前記選択されたピーク周波数を含む音情報を導出し(t623)、該音情報のうち前記過程(t622)で選択されたピーク周波数成分と最も近似したピーク情報を有する音情報を演奏誤り情報として導出する(t624)。また、前記演奏誤り情報が、連続する音の楽譜情報において次フレームで演奏される音符に含まれる場合(t625)、該演奏誤り情報に相応する音を演奏期待値に追加した後(t626)、該演奏誤り情報を単音情報として導出する(t627)。なお、このように前記過程(t624、t627)で演奏誤り情報または単音情報として導出された音情報の周波数成分をデジタル音響信号の当該フレームから除去する(t628)。
【0070】
また、前記確認(t621)の結果、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在する場合、前記デジタル音響信号と前記演奏期待値とを比較・分析して当該フレームのデジタル音響信号に含まれた単音情報を導出し、前記単音情報として導出された音情報の周波数成分を該単音情報が含まれたフレームのデジタル音響信号から除去する過程(t630乃至t634)を行う。
【0071】
すなわち、前記演奏期待値に含まれた音情報のうち前記デジタル音響信号の当該フレームに含まれた周波数成分と比較されていない最も低い音の音情報を選択し(t630)、前記選択された音情報の周波数成分が前記デジタル音響信号の当該フレームに含まれた周波数成分に含まれる場合(t631)、該音情報を単音情報として導出した後(t632)、該音情報の周波数成分をデジタル音響信号の当該フレームから除去する(t633)。このとき、前記過程(t630)で選択された音情報の周波数成分が前記デジタル音響信号の当該フレームに含まれた周波数成分に含まれていない場合、既に設定された演奏期待値を訂正する過程(t635)を行う。このような一連の処理過程(t630乃至t633およびt635)を、演奏期待値のうち比較されていない音が消滅するまで(t634)繰り返して行う。
【0072】
また、図11Bおよび図11Cに示された全ての処理過程(t621乃至t628およびt630乃至t635)は、フレーム単位のデジタル音響信号に含まれたピーク周波数成分が全て消滅するまで(t629)繰り返して行う。
【0073】
図11Dは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて生成された演奏期待値を訂正する過程(t635)に関する処理フローチャートである。同図に示されたように、前記選択された音情報の周波数成分が当該フレームの前フレームに所定の回数(N)以上連続して含まれておらず(t636)、該音情報の周波数成分がある時点で前記デジタル音響信号に一度以上含まれた履歴がある(t637)音情報である場合、演奏期待値から除去する(t639)。なお、前記選択された音情報の周波数成分のうちデジタル音響信号の当該フレームに所定の回数(N)以上連続して含まれておらず(t636)、当該フレームに一度も含まれていない(t637)音情報である場合は、演奏誤り情報として導出した後(t638)、演奏期待値から除去する(t639)。
【0074】
以下、〔疑似コード(pseudo−code)2〕に基づいて、音情報および楽譜情報を用いたデジタル音響分析方法に関する処理過程を説明する。
〔疑似コード2〕
line 1 楽譜情報(score)入力;
line 2 デジタル音響信号(das)入力;
line 3 frame = フレーム別に区分(das, fft-size, overlap-size);
line 4 現演奏値(current) = 前演奏値(prev) = NULL;
line 5 次演奏値(next) = 最初に演奏される単音;
line 6 for 全てのframe
line 7 x = fft(frame);
line 8 timing = frameの時間情報;
line 9 for 全ての単音(sound) in next & not in (current, prev)
line 10 if soundが frameに含まれていれば
line 11 prev = prev + current;
line 12 current = next;
line 13 next = 次に演奏される単音;
line 14 exit-for;
line 15 end-if
line 16 end-for
line 17 for 全ての単音(sound) in prev
line 18 if soundが frameに含まれていなければ
line 19 prev = prev - sound;
line 20 end-if
line 21 end-for
line 22 for 全ての単音(sound) in (current, prev)
line 23 if soundが frameに含まれていなければ
line 24 result = 演奏誤り格納(result, timing, sound);
line 25 else // soundが frameに含まれていれば
line 26 sound = 強さの調節(sound, x);
line 27 result = 分析結果格納(result, timing, sound);
line 28 x = x - sound;
line 29 end-if
line 30 end-for
line 31 peak = 最も低いピーク周波数(x);
line 32 while (peakが存在する間)
line 33 candidates = ピークを含む音情報(peak);
line 34 sound = 最も近似した音情報(candidates, x);
line 35 result = 演奏誤り情報 (result, timing, sound);
line 36 x = x - sound;
line 37 peak = 最も低いピーク周波数(x);
line 38 end-while
line 39 end-for
line 40 performance = 楽器別の演奏情報(result);
〔疑似コード2〕に示されたように、楽譜情報と音情報とを同時に使用するため、先ず、(line 1)で楽譜情報を入力される。該疑似コードは、楽譜情報(score)のうちから音符情報のみを用いて演奏される各単音の情報をデジタル音響と比較・分析する例であって、最も基本的なものと理解すれば良い。(line 1)で入力された楽譜情報は、(line 5)および(line 13)で次演奏値(next)を導出するために使用される。すなわち、フレーム別の演奏期待値の導出を行うために使用される。次いで、次のステップは、前述の音情報を用いる疑似コードにおける説明と同様に、デジタル音響信号を入力され(line 2)、フレーム別に区分する(line 3)。(line 4)で現演奏値(current)および前演奏値(prev)をナル(null)として指定するが、楽譜上でデジタル音響信号の現フレームに含まれた音に対応される音の情報が現演奏値(current)であり、デジタル音響信号の前フレームに含まれた音に対応される音の情報が前演奏値(prev)であり、デジタル音響信号の次フレームに含まれるものと予想される音の情報が次演奏値(next)である。
【0075】
次いで、全てのフレームに対してfor loopを回りながら分析を行う(line 6)。各フレーム別にフーリエ変換を経て周波数成分を導出し(line 7)、(line 9)において楽譜上の次の演奏部分に進行されたか否かを判断する。すなわち、現演奏値(current)および前演奏値(prev)に含まれておらず、次演奏値(next)にのみ含まれている新しい音がデジタル音響信号の現フレームに含まれていれば、楽譜上の次の演奏部分に進行されたものと判断する。このとき、前演奏値(prev)、現演奏値(current)、また、次演奏値(next)の値を適当に変更させる。(line 17〜line 21)では、前演奏値(prev)に含まれた音のうちデジタル音響信号の現フレームに含まれていない音(消滅された音)を探して前演奏値(prev)から除去する。この過程によって、楽譜上では既に過ぎたが、実際の演奏では音が残っている部分に対して消滅処理を行うようになる。(line 22〜line 30)では、現演奏値(current)および前演奏値(prev)に含まれた全ての音情報(sound)に対して、各音情報がデジタル音響信号の現フレームにあるかを判断し、各音情報がデジタル音響信号の現フレームに含まれていなければ、楽譜と違って演奏されたことを結果として格納し、各音情報がデジタル音響信号の現フレームに含まれていれば、現フレームに含まれた音の強さに合わせて音情報(sound)を導出した後、音の高さ情報および強さ情報を時間情報と一緒に格納する。このように、(line 9)〜(line 30)は、楽譜情報からデジタル音響信号の現フレームに含まれた音に対応する単音を現演奏値(current)と、デジタル音響信号の前フレームに含まれた音に対応される単音を前演奏値(prev)と、デジタル音響信号の次フレームに含まれるものと予想される単音を次演奏値(next)と設定し、前演奏値と現演奏値を演奏期待値にしておき、ここに含まれた音を基準にしてデジタル音響信号を分析しているため、一層正確かつ速やかに分析することが可能となる。
【0076】
さらに、楽譜情報と違って演奏される場合に備えて(line 31)のステップを追加した。楽譜情報に含まれた音を分析した後、未だピーク周波数が残っていれば、違って演奏された部分であるため、前述の音情報を用いる疑似コード1に記載のアルゴリズムを用いて各ピーク周波数に相当する単音を導出し、これを疑似コード2(line 23)でのように楽譜と違って演奏されたことを格納する。疑似コード2では、楽譜情報を用いる方法について重点を置いて説明しているので、細部的な内容は省略しているが、音情報および楽譜情報を用いる方法は、前述の音情報のみを用いる方法と同様に、正確な時間情報を導出するために単位フレームの大きさを減らしながら分析する方法で、疑似コード1の(line 11)〜疑似コード1の(line 20)に相当するステップを含むことができる。
【0077】
疑似コード2においても、結果変数(result)に格納された分析結果および演奏誤り結果は、実際演奏の情報として活用するには十分でない。疑似コード1の場合と同じ理由から、また、楽譜情報では同じ時点で複数個の音が始まるに対して実際演奏では各音の間にごく短い時間差があり得るという点を勘案し、(line 40)で楽器別の特性および演奏者の特性を勘案して分析された結果変数(result)をパフォーマンス(performance)に補正するようになる。
【0078】
以下、上記のような本発明を立証するため、デジタル音響および演奏楽器の音情報の周波数特性についてより詳しく説明する。
【0079】
図12は、図1および図2に示された楽譜の第1小節をピアノで演奏し、該音を周波数別に分析した図である。即ち、図1および図2に示されたベートーベンのピアノソナタ第8番第2楽章の第1小節のピアノ演奏曲をスペクトログラム(Spectrogram)で示したものである。ここで、使用されたピアノはYOUNG CHANGピアノ社製のグランドピアノであり、ソニ社のノート型パソコンにマイクを連結してウィンドウ補助プログラムに備えられた録音機で録音した。スペクトログラムを分析して示すプログラムは、R.S.Horneが開発して公開したフリーウェア「Spectrogram 5.1.6」バージョンを用いた。設定項目としては、Scaleを90dBとし、Time Scaleは、5msec、FFT(Fast Fourier Transformation)sizeは、8192とし、他のものには基本値を適用した。Scaleは、−90dBより小さな音は無視して表示しないという意味であり、Time Scaleは、FFTウィンドウを5msec毎に重畳させながらフーリエ変換(Fourier)を経て図示化したことを示すものである。
【0080】
図12の上部に示された線(100)は、入力されたデジタル音響信号の強さを入力された、そのまま示したものであり、その下に各周波数帯域別にデジタル音響に含まれた周波数成分が表示されている。黒色に近いほど強さの大きな周波数成分を包含している。スペクトログラムの縦線の1つは、当該地点を基準にして8192個のサンプルをフーリエ変換して各周波数の成分別に強さに従って色を示すものであり、横軸は、時間の進行を示すものであるため、個別周波数成分に対して時間の流れによる強さの変化が一目で把握できる。図12と図2とを共に参照して、図2の楽譜上に示される各音の高さに応じて相当する基本周波数とハーモニック周波数とが図12に示されていることがわかる。
【0081】
図13A乃至図13Gは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、該演奏音を周波数別に分析した図であって、図2の第1小節に含まれた各音を同じ環境下で別に録音した後、その結果をスペクトログラムで示したものである。即ち、図13Aは、C4、図13Bは、A2、図13Cは、A3、図13Dは、E3、図13Eは、B3、図13Fは、D3、図13Gは、G3に相当するピアノ音をスペクトログラムで示したものである。各図は、すべて4秒間の周波数別の強さ情報を有しており、分析時の設定項目は、図12の場合と同様にした。C4音の場合、262Hzを基本周波数として有し、そのn倍数である523Hz、785Hz、1047Hzなどをハーモニック周波数として有するが、図13Aでこれを確認することができる。即ち、262Hzと523Hzに示される周波数成分は強く(黒色に近く)示し、785Hzの場合より高い倍数の周波数帯域にいくほど概ね強さが弱くなることがわかる。図面では、C4の基本周波数およびハーモニック周波数は、いずれも「C4」と表示した。
【0082】
なお、A2音は、基本周波数として104Hzを有するが、図13Bに示されたように、A2音の基本周波数は弱く示され、A2音のハーモニック周波数が基本周波数より遥かに強く示されることがわかる。図13のみを参照して、特に、A2音の3倍数ハーモニック周波数(311Hz)帯域が最も強く示されるため、単に周波数の強さで音の高さを決定するとすれば、A2音を311Hzを基本周波数として有するE4音と誤って認識することがあり得る。
【0083】
また、図13C乃至図13Gにおいても、音の強さのみをもって音の高さを決定する場合、このような誤りを犯すことがある。
【0084】
図14A乃至図14Gは、前記楽譜の第1小節に含まれた各音に対する周波数成分が図12に示された状態を示すものである。
【0085】
図14Aは、C4音に相当する図13Aの周波数成分が図12に示された状態を表示したものである。図13Aに示された音の強さは、図12に使用された音の強さより大きいため、図12の上端部にあるC4音のハーモニック周波数は薄く示されるか、見分け難いほど小さな強さに示されている。しかし、図13Aの周波数強さを図12に示されたC4基本周波数の強さに合うように低くした上で比較すると、図12においてC4音の周波数成分が、図14Aでのように含まれていることがわかる。
【0086】
図14Bは、A2音に相当する図13Bの周波数成分が図12に示される状態を表示したものである。図13Bに示された音の強さは、図12で演奏されたA2音の強さより遥かに強いため、基本周波数の成分と上端部のハーモニック周波数成分が明確に示されるが、図12では薄く示されており、特に上端部ではハーモニック周波数がほとんど表示されていない。これもやはり図13Bの周波数の強さを図12に示されたA2の基本周波数の強さに合うように低くした上で比較すると、図12においてA2音の周波数成分が図14Bでのように含まれていることがわかる。図14Bにおいて5倍数のハーモニック周波数成分が強く示されるのは、図14AにおいてC4音の2倍数ハーモニック周波数成分と重畳されるためであり、A2音の5倍ハーモニック周波数は519Hzであり、C4音の523Hzであるため、同一の帯域に重畳されて図に表われている。続けて図14Bを分析すると、A2音の5倍数、10倍数、15倍数などに相当するハーモニック周波数帯域がC4音の2倍数、4倍数、6倍数ハーモニック周波数などと重畳され、図13Bに示される基本周波数とハーモニック周波数との間の相対的な大きさより大きく示されていることがわかる(参考として、弱い強さの音は、スペクトログラムで薄く示されるため、目で各周波数成分を明確に見分け得るようにするため、図13A〜図13Gの単音を録音する時、図12に含まれた実際音の強さより大きな音で録音した)。
【0087】
図14Cは、A3音に相当する図13Cの周波数成分が図12に示される状態を表示した図である。図13Cに示された音の強さは、図12で演奏されたA3音の強さより強いため、図13Cに表示された周波数成分が、図14Cより強く示されている。なお、上記の単音に比べて図14CではA3音の成分のみを探すのはあまり容易でない。その理由は、他の音の基本周波数およびハーモニック周波数帯域が重畳される部分が多く、他の音の演奏時にA3音が弱く立て、その内消えるためである。先ず、A3音の全ての周波数成分は、A2音において2倍数に相当するハーモニック周波数の成分がそのまま重畳されている。さらに、A3音の5倍数ハーモニック周波数は、C4音の4倍数ハーモニック周波数と重畳されるため、この部分では、音の二度演奏の間、切れる部分を見つけ難い。他の周波数成分は、共通的に中間部分において強さが弱くなるため、この部分では、A2音のハーモニック周波数成分が示されていることがわかり、この部分においてA3音は、中断されてから再度演奏されたことがわかる。
【0088】
図14Dは、E3音に相当する図13Dの周波数成分が図12に示される状態を表示した図である。図13Dに示された音の強さは、図12において演奏されたE3音の強さより強いため、図13Dに表示された周波数成分が図14Dのそれより強く示されている。E3音は、4回演奏されたが、初の二回演奏の間は、E3音の2倍数および4倍数のハーモニック周波数成分が、A2音の3倍数および6倍数のハーモニック成分と重畳するため、この部分では、二回演奏の間、続けて他の音のハーモニック周波数成分が示されていることが確認される。また、E3音の5倍数ハーモニック周波数成分は、C4音の3倍数ハーモニック周波数成分と重畳されたように示されるため、一番目の音と二番目の音との間で当該周波数成分が続けて示されていることがわかる。三番目の音と四番目の音においては、E3音の3倍数ハーモニック周波数成分がB3音の2倍数ハーモニック周波数成分と重畳するため、E3音の非演奏の間も続けて当該周波数成分が示されていることがわかる。また、E3音の5倍数ハーモニック周波数成分が、G3音の4倍数ハーモニック周波数成分と重畳するため、G3音とE3音とが交代に演奏されたにもかかわらず、G3音の4倍数ハーモニック周波数成分とE3音の5倍数ハーモニック周波数成分とはずっと連結されて示されている。
【0089】
図14Eは、B3音に相当する図13Eの周波数成分が図12に示されている状態を表示したものである。図13Eに示された音の強さは、図12で演奏されたB3音の強さより少し強いため、図13Eに表示された周波数成分が強く示されている。しかし、図14Eでは、図13Eに表示された周波数成分がほとんどそのままマッチングされていることが確認される。図13Eに示されたように、音が弱くなりながらB3音の上端部のハーモニック周波数は良く表示されない程度に弱くなることがわかり、図14Eにおいても同様に右側に進行しながら上端部のハーモニック周波数の強さが弱くなることが確認できた。
【0090】
図14Fは、D3音に相当する図13Fの周波数成分が図12に示される状態を表示した図である。図13Fに示された音の強さは、図12で演奏されたD3音の強さより強いため、図13Fに表示された周波数成分が図14Dのそれより強く示されている。しかし、図14Fにおいても図13Fに表示された周波数成分がそのままマッチングされていることが確認される。特に、図13FにおいてD3音の9倍数ハーモニック周波数の強さは、10倍数ハーモニック周波数の強さより小さく示されているが、図14FにおいてもD3音の9倍数ハーモニック周波数の強さは、非常に弱く示され、10倍数ハーモニック周波数の強さより小さく示されていることが確認される。なお、図14FにおいてD3音の5倍数および10倍数ハーモニック周波数は、図14Eにおいて表示されたB3音の3倍数および6倍数ハーモニック周波数と重畳するため、他のハーモニック周波数より強く示されている。D3音の5倍数ハーモニック周波数は、693Hzで、B3音の3倍数ハーモニック周波数は、699Hzで、隣接しているため、スペクトログラムで重畳して現われるようになる。
【0091】
図14Gは、G3音に相当する図13Gの周波数成分が図12に示される状態を表示した図である。図13Gに示された音の強さは、図12で演奏されたG3音の強さより少し強いため、図13Gに表示された周波数成分が図14Gのそれより強く示されている。図14Gでは、G3音の強さが図14CでのA3音の強さより強く演奏されたので、明確に各周波数成分を探し出すことができる。さらに、図14Cや図14Fでのように他の音の周波数成分と重畳する部分がほとんど示されていないため、個別周波数成分が目視で容易に確認可能である。但し、G3音の4倍数ハーモニック周波数帯域と図14Dに表示されたE3音の5倍数ハーモニック周波数帯域とがそれぞれ784Hz、778Hzで近似しているが、E3音とG3音の演奏時間が互いに異なっているため、図14GにおいてG3音の4倍数ハーモニック周波数成分の2つ部分の間で僅かに下方にE3音の5倍数ハーモニック周波数成分が示されていることがわかる。
【0092】
図15は、図12に表示された各周波数を、図2の楽譜に含まれた音の周波数のそれぞれと比較して示した図である。すなわち、今まで図12の周波数成分を分析した内容が一目で確認できるように、相当する各周波数成分に表示をした。前述の本発明の方法では、図12に示された周波数成分を分析するため、図13A〜図13Gに表現された各単音の周波数成分を用いた。その結果として、図15の図面が得られ、これによって入力されたデジタル音響を分析するために演奏楽器の音情報を用いる方法の概要を確認することができる。すなわち、前述の本発明の方法では、演奏楽器の音情報として各単音の実際音を入力され、各音に含まれた周波数成分を用いた。
【0093】
本明細書では、フーリエ変換のFFTを用いて周波数成分を分析したが、周波数成分の分析技術としては、その他にも、ウェーブレット(Wavelet)や他のデジタル信号処理アルゴリズムで開発した多くの技術が使用できるのは勿論である。即ち、本明細書では、説明を容易にするため、最も代表的なフーリエ変換技術を利用しているが、本発明を限定するためのものではない。
【0094】
なお、図14A乃至図14Gおよび図15に至るまで、各音の周波数成分が表現される時間情報は、実際に演奏された時間情報と違って示されていることがわかる。特に、図15において参照符号(1500、1501、1502、1503、1504、1505、1506、1507)で表示された時間が、実際演奏が始まった部分であるにもかかわらず、周波数成分は、以前の時間から表現されていることがわかる。また、各周波数成分が、音の終わり時間を超えて示されることもある。これは、時間の流れに従う周波数の分析を正確にするため、FFTウィンドウのサイズを8192にしたので発生した時間上の誤差である。この誤差の範囲は、FFTウィンドウのサイズに応じて決定され、本例で使用されたサンプリング比率は、22,050Hzであり、FFTウィンドウは、8192サンプルであるため、8,192÷22,050≒0.37秒の誤差を含んでいる。即ち、FFTウィンドウのサイズを大きくすると、単位フレームの大きさが大きくなって区分可能な周波数の間隔が狭くなるため、各音の高さによる周波数成分を正確に分析できるが、時間上の誤差を有するようになり、FFTウィンドウのサイズを小さくすると、区分可能な周波数の間隔が広くなるため、低音域において隣接した音が区分できないが、時間上の誤差は少なくなる。選択的に、サンプリング比率を高くしても前述のように時間上の誤差範囲が狭くなる。
【0095】
図16A乃至図16Dは、このようにFFTウィンドウのサイズ変化による誤差範囲の変化を説明するため、図1および図2に示された楽譜の第1小節に関する演奏音を互いに異なったFFTウィンドウのサイズで分析した結果を示す図である。
【0096】
図16Aは、FFTウィンドウのサイズを4096に設定した後、FFT変換を行った場合に関する分析結果を示し、図16Bは、FFTウィンドウのサイズを2048に設定した後、FFT変換を行った場合に関する分析結果を示し、図16Cは、FFTウィンドウのサイズを1024に設定した後、FFT変換を行った場合に関する分析結果を示し、図16Dは、FFTウィンドウのサイズを512に設定した後、FFT変換を行った場合に関する分析結果を示すものである。
【0097】
一方、図15の場合、FFTウィンドウのサイズを8192に設定した後、FFT変換を行った場合に関する分析結果を示しているため、図15乃至16A〜16Dに至るまで分析結果を比較すると、FFTウィンドウのサイズが大きくなるほど周波数帯域を細かく分けて細密に分析できるが、時間上の誤差が大きくなり、FFTウィンドウのサイズが小さくなるほど区分可能な周波数帯域が広くなるため、細密な分析が難しい反面、時間上の誤差はそれ程小さくなることがわかる。
【0098】
従って、時間上の正確度および周波数帯域区分の正確度の要求に応じてFFTウィンドウのサイズを可変的に変更しながら分析し、または、時間上の情報と周波数上の情報とを互いに異なったFFTウィンドウのサイズを用いて分析する方法などを適用すれば良い。
【0099】
図17Aおよび図17Bは、FFTウィンドウのサイズに応じてデジタル音響分析過程の時間誤差が変化する模様を示すための図である。このとき、図面上に白く表示された領域が当該音が発見されたウィンドウを示す。従って、図17Aの場合、FFTウィンドウのサイズが大きいため(8192)、当該音が発見されたウィンドウを示す領域が広く示され、図17Bの場合、FFTウィンドウのサイズが相対的に小さいため(1024)、当該音が発見されたウィンドウを示す領域が狭く示される。
【0100】
図17Aは、FFTウィンドウのサイズを「8192」に設定した場合に関するデジタル音響の分析結果を示す図であって、同図に示されたように、実際音が始まった位置は、「9780」であるが、FFT変換の結果、音の始まり位置と分析された位置は、当該音が発見されたウィンドウの中間地点である「12288」(=8192+16384)/2)となる。この場合は、12288番目のサンプルと9780番目のサンプルとの間の差である2508個のサンプルに相当する時間分だけの誤差が発生する。即ち、22.5KHzサンプリングの場合、2508*(1/22500)=およそ0.11秒の誤差が発生する。
【0101】
また、図17Bは、FFTウィンドウのサイズを「1024」に設定した場合に関するデジタル音響の分析結果を示す図であって、同図に示されたように、実際音が始まった位置は、図17Aと同様に「9780」であるが、FFT変換の結果、音の始まり位置と分析された位置は、「9728」(=9216+10240)/2)となる。この場合は、9216番目のサンプルと10239番目のサンプルとの中間値である9728番目のサンプルの時間として分析するようになるが、その誤差は、単に52個のサンプルに過ぎず、上記のように22.5KHzサンプリングの場合、上記のような計算方法によって時間としてはおよそ0.002秒の誤差が発生する。従って、図17BのようにFFTウィンドウのサイズを小さく設定した場合により正確な分析結果が得られることがわかる。
【0102】
図18は、本発明の実施例によって音情報および楽譜情報を用いて導出した単音情報を再度合成した音を周波数別に分析した結果を示す図である。すなわち、図1の楽譜から楽譜情報を導出し、図13A乃至図13Gに関する部分で説明した音情報を適用した。
【0103】
すなわち、図1から導出された楽譜情報から初の0.5秒間、C4、A3、そしてA2音が演奏されることを導出し、図13A乃至図13Cの情報から、当該音の音情報を導出した後、該情報を用いて外部から入力されたデジタル音響を分析した後、その分析結果を導出した図である。このとき、図12の初の0.5秒間に相当する部分と図14Dの前部とを比較すると、ほとんど一致していることが確認された。従って、図18の初の0.5秒間に相当する部分は、前述の〔疑似コード2〕のうちで結果変数(result)またはパフォーマンス(performance)に相当する部分であって、図12の初の0.5秒部分と一致する。
【0104】
以上、本発明について好適な実施例を中心に説明したが、本発明の属する技術分野で通常の知識を有する者であれば、本発明の本質的な特性から逸脱することなく変更された形態に本発明を実施することができる。したがって、本明細書に開示の実施例は、本発明を限定するものではなく、本発明を説明するためのものと解釈すべきである。すなわち、本発明の範囲は、添付の請求の範囲によってのみ制限される。
【0105】
[産業上の利用可能性]
本発明によれば、デジタル音響分析において音情報または音情報および楽譜情報を用いることによって、入力されるデジタル音響を速やかに分析することができ、その正確性も向上する。また、従来の方法では、ピアノ演奏曲など複音で構成された音楽がほとんど分析できなかったが、本発明では、音情報または音情報および楽譜情報を用いることによって、デジタル音響に含まれた単音演奏部分は勿論、複音演奏部分までも速やかにかつ正確に分析することができる効果を奏する。
【0106】
よって、このようなデジタル音響の分析結果を電子楽譜に直接適用することができ、また、正確な分析結果を用いて演奏情報を定量的に導出することができる。従って、このような分析結果は、その利用範囲が広く、子供向けの音楽教育から専門家の演奏レッスンに至るまで、幅広く適用することができる。
【0107】
即ち、外部から入力されるデジタル音響をリアルタイムで分析することのできる本発明の技術を応用し、現在演奏されている演奏音に対する電子楽譜上の位置をリアルタイムで把握し、次の演奏位置を電子楽譜上に自動に表示できるようにすることで、演奏者が手で楽譜をめくる必要がないため、演奏に専念することができる効果が得られる。
【0108】
また、分析結果である演奏情報を、予め格納された楽譜情報と比較して演奏正確度を導出することによって、演奏者に、違った演奏部分を指摘して知らせるか、前記演奏正確度をもって当該演奏者の演奏を評価することのできる資料として活用することもできる。
【図面の簡単な説明】
【図1】 図1は、ベートーベンのピアノソナタ第8番第2楽章の初めの2小節に相当する楽譜を示す図である。
【図2】 図2は、図1に示された楽譜の複音を単音に区分して示した楽譜図である。
【図3】 図3は、AmazingMIDIプログラムのパラメータ設定ウィンドウを示す図である。
【図4】 図4は、AmazingMIDIプログラムにおいて図1に示された楽譜の実際演奏音をミディデータに変換した結果を示す図である。
【図5】 図5は、図4の中、実際演奏音に相当する部分を黒棒で表示して組み合わせた図である。
【図6】 図6は、AmazingMIDIプログラムにおいて図1に示された楽譜の実際演奏音をミディデータに変換した、他の結果を示す図である。
【図7】 図7は、図6の中、実際演奏音に相当する部分を黒棒で表示して組み合わせた図である。
【図8】 図8は、デジタル音響を分析する方法に関する概念図である。
【図9A】 図9Aは、デジタル音響を分析するために使用するピアノの音情報に関する例示図である。
【図9B】 図9Bは、デジタル音響を分析するために使用するピアノの音情報に関する例示図である。
【図9C】 図9Cは、デジタル音響を分析するために使用するピアノの音情報に関する例示図である。
【図9D】 図9Dは、デジタル音響を分析するために使用するピアノの音情報に関する例示図である。
【図9E】 図9Eは、デジタル音響を分析するために使用するピアノの音情報に関する例示図である。
【図10】 図10は、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響を分析する過程を示す処理フローチャートである。
【図10A】 図10Aは、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響のフレーム別の単音情報を導出する過程を示す処理フローチャートである。
【図10B】 図10Bは、本発明の一実施例によって楽器別の音情報に基づいて外部から入力されるデジタル音響および当該楽器の音情報のフレーム別の周波数成分を比較・分析する過程を示す処理フローチャートである。
【図11】 図11は、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響を分析する過程を示す処理フローチャートである。
【図11A】 図11Aは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響のフレーム別の単音情報および演奏誤り情報を導出する過程を示す処理フローチャートである。
【図11B】 図11Bは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響および当該楽器の音情報および楽譜情報のフレーム別の周波数成分を比較・分析する過程を示す処理フローチャートである。
【図11C】 図11Cは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて外部から入力されるデジタル音響および当該楽器の音情報および楽譜情報のフレーム別の周波数成分を比較・分析する過程を示す処理フローチャートである。
【図11D】 図11Dは、本発明の他の実施例によって楽器別の音情報および楽譜情報に基づいて生成された演奏期待値を訂正する過程を示す処理フローチャートである。
【図12】 図12は、図1および図2に示された楽譜の第1小節をピアノで演奏し、その音を周波数別に分析した図である。
【図13A】 図13Aは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図13B】 図13Bは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図13C】 図13Cは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図13D】 図13Dは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図13E】 図13Eは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図13F】 図13Fは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図13G】 図13Gは、前記楽譜の第1小節に含まれた各音をピアノで演奏し、その音を周波数別に分析した図である。
【図14A】 図14Aは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図14B】 図14Bは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図14C】 図14Cは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図14D】 図14Dは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図14E】 図14Eは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図14F】 図14Fは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図14G】 図14Gは、前記楽譜の第1小節に含まれた各音に関する周波数成分が図12に示された状態を示す図である。
【図15】 図15は、図12において表示される各周波数を、図2の楽譜に含まれた音の周波数のそれぞれと比較して示す図である。
【図16A】 図16Aは、図1および図2に示された楽譜の第1小節の演奏音をFFT変換する時、設定されるウィンドウのサイズ別の周波数分析結果を示す図である。
【図16B】 図16Bは、図1および図2に示された楽譜の第1小節の演奏音をFFT変換する時、設定されるウィンドウのサイズ別の周波数分析結果を示す図である。
【図16C】 図16Cは、図1および図2に示された楽譜の第1小節の演奏音をFFT変換する時、設定されるウィンドウのサイズ別の周波数分析結果を示す図である。
【図16D】 図16Dは、図1および図2に示された楽譜の第1小節の演奏音をFFT変換する時、設定されるウィンドウのサイズ別の周波数分析結果を示す図である。
【図17A】 図17Aは、FFTウィンドウのサイズに応じてデジタル音響分析過程の時間誤差が相違していることを示す図である。
【図17B】 図17Bは、FFTウィンドウのサイズに応じてデジタル音響分析過程の時間誤差が相違していることを示す図である。
【図18】 図18は、本発明の実施例によって音情報および楽譜情報に基づいて導出した単音情報を再度合成した音を周波数別に分析した結果を示す図である。

Claims (25)

  1. デジタル音響を分析するため、演奏楽器の音情報を利用する方法であって、
    (a)コンピュータが、演奏楽器別の音情報を生成し、コンピュータ読取り可能な記録媒体に格納するステップと、
    (b)コンピュータが、前記格納された演奏楽器別の音情報のうち実際に演奏される楽器の音情報を選択するステップと、
    (c)コンピュータが、デジタル音響信号を入力されるステップと、
    (d)コンピュータが、前記入力されたデジタル音響信号を単位フレーム別の周波数成分に分解するステップと、
    (e)コンピュータが、前記入力されたデジタル音響信号に含まれた単音情報を導出するステップと含み、
    前記ステップ(e)は、
    前記入力されたデジタル音響信号のフレーム別に当該フレームに含まれた最も低いピーク周波数を選択するステップ(e1)と、
    前記選択された演奏楽器の音情報のうちから前記選択されたピーク周波数を含む音情報を導出するステップ(e2)と、
    前記導出された音情報のうち当該フレームのピーク周波数成分と最も近似したピーク情報を有する音情報を単音情報として導出するステップ(e3)と、
    前記導出された単音情報に相当する音情報の周波数成分を当該フレームから除去するステップ(e4)と、
    当該フレームのピーク周波数成分が残っている場合、前記ステップ(e1〜e4)を繰り返して行うステップ(e5)とを含むことを特徴とするデジタル音響分析方法。
  2. 請求項1において、前記ステップ(e)は、
    前記区分された単位フレーム別の時間情報を導出した後、該単位フレーム別の周波数成分と演奏楽器の音情報の周波数成分とを比較・分析し、各単位フレーム別に含まれた単音の音高さ別および強さ別の情報を時間情報と共に導出することを特徴とするデジタル音響分析方法。
  3. 請求項2において、前記ステップ(e)は、
    前記導出された単音情報が、この単音成分を含む現フレームの前フレームに含まれていない新しい単音である場合、現フレームを前フレームより大きさが小さなサブフレームに分け、新しい音の含まれたサブフレームを探して当該サブフレームの時間情報を前記導出された単音の音高さ別および強さ別の情報と共に導出することを特徴とするデジタル音響分析方法。
  4. 請求項1において、前記ステップ(a)は、
    前記演奏楽器の音情報を周期的に更新することを特徴とするデジタル音響分析方法。
  5. 請求項1において、前記ステップ(a)は、
    前記演奏楽器の音情報を1つ以上の強さ別の音のサンプルとして前記記録媒体に格納する時、音情報として表現可能な各単音をウェーブ形式のデータとして前記記録媒体に格納し、該ウェーブ形式のデータから演奏楽器別の音情報の周波数成分を導出するようにすることを特徴とするデジタル音響分析方法。
  6. 請求項1において、前記ステップ(a)は、
    前記演奏楽器の音情報を1つ以上の強さ別の音のサンプルとして前記記録媒体に格納する時、音情報として表現可能な各単音を周波数成分別の強さを示す形態で前記記録媒体に格納することを特徴とするデジタル音響分析方法。
  7. 請求項6において、前記ステップ(a)は、
    前記演奏楽器の音情報をフーリエ変換して前記記録媒体に格納することを特徴とするデジタル音響分析方法。
  8. 請求項6において、前記ステップ(a)は、
    前記演奏楽器の音情報をウェーブレット変換して前記記録媒体に格納することを特徴とするデジタル音響分析方法。
  9. 請求項5または請求項6において、前記ステップ(a)は、
    鍵盤楽器の音情報を前記記録媒体に格納する時、ペダルの使用有無について分類格納することを特徴とするデジタル音響分析方法。
  10. 請求項5または請求項6において、前記ステップ(a)は、
    弦楽器の音情報を前記記録媒体に格納する時、該音情報を各弦別に分類格納することを特徴とするデジタル音響分析方法。
  11. デジタル音響を分析するため、演奏楽器の音情報および楽譜情報を利用する方法であって、
    (a)コンピュータが、演奏楽器別の音情報を生成し、コンピュータ読取り可能な記録媒体に格納するステップと、
    (b)コンピュータが、演奏される楽譜の楽譜情報を生成し、コンピュータ読取り可能な記録媒体に格納するステップと、
    (c)コンピュータが、前記格納された演奏楽器別の音情報および楽譜情報のうち実際に演奏される楽器の音情報および楽譜情報を選択するステップと、
    (d)コンピュータが、デジタル音響を入力されるステップと、
    (e)コンピュータが、前記入力されたデジタル音響信号を単位フレーム別の周波数成分に分解するステップと、
    (f)コンピュータが、前記入力されたデジタル音響信号に含まれた演奏誤り情報および単音情報を導出するステップとを含み、
    前記ステップ(f)は、
    前記楽譜情報を参照して当該演奏楽器の演奏進行に従うデジタル音響信号のフレーム別の演奏期待値をリアルタイムで生成し、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在するか否かをフレーム単位で確認するステップ(f1)と、
    前記ステップ(f1)の結果、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在しない場合、演奏誤り情報および単音情報を導出した後、該演奏誤り情報および単音情報として導出された音情報の周波数成分を当該フレームのデジタル音響信号から除去するステップ(f2)と、
    前記ステップ(f1)の結果、フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値が存在する場合、当該フレームのデジタル音響信号に含まれた単音情報を導出し、前記単音情報として導出された音情報の周波数成分を該単音情報が含まれたフレームのデジタル音響信号から除去するステップ(f3)と、
    フレーム単位のデジタル音響信号にピーク周波数成分が残っている場合、前記ステップ(f1〜f3)を繰り返して行うステップ(f4)とを含み、
    前記ステップ(f2)は、
    前記入力されたデジタル音響信号のフレーム別に当該フレームに含まれた最も低いピーク周波数を選択するステップ(f2_1)と、
    当該演奏楽器の音情報のうちから前記選択されたピーク周波数を含む音情報を導出するステップ(f2_2)と、
    前記導出された音情報のうち当該フレームのピーク周波数成分と最も近似したピーク情報を有する音情報を演奏誤り情報として導出するステップ(f2_3)と、
    前記演奏誤り情報が楽譜情報において次に演奏される音符に含まれる場合、前記演奏誤り情報に含まされた音を演奏期待値に追加した後、該演奏誤り情報を単音情報として導出するステップ(f2_4)と、
    前記演奏誤り情報および単音情報として導出された音情報の周波数成分を当該フレームから除去するステップ(f2_5)とを含み、
    前記ステップ(f3)は、
    前記フレーム別の演奏期待値のうち当該フレームのデジタル音響信号と比較されていない演奏期待値に含まれた音情報のうち最も低い音の情報を選択するステップ(f3_1)と、
    前記選択された音情報の周波数成分が当該フレームのデジタル音響信号に含まれた周波数成分に含まれる場合、該音情報を単音情報として導出した後、該音情報の周波数成分を当該フレームのデジタル音響信号から除去するステップ(f3_2)と、
    前記選択された音情報の周波数成分が当該フレームのデジタル音響信号に含まれていない場合、前記演奏期待値を訂正するステップ(f3_3)とを含むことを特徴とするデジタル音響分析方法。
  12. 請求項11において、前記ステップ(f)は、
    前記単位フレーム別の時間情報を導出した後、当該単位フレーム別の周波数成分と演奏楽器の音情報の周波数成分および楽譜情報を比較・分析し、各単位フレーム別に含まれた単音の音高さ別および強さ別の情報を時間情報と共に導出することを特徴とするデジタル音響分析方法。
  13. 請求項11または請求項12において、前記ステップ(f)は、
    前記導出された単音情報がこの単音成分を含む現フレームの前フレームに含まれていない新しい単音である場合、現フレームを前フレームより大きさが小さなサブフレームに分け、新しい音の含まれたサブフレームを探して当該サブフレームの時間情報を、前記導出された単音の音高さ別および強さ別の情報と共に導出するステップをさらに含むことを特徴とするデジタル音響分析方法。
  14. 請求項11において、前記ステップ(a)は、
    前記演奏楽器の音情報を周期的に更新することを特徴とするデジタル音響分析方法。
  15. 請求項11において、前記ステップ(a)は、
    前記演奏楽器の音情報を1つ以上の強さ別の音のサンプルとして前記記録媒体に格納する時、音情報として表現可能な各単音をウェーブ形式のデータとして格納することを特徴とするデジタル音響分析方法。
  16. 請求項11において、前記ステップ(a)は、
    前記演奏楽器の音情報を1つ以上の強さ別の音のサンプルとして前記記録媒体に格納する時、音情報として表現可能な各単音を周波数成分別の強さを示す形態で前記記録媒体に格納することを特徴とするデジタル音響分析方法。
  17. 請求項16において、前記ステップ(a)は、
    前記演奏楽器の音情報をフーリエ変換して前記記録媒体に格納することを特徴とするデジタル音響分析方法。
  18. 請求項16において、前記ステップ(a)は、
    前記演奏楽器の音情報をウェーブレット変換して前記記録媒体に格納することを特徴とするデジタル音響分析方法。
  19. 請求項15または請求項16において、前記ステップ(a)は、
    鍵盤楽器の音情報を前記記録媒体に格納する時、ペダルの使用有無について分類格納することを特徴とするデジタル音響分析方法。
  20. 請求項15または請求項16において、前記ステップ(a)は、
    弦楽器の音情報を前記記録媒体に格納する時、その音情報を各弦別に分類格納することを特徴とするデジタル音響分析方法。
  21. 請求項11において、前記ステップ(f2_3)は、
    当該演奏音の高さおよび強さを演奏誤り情報として導出することを特徴とするデジタル音響分析方法。
  22. 請求項11において、前記ステップ(f3_3)は、
    前記選択された音情報の周波数成分がある時点に前記デジタル音響信号に含まれた履歴があるが、当該フレームの前フレームに所定の回数以上連続して含まれない場合、該音情報を演奏期待値から除去することを特徴とするデジタル音響分析方法。
  23. 請求項11において、
    コンピュータが、前記ステップ(f)で導出された前記演奏誤り情報に基づいて演奏正確度を判別するステップ(h)をさらに含むことを特徴とするデジタル音響分析方法。
  24. 請求項11において、
    コンピュータが、前記ステップ(f)で導出された前記演奏誤り情報に基づいて前記演奏誤り情報に相当するデジタル音響信号の単音情報を前記ステップ(b)で生成された楽譜情報に追加するステップ(i)をさらに含むことを特徴とするデジタル音響分析方法。
  25. 請求項11において、前記ステップ(b)は、
    演奏される楽譜に基づいて、
    時間の流れに従う音の高さ、音の長さ情報、速さ情報、拍子情報、音の強さ情報と、
    スタッカート、スタッカティッスィモ、プラルトリラーなどを含む細部演奏情報と、
    両手演奏および多数楽器の演奏に係る演奏区分情報のうち1つ以上の情報と、を含む楽譜情報を生成し格納することを特徴とするデジタル音響分析方法。
JP2002548707A 2000-12-05 2001-12-03 演奏楽器の音情報を用いた音響分析方法 Expired - Fee Related JP3907587B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20000073452 2000-12-05
PCT/KR2001/002081 WO2002047064A1 (en) 2000-12-05 2001-12-03 Method for analyzing music using sounds of instruments

Publications (2)

Publication Number Publication Date
JP2004515808A JP2004515808A (ja) 2004-05-27
JP3907587B2 true JP3907587B2 (ja) 2007-04-18

Family

ID=19702696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002548707A Expired - Fee Related JP3907587B2 (ja) 2000-12-05 2001-12-03 演奏楽器の音情報を用いた音響分析方法

Country Status (7)

Country Link
US (1) US6856923B2 (ja)
EP (1) EP1340219A4 (ja)
JP (1) JP3907587B2 (ja)
KR (1) KR100455752B1 (ja)
CN (1) CN100354924C (ja)
AU (1) AU2002221181A1 (ja)
WO (1) WO2002047064A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100455751B1 (ko) * 2001-12-18 2004-11-06 어뮤즈텍(주) 연주악기의 소리정보를 이용한 음악분석장치
US20050190199A1 (en) * 2001-12-21 2005-09-01 Hartwell Brown Apparatus and method for identifying and simultaneously displaying images of musical notes in music and producing the music
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
WO2005022509A1 (en) * 2003-09-03 2005-03-10 Koninklijke Philips Electronics N.V. Device for displaying sheet music
US20050229769A1 (en) * 2004-04-05 2005-10-20 Nathaniel Resnikoff System and method for assigning visual markers to the output of a filter bank
DE102004049477A1 (de) * 2004-10-11 2006-04-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur harmonischen Aufbereitung einer Melodielinie
DE102004049457B3 (de) * 2004-10-11 2006-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Extraktion einer einem Audiosignal zu Grunde liegenden Melodie
US7598447B2 (en) * 2004-10-29 2009-10-06 Zenph Studios, Inc. Methods, systems and computer program products for detecting musical notes in an audio signal
KR100671505B1 (ko) * 2005-04-21 2007-02-28 인하대학교 산학협력단 베이즈법을 적용한 악기신호의 인식 및 장르분류 방법
KR100735444B1 (ko) * 2005-07-18 2007-07-04 삼성전자주식회사 오디오데이터 및 악보이미지 추출방법
KR100722559B1 (ko) * 2005-07-28 2007-05-29 (주) 정훈데이타 음향 신호 분석 장치 및 방법
DE102006014507B4 (de) * 2006-03-19 2009-05-07 Technische Universität Dresden Verfahren und Vorrichtung zur Klassifikation und Beurteilung von Musikinstrumenten gleicher Instrumentengruppen
US7459624B2 (en) 2006-03-29 2008-12-02 Harmonix Music Systems, Inc. Game controller simulating a musical instrument
KR100900438B1 (ko) * 2006-04-25 2009-06-01 삼성전자주식회사 음성 패킷 복구 장치 및 방법
US7645929B2 (en) * 2006-09-11 2010-01-12 Hewlett-Packard Development Company, L.P. Computational music-tempo estimation
JP4322283B2 (ja) * 2007-02-26 2009-08-26 独立行政法人産業技術総合研究所 演奏判定装置およびプログラム
EP2148321B1 (en) * 2007-04-13 2015-03-25 National Institute of Advanced Industrial Science and Technology Sound source separation system, sound source separation method, and computer program for sound source separation
US7625284B2 (en) * 2007-06-14 2009-12-01 Harmonix Music Systems, Inc. Systems and methods for indicating input actions in a rhythm-action game
US8678896B2 (en) * 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US8026435B2 (en) * 2009-05-29 2011-09-27 Harmonix Music Systems, Inc. Selectively displaying song lyrics
US8017854B2 (en) 2009-05-29 2011-09-13 Harmonix Music Systems, Inc. Dynamic musical part determination
US7935880B2 (en) 2009-05-29 2011-05-03 Harmonix Music Systems, Inc. Dynamically displaying a pitch range
US7923620B2 (en) * 2009-05-29 2011-04-12 Harmonix Music Systems, Inc. Practice mode for multiple musical parts
US8080722B2 (en) * 2009-05-29 2011-12-20 Harmonix Music Systems, Inc. Preventing an unintentional deploy of a bonus in a video game
US8076564B2 (en) * 2009-05-29 2011-12-13 Harmonix Music Systems, Inc. Scoring a musical performance after a period of ambiguity
US20100304811A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Scoring a Musical Performance Involving Multiple Parts
US20100304810A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Displaying A Harmonically Relevant Pitch Guide
US8465366B2 (en) * 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8449360B2 (en) * 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US7982114B2 (en) * 2009-05-29 2011-07-19 Harmonix Music Systems, Inc. Displaying an input at multiple octaves
WO2010142297A2 (en) * 2009-06-12 2010-12-16 Jam Origin Aps Generative audio matching game system
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US8874243B2 (en) 2010-03-16 2014-10-28 Harmonix Music Systems, Inc. Simulating musical instruments
EP2579955B1 (en) 2010-06-11 2020-07-08 Harmonix Music Systems, Inc. Dance game and tutorial
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
JP5834727B2 (ja) * 2011-09-30 2015-12-24 カシオ計算機株式会社 演奏評価装置、プログラム及び演奏評価方法
JP6155950B2 (ja) * 2013-08-12 2017-07-05 カシオ計算機株式会社 サンプリング装置、サンプリング方法及びプログラム
CN103413559A (zh) * 2013-08-13 2013-11-27 上海玄武信息科技有限公司 音频识别及纠正系统
KR102117685B1 (ko) * 2013-10-28 2020-06-01 에스케이플래닛 주식회사 현악기 연주 가이드를 위한 장치 및 방법, 그리고 컴퓨터 프로그램이 기록된 기록매체
CN105760386B (zh) * 2014-12-16 2019-10-25 广州爱九游信息技术有限公司 电子图片曲谱滚动方法、装置及系统
CN105719661B (zh) * 2016-01-29 2019-06-11 西安交通大学 一种弦乐器演奏音质自动判别方法
CN105469669A (zh) * 2016-02-02 2016-04-06 广州艾美网络科技有限公司 唱歌辅助教学设备
US11282407B2 (en) 2017-06-12 2022-03-22 Harmony Helper, LLC Teaching vocal harmonies
US10249209B2 (en) 2017-06-12 2019-04-02 Harmony Helper, LLC Real-time pitch detection for creating, practicing and sharing of musical harmonies
CN108038146B (zh) * 2017-11-29 2021-08-17 无锡同芯微纳科技有限公司 音乐演奏人工智能分析方法、系统及设备
JP6610714B1 (ja) * 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
US11288975B2 (en) 2018-09-04 2022-03-29 Aleatoric Technologies LLC Artificially intelligent music instruction methods and systems

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4479416A (en) * 1983-08-25 1984-10-30 Clague Kevin L Apparatus and method for transcribing music
JPS616689A (ja) * 1984-06-20 1986-01-13 松下電器産業株式会社 電子楽器
GB2262992B (en) * 1990-06-21 1995-07-05 Reynolds Software Inc Method and apparatus for wave analysis and event recognition
JP2522928Y2 (ja) * 1990-08-30 1997-01-22 カシオ計算機株式会社 電子楽器
JP3216143B2 (ja) * 1990-12-31 2001-10-09 カシオ計算機株式会社 楽譜解釈装置
JPH05181464A (ja) * 1991-12-27 1993-07-23 Sony Corp 楽音認識装置
JP3049989B2 (ja) * 1993-04-09 2000-06-05 ヤマハ株式会社 演奏情報分析装置および和音検出装置
JP2636685B2 (ja) * 1993-07-22 1997-07-30 日本電気株式会社 音楽イベントインデックス作成装置
US5567901A (en) * 1995-01-18 1996-10-22 Ivl Technologies Ltd. Method and apparatus for changing the timbre and/or pitch of audio signals
KR970007062U (ko) * 1995-07-13 1997-02-21 연주음 분리재생장치
JP3424787B2 (ja) * 1996-03-12 2003-07-07 ヤマハ株式会社 演奏情報検出装置
CN1068948C (zh) * 1997-07-11 2001-07-25 财团法人工业技术研究院 交互性的音乐伴奏的方法和设备
JP3437421B2 (ja) * 1997-09-30 2003-08-18 シャープ株式会社 楽音符号化装置及び楽音符号化方法並びに楽音符号化プログラムを記録した記録媒体
US6140568A (en) * 1997-11-06 2000-10-31 Innovative Music Systems, Inc. System and method for automatically detecting a set of fundamental frequencies simultaneously present in an audio signal
KR19990050494A (ko) * 1997-12-17 1999-07-05 전주범 악기별 스펙트럼 출력장치
KR100317478B1 (ko) * 1999-08-21 2001-12-22 주천우 실시간 음악 교습 시스템 및 그 시스템에서의 음악 정보 처리방법
JP2001067068A (ja) * 1999-08-25 2001-03-16 Victor Co Of Japan Ltd 音楽パートの識別方法
KR100320036B1 (ko) 1999-09-16 2002-01-09 서정렬 디지털 음악 파일을 악기별로 연주가 가능한 연주용파일로 변환하는 방법 및 그를 이용한 음악 연주시스템
JP4302837B2 (ja) * 1999-10-21 2009-07-29 ヤマハ株式会社 音声信号処理装置および音声信号処理方法
KR100322875B1 (ko) * 2000-02-25 2002-02-08 유영재 자율학습이 가능한 음악교습시스템
KR20010091798A (ko) * 2000-03-18 2001-10-23 김재수 기악 연주 교육장치 및 방법
JP3832266B2 (ja) * 2001-03-22 2006-10-11 ヤマハ株式会社 演奏データ作成方法および演奏データ作成装置
JP3801029B2 (ja) * 2001-11-28 2006-07-26 ヤマハ株式会社 演奏情報生成方法、演奏情報生成装置およびプログラム

Also Published As

Publication number Publication date
CN100354924C (zh) 2007-12-12
AU2002221181A1 (en) 2002-06-18
US6856923B2 (en) 2005-02-15
CN1479916A (zh) 2004-03-03
KR100455752B1 (ko) 2004-11-06
KR20020044081A (ko) 2002-06-14
US20040044487A1 (en) 2004-03-04
EP1340219A4 (en) 2005-04-13
WO2002047064A1 (en) 2002-06-13
EP1340219A1 (en) 2003-09-03
JP2004515808A (ja) 2004-05-27

Similar Documents

Publication Publication Date Title
JP3907587B2 (ja) 演奏楽器の音情報を用いた音響分析方法
Benetos et al. Automatic music transcription: An overview
Ewert et al. Score-informed source separation for musical audio recordings: An overview
KR100455751B1 (ko) 연주악기의 소리정보를 이용한 음악분석장치
Sethares Tuning, timbre, spectrum, scale
Dittmar et al. Music information retrieval meets music education
Muller et al. Signal processing for music analysis
JP2010521021A (ja) 楽曲ベースの検索エンジン
Klapuri Introduction to music transcription
Lerch Software-based extraction of objective parameters from music performances
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
Hinrichs et al. Convolutional neural networks for the classification of guitar effects and extraction of the parameter settings of single and multi-guitar effects from instrument mixes
Kitahara et al. Instrogram: A new musical instrument recognition technique without using onset detection nor f0 estimation
Dittmar et al. A toolbox for automatic transcription of polyphonic music
JP2000293188A (ja) 和音リアルタイム認識方法及び記憶媒体
Ballard Jr Extended Harmonic Techniques: Acoustic Principles for Composition and Musicianship
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
JPH01288900A (ja) 歌声伴奏装置
Nizami et al. A DT-Neural Parametric Violin Synthesizer
JP6582517B2 (ja) 制御装置およびプログラム
JP5569307B2 (ja) プログラム、及び編集装置
Cano et al. Music technology and education
JP4624879B2 (ja) 楽音情報発生プログラムおよび楽音情報発生装置
Müller et al. Music signal processing
Chivapreecha et al. Musical Key Classification Using Convolutional Neural Network Based on Extended Constant-Q Chromagram

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060802

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061108

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees