JP2002082668A - 音符ベース・コードの生成 - Google Patents
音符ベース・コードの生成Info
- Publication number
- JP2002082668A JP2002082668A JP2001200387A JP2001200387A JP2002082668A JP 2002082668 A JP2002082668 A JP 2002082668A JP 2001200387 A JP2001200387 A JP 2001200387A JP 2001200387 A JP2001200387 A JP 2001200387A JP 2002082668 A JP2002082668 A JP 2002082668A
- Authority
- JP
- Japan
- Prior art keywords
- note
- fundamental frequency
- sound
- event
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H3/00—Instruments in which the tones are generated by electromechanical means
- G10H3/12—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
- G10H3/125—Extracting or recognising the pitch or fundamental frequency of the picked up signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/145—Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/056—MIDI or other note-oriented file format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/135—Autocorrelation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
(57)【要約】 (修正有)
【課題】 音楽情報を表わす音符ベース・コード生成方
法と音楽表現の伴奏を生成する方法を提供する。 【解決手段】 音符ベース・コードを提供するステップ
と、音符ベース・コードを作曲方法のための入力として
使用することにより新旋律ラインに対応するコード・シ
ーケンスを生成するステップ13と、新旋律ラインに対
応するコード・シーケンスに基づいて伴奏を生成するス
テップ14、15とよりなる音楽表現の伴奏を生成する
方法。音符ベース・コードを提供するステップは、音声
信号の形の音楽情報を受け取るステップ11と、音声信
号に音声−音符変換をかけて音楽情報を表わす音符ベー
ス・コードを生成するステップ12とよりなり、音声−
音符変換は、基本周波数のシーケンスを得るために音声
信号の基本周波数を推定するステップと、音符ベース・
コードを得るために基本周波数のシーケンスに基づいて
音事象を検出するステップとよりなる。
法と音楽表現の伴奏を生成する方法を提供する。 【解決手段】 音符ベース・コードを提供するステップ
と、音符ベース・コードを作曲方法のための入力として
使用することにより新旋律ラインに対応するコード・シ
ーケンスを生成するステップ13と、新旋律ラインに対
応するコード・シーケンスに基づいて伴奏を生成するス
テップ14、15とよりなる音楽表現の伴奏を生成する
方法。音符ベース・コードを提供するステップは、音声
信号の形の音楽情報を受け取るステップ11と、音声信
号に音声−音符変換をかけて音楽情報を表わす音符ベー
ス・コードを生成するステップ12とよりなり、音声−
音符変換は、基本周波数のシーケンスを得るために音声
信号の基本周波数を推定するステップと、音符ベース・
コードを得るために基本周波数のシーケンスに基づいて
音事象を検出するステップとよりなる。
Description
【0001】
【発明の属する技術分野】本発明は、音楽情報を表わす
音符ベース・コードを生成する方法に関するものであ
る。さらに、本発明は、音楽表現の伴奏を生成する方法
に関する。
音符ベース・コードを生成する方法に関するものであ
る。さらに、本発明は、音楽表現の伴奏を生成する方法
に関する。
【0002】
【従来の技術】一般に、電子楽器またはシンセサイザの
制御に使用される制御信号を得るための方法には様々な
先行技術がある。例えば、電子楽器を制御するためには
MIDIが広く使用されている。MIDIとは「楽器デ
ィジタル・インタフェース(Musical Inst
rument Digital Interfac
e)」の略語であり、音声合成装置の事実上の業界標準
でもある。MIDIは、これを通してシンセサイザ、リ
ズム・マシン、コンピュータ等が相互にリンクすること
ができるインタフェースである。MIDI標準について
の情報は例えば参考文献[1]に記載されている。
制御に使用される制御信号を得るための方法には様々な
先行技術がある。例えば、電子楽器を制御するためには
MIDIが広く使用されている。MIDIとは「楽器デ
ィジタル・インタフェース(Musical Inst
rument Digital Interfac
e)」の略語であり、音声合成装置の事実上の業界標準
でもある。MIDIは、これを通してシンセサイザ、リ
ズム・マシン、コンピュータ等が相互にリンクすること
ができるインタフェースである。MIDI標準について
の情報は例えば参考文献[1]に記載されている。
【0003】非ヒューリスティック型の自動作曲法は参
考文献[2]に開示されている。この作曲方法は、所与
の例の集合からルールを学習することによってコードの
連続シーケンスを生成するのに動的拡張性コンテキスト
(DEC)と呼ばれる自己学習文法システムの原理を利
用する。すなわち、マルコフ過程におけるのと同様に、
この作曲法ではコード・シーケンス中のコードがそのす
ぐ前のいくつかのコードに基づいて定義される。しかし
ながら、この作曲方法は、ルールの探索引数の内容の長
さ、すなわち必要な先行コード数が、ルールがトレーニ
ング・シーケンス(ストリング)から形成される場合に
それらのトレーニング・シーケンスに生じる不一致(競
合)に基づいて定義される動的パラメータである別個の
「文法」規則を使用する。言い換えると、ルールの生成
時に2つ以上のルールが同じ探索引数を持つのに、異な
る結果すなわち新しいコードを持つ場合、それらのルー
ルは無効であることが示され、あいまいでない有効なル
ールが見つかるまで、それらのルールの探索引数の長さ
が大きくされる。コンテキストを動的に拡張するこの方
法は、この構造の利用に非常に大きく依拠している。上
記のルールは練習教材に生じる符号間の局部的一致に基
づいて機械的に生み出されるので、ルールの生成は、例
えば、練習用音楽教材についての専門知識に基づく音楽
理論的な分析を必要としない。
考文献[2]に開示されている。この作曲方法は、所与
の例の集合からルールを学習することによってコードの
連続シーケンスを生成するのに動的拡張性コンテキスト
(DEC)と呼ばれる自己学習文法システムの原理を利
用する。すなわち、マルコフ過程におけるのと同様に、
この作曲法ではコード・シーケンス中のコードがそのす
ぐ前のいくつかのコードに基づいて定義される。しかし
ながら、この作曲方法は、ルールの探索引数の内容の長
さ、すなわち必要な先行コード数が、ルールがトレーニ
ング・シーケンス(ストリング)から形成される場合に
それらのトレーニング・シーケンスに生じる不一致(競
合)に基づいて定義される動的パラメータである別個の
「文法」規則を使用する。言い換えると、ルールの生成
時に2つ以上のルールが同じ探索引数を持つのに、異な
る結果すなわち新しいコードを持つ場合、それらのルー
ルは無効であることが示され、あいまいでない有効なル
ールが見つかるまで、それらのルールの探索引数の長さ
が大きくされる。コンテキストを動的に拡張するこの方
法は、この構造の利用に非常に大きく依拠している。上
記のルールは練習教材に生じる符号間の局部的一致に基
づいて機械的に生み出されるので、ルールの生成は、例
えば、練習用音楽教材についての専門知識に基づく音楽
理論的な分析を必要としない。
【0004】これに対応して、ルールがコード・シーケ
ンスの後に新しいコードを生成するために用いられる場
合、まずそのコード・シーケンスで最後に生成されたコ
ードがメモリに記憶されている探索テーブル中のルール
と比較され、次に最後の2つのコードが比較され、この
ような操作が有効なルールとの一致が見られて、そのル
ールの結果によって示されたコードをコード・シーケン
スの最後に加えることができるまで続けられる。上記の
ツリー構造によって系統的な比較が可能になる。その結
果としてトレーニング・シーケンスに基づいて生成され
たルールに「文体的に」従う事を試みる「最適」コード
・シーケンスが得られる。
ンスの後に新しいコードを生成するために用いられる場
合、まずそのコード・シーケンスで最後に生成されたコ
ードがメモリに記憶されている探索テーブル中のルール
と比較され、次に最後の2つのコードが比較され、この
ような操作が有効なルールとの一致が見られて、そのル
ールの結果によって示されたコードをコード・シーケン
スの最後に加えることができるまで続けられる。上記の
ツリー構造によって系統的な比較が可能になる。その結
果としてトレーニング・シーケンスに基づいて生成され
たルールに「文体的に」従う事を試みる「最適」コード
・シーケンスが得られる。
【0005】先行技術によれば、自動伴奏装置用のキー
・シークエンス(音符ベース・コード)は、例えばコン
ピュータのMIDIポートに接続されたMIDIキーボ
ードによって得ることができ、あるいはメモリに保存さ
れたMIDIファイルからロードすることができる。M
IDIキーボードは、ユーザがキーボードを演奏するの
に伴って、音オン/音オフ事象対及び音のピッチよりな
る音事象を生じさせる。伴奏装置の場合、音事象は同じ
ピッチの一つの長さ単位(例えば八分音符)(全音符の
1/8)のシーケンスに変換される。キー・シークエン
スは他の手段によって得ることもできる。例えば、グラ
フィカル・ユーザインタフェース(GUI)やマウスの
ようなポインティングデバイスを使用することにより、
あるいはコンピュータキーボードを使用することによっ
て得ることができる。
・シークエンス(音符ベース・コード)は、例えばコン
ピュータのMIDIポートに接続されたMIDIキーボ
ードによって得ることができ、あるいはメモリに保存さ
れたMIDIファイルからロードすることができる。M
IDIキーボードは、ユーザがキーボードを演奏するの
に伴って、音オン/音オフ事象対及び音のピッチよりな
る音事象を生じさせる。伴奏装置の場合、音事象は同じ
ピッチの一つの長さ単位(例えば八分音符)(全音符の
1/8)のシーケンスに変換される。キー・シークエン
スは他の手段によって得ることもできる。例えば、グラ
フィカル・ユーザインタフェース(GUI)やマウスの
ようなポインティングデバイスを使用することにより、
あるいはコンピュータキーボードを使用することによっ
て得ることができる。
【0006】
【発明が解決しようとする課題】本発明の目的は、音楽
情報を表わす音符ベース・コードを生成する方法を提供
し、さらに音楽表現の伴奏を生成する方法を提供するこ
とにある。上記及び他の本発明の目的は、特許請求の範
囲に記載する特徴を有する方法及びコンピュータソフト
ウェアによって達成される。特許請求の範囲には本発明
の好適な実施態様も記載されている。
情報を表わす音符ベース・コードを生成する方法を提供
し、さらに音楽表現の伴奏を生成する方法を提供するこ
とにある。上記及び他の本発明の目的は、特許請求の範
囲に記載する特徴を有する方法及びコンピュータソフト
ウェアによって達成される。特許請求の範囲には本発明
の好適な実施態様も記載されている。
【0007】
【課題を解決するための手段】本発明の方法は、音声信
号の形の音楽情報を受け取るステップと、音声信号に音
声−音符変換をかけて音楽情報を表わす音符ベース・コ
ードを生成するステップとに基づいたものである。
号の形の音楽情報を受け取るステップと、音声信号に音
声−音符変換をかけて音楽情報を表わす音符ベース・コ
ードを生成するステップとに基づいたものである。
【0008】音声信号は、例えば歌唱、ハミング、口
笛、あるいは楽器演奏によって得られる。あるいは、音
声信号はCDやフロッピーディスクのようなコンピュー
タ記憶媒体から出力することも可能である。
笛、あるいは楽器演奏によって得られる。あるいは、音
声信号はCDやフロッピーディスクのようなコンピュー
タ記憶媒体から出力することも可能である。
【0009】本発明のもう一つの方法においては、音声
信号に基づいて音声−音符変換により生成された音符ベ
ース・コードを用いて自動作曲法を制御することにより
音楽表現の伴奏が得られる。自動作曲法については、本
願の従来技術の説明の部分に記載されている。自動作曲
法は、音符ベース・コードに基づいて新旋律ラインに対
応するコード・シーケンスを生成する。このコード・シ
ーケンスは、シンセサイザあるいは可聴伴奏を提供する
ための同様の電子音楽機器を制御するために使用するこ
ともできる。好ましくは、伴奏はリアルタイムで得られ
るようにする。新旋律ラインに対応するコード・シーケ
ンスは、MIDIファイルあるいはサウンドファイルに
保存することも可能である。本願において、「旋律ライ
ン」という用語は、音符と休止符との組合せによって形
成される音曲内容の総称である。新旋律ラインと対比し
て、音符ベース・コードは旧旋律ラインと見なすことが
可能である。
信号に基づいて音声−音符変換により生成された音符ベ
ース・コードを用いて自動作曲法を制御することにより
音楽表現の伴奏が得られる。自動作曲法については、本
願の従来技術の説明の部分に記載されている。自動作曲
法は、音符ベース・コードに基づいて新旋律ラインに対
応するコード・シーケンスを生成する。このコード・シ
ーケンスは、シンセサイザあるいは可聴伴奏を提供する
ための同様の電子音楽機器を制御するために使用するこ
ともできる。好ましくは、伴奏はリアルタイムで得られ
るようにする。新旋律ラインに対応するコード・シーケ
ンスは、MIDIファイルあるいはサウンドファイルに
保存することも可能である。本願において、「旋律ライ
ン」という用語は、音符と休止符との組合せによって形
成される音曲内容の総称である。新旋律ラインと対比し
て、音符ベース・コードは旧旋律ラインと見なすことが
可能である。
【0010】本発明の音声−音符変換方法は、音声信号
の基本周波数を推定して基本周波数のシーケンスを得る
ステップと、該基本周波数のシーケンスに基づいて音事
象を検出することにより音符ベース・コードを得るステ
ップとよりなる。
の基本周波数を推定して基本周波数のシーケンスを得る
ステップと、該基本周波数のシーケンスに基づいて音事
象を検出することにより音符ベース・コードを得るステ
ップとよりなる。
【0011】本発明の一実施例による音声−音符変換方
法においては、音楽情報を含む音声信号が時間のフレー
ムに分割され、各フレームの基本周波数を検出すること
によって基本周波数のシーケンスが得られる。次の段階
では、基本周波数が量子化される。すなわち、例えば基
本周波数値を効果的に半音階に量子化した形のMIDI
音階に変換される。次に、連続する等MIDIピッチ値
を持つセグメントが検知され、それらの各セグメントが
音楽情報を表わす音符ベース・コードを得るための音事
象(音オン/音オフ事象対)として指定さる。
法においては、音楽情報を含む音声信号が時間のフレー
ムに分割され、各フレームの基本周波数を検出すること
によって基本周波数のシーケンスが得られる。次の段階
では、基本周波数が量子化される。すなわち、例えば基
本周波数値を効果的に半音階に量子化した形のMIDI
音階に変換される。次に、連続する等MIDIピッチ値
を持つセグメントが検知され、それらの各セグメントが
音楽情報を表わす音符ベース・コードを得るための音事
象(音オン/音オフ事象対)として指定さる。
【0012】本発明のもう一つの実施例による音声−音
符変換方法においては、音楽情報を含む音声信号はフレ
ーム単位で処理される。各フレームの基本周波数が検出
され、それらの基本周波数が量子化される。前の実施例
とは異なり、フレームは音声信号が供給されるのと同時
に1フレームずつ処理される。量子化された基本周波数
は、前の基本周波数と現在の基本周波数を比較すること
により、リアルタイムで音事象の形にコード化される。
音オン事象及びその時現在の基本周波数に対応するピッ
チに0からノンゼロ値への何らかの遷移が割り当てられ
る。従って、ノンゼロ値からゼロ値への遷移は音オフ事
象を生じさせ、ノンゼロからもう一つのノンゼロ値への
変化は音オフ事象及びその音オフ事象の後に続く音オン
事象を生じさせる、またその時現在の基本周波数に対応
するピッチを生じさせ得る。それ故に、入力信号が供給
されるのと同時に音楽情報を表わす音符ベース・コード
が形成される。
符変換方法においては、音楽情報を含む音声信号はフレ
ーム単位で処理される。各フレームの基本周波数が検出
され、それらの基本周波数が量子化される。前の実施例
とは異なり、フレームは音声信号が供給されるのと同時
に1フレームずつ処理される。量子化された基本周波数
は、前の基本周波数と現在の基本周波数を比較すること
により、リアルタイムで音事象の形にコード化される。
音オン事象及びその時現在の基本周波数に対応するピッ
チに0からノンゼロ値への何らかの遷移が割り当てられ
る。従って、ノンゼロ値からゼロ値への遷移は音オフ事
象を生じさせ、ノンゼロからもう一つのノンゼロ値への
変化は音オフ事象及びその音オフ事象の後に続く音オン
事象を生じさせる、またその時現在の基本周波数に対応
するピッチを生じさせ得る。それ故に、入力信号が供給
されるのと同時に音楽情報を表わす音符ベース・コード
が形成される。
【0013】本発明のさらにもう一つの実施例の音声−
音符変換方法においては、音楽情報を含む音声信号はフ
レーム単位で処理され、入力信号が供給されるのと同時
に音楽情報を表す音符ベース・コードが形成される。ま
ず、フレームの信号レベルが測定され、所定の信号レベ
ル・スレッショルドと比較される。このレベルが信号レ
ベル・スレッショルドより高ければ、そのフレームが有
声音のフレームか無声音のフレームかを判断するための
音声判断が実行される。そのフレームが有声音フレーム
であると判断されると、フレームの基本周波数が推定さ
れ、量子化されて、その時現在の量子化基本周波数が得
られる。次に、この量子化された現在の基本周波数に基
づいて音が検出されるかどうかが判断される。音が検出
されれば、量子化された現在の基本周波数はその前のフ
レームの基本周波数と比較される。そして、前と現在の
基本周波数が異なっていれば、音オフ事象及びその音オ
フ事象の後の音オン事象が適用される。もし、前と現在
の基本周波数が同じであれば、何の処理もとられない。
信号レベルがそのスレッショルド以下の場合、またはフ
レームが無声音フレームと判断された場合、あるいは音
が検出されない場合は、音オン事象が現在有効かどうか
の判断が行われ、音が検出される場合は、音オフ事象が
適用される。この手順が、音符ベース・コードを得るた
めに音声信号を受け取るのと同時に各フレームについて
繰り返し行われる。
音符変換方法においては、音楽情報を含む音声信号はフ
レーム単位で処理され、入力信号が供給されるのと同時
に音楽情報を表す音符ベース・コードが形成される。ま
ず、フレームの信号レベルが測定され、所定の信号レベ
ル・スレッショルドと比較される。このレベルが信号レ
ベル・スレッショルドより高ければ、そのフレームが有
声音のフレームか無声音のフレームかを判断するための
音声判断が実行される。そのフレームが有声音フレーム
であると判断されると、フレームの基本周波数が推定さ
れ、量子化されて、その時現在の量子化基本周波数が得
られる。次に、この量子化された現在の基本周波数に基
づいて音が検出されるかどうかが判断される。音が検出
されれば、量子化された現在の基本周波数はその前のフ
レームの基本周波数と比較される。そして、前と現在の
基本周波数が異なっていれば、音オフ事象及びその音オ
フ事象の後の音オン事象が適用される。もし、前と現在
の基本周波数が同じであれば、何の処理もとられない。
信号レベルがそのスレッショルド以下の場合、またはフ
レームが無声音フレームと判断された場合、あるいは音
が検出されない場合は、音オン事象が現在有効かどうか
の判断が行われ、音が検出される場合は、音オフ事象が
適用される。この手順が、音符ベース・コードを得るた
めに音声信号を受け取るのと同時に各フレームについて
繰り返し行われる。
【0014】本発明の方法の長所は、音楽理論の知識が
全くない人でも、例えば歌唱、ハミング、口笛、あるい
は楽器演奏によって音声信号の形で音楽情報を供給する
ことによって音楽情報を表わす音符ベース・コードを生
成するためにこれを使用することができるということで
ある。本発明のもう一つの長所は、音楽表現のリアルタ
イム伴奏を生成するための手段が得られるということで
ある。
全くない人でも、例えば歌唱、ハミング、口笛、あるい
は楽器演奏によって音声信号の形で音楽情報を供給する
ことによって音楽情報を表わす音符ベース・コードを生
成するためにこれを使用することができるということで
ある。本発明のもう一つの長所は、音楽表現のリアルタ
イム伴奏を生成するための手段が得られるということで
ある。
【0015】以下、本発明を好適な実施例により図面を
参照して詳細に説明する。
参照して詳細に説明する。
【0016】
【発明の実施の形態】本発明の原理は、音声信号の形で
与えられる音楽情報に基づいて音符ベース・コードを生
成するというものである。本発明によれば、音声信号に
音声−音符変換をかけることにより音符ベース・コード
が生成される。音声信号は、例えば歌唱、ハミング、口
笛あるいは楽器演奏により得ることができ、あるいはフ
ロッピー(登録商標)ディスクやCDのような何らかの
形のコンピュータ記憶媒体より出力することも可能であ
る。
与えられる音楽情報に基づいて音符ベース・コードを生
成するというものである。本発明によれば、音声信号に
音声−音符変換をかけることにより音符ベース・コード
が生成される。音声信号は、例えば歌唱、ハミング、口
笛あるいは楽器演奏により得ることができ、あるいはフ
ロッピー(登録商標)ディスクやCDのような何らかの
形のコンピュータ記憶媒体より出力することも可能であ
る。
【0017】本発明による伴奏の生成方法は、参考文献
[2]に開示されている自動作曲法を使用する。本発明
によれば、この作曲方法を用いることにより、音楽表現
を表わす音符ベース・コードに基づいてその音楽表現に
対する伴奏(新旋律ライン)が生成される。この作曲方
法においては、コード・シーケンスの最後に生成された
コードが探索テーブルに記憶されたルールと比較される
コードである。この作曲方法が自動伴奏装置用として用
いられる場合は、音符ベースの入力はルールと比較され
るが、メモリに記憶されるルールは、対応する伴奏、す
なわちその作曲方法によって生成されたコード・シーケ
ンスから作り出される。この方法によれば、音楽表現を
表す音声信号に音声−音符変換をかけて音符ベース・コ
ードが生成され、この音符ベース・コードを用いて作曲
方法が制御される。自動作曲法は、新旋律ライン、すな
わち伴奏に対応するコード・シーケンスを生成する。
[2]に開示されている自動作曲法を使用する。本発明
によれば、この作曲方法を用いることにより、音楽表現
を表わす音符ベース・コードに基づいてその音楽表現に
対する伴奏(新旋律ライン)が生成される。この作曲方
法においては、コード・シーケンスの最後に生成された
コードが探索テーブルに記憶されたルールと比較される
コードである。この作曲方法が自動伴奏装置用として用
いられる場合は、音符ベースの入力はルールと比較され
るが、メモリに記憶されるルールは、対応する伴奏、す
なわちその作曲方法によって生成されたコード・シーケ
ンスから作り出される。この方法によれば、音楽表現を
表す音声信号に音声−音符変換をかけて音符ベース・コ
ードが生成され、この音符ベース・コードを用いて作曲
方法が制御される。自動作曲法は、新旋律ライン、すな
わち伴奏に対応するコード・シーケンスを生成する。
【0018】図1(A)は、伴奏を生成する方法を図解
したフローチャートである。図中ステップ11で、音楽
表現を表わす音声入力を受け取る。ステップ12では、
音声入力に音声−音符変換をかけることにより音符ベー
ス・コードが生成される。図2を参照して詳細に説明す
る本発明の好適な一実施例においては、音声−音符変換
は基本周波数推定及び音検出よりなる。ステップ13で
は、音声−音符変換によって得られた音符ベース・コー
ドを用いて自動伴奏が生成される。ステップ13は、入
力に基づいて新旋律ラインに対応するコード・シーケン
スを生成する作曲方法に、好ましくは上記の作曲方法に
よって行われる。ステップ14では、作曲方法によって
生成されたコード・シーケンスを用いて電子楽器または
シンセサイザを制御することにより合成音声が生成され
る。あるいは、伴奏はステップ15でファイルに保存さ
れる。ファイルは、音声事象記述が保存されるMIDI
ファイルでもよく、あるいは合成音声が記憶されるサウ
ンドファイルでもよい。サウンドファイルは、記憶空間
の節約のために圧縮してもよい。ステップ14と15は
互いに排他的ではなく、両方とも実行することが可能で
ある。
したフローチャートである。図中ステップ11で、音楽
表現を表わす音声入力を受け取る。ステップ12では、
音声入力に音声−音符変換をかけることにより音符ベー
ス・コードが生成される。図2を参照して詳細に説明す
る本発明の好適な一実施例においては、音声−音符変換
は基本周波数推定及び音検出よりなる。ステップ13で
は、音声−音符変換によって得られた音符ベース・コー
ドを用いて自動伴奏が生成される。ステップ13は、入
力に基づいて新旋律ラインに対応するコード・シーケン
スを生成する作曲方法に、好ましくは上記の作曲方法に
よって行われる。ステップ14では、作曲方法によって
生成されたコード・シーケンスを用いて電子楽器または
シンセサイザを制御することにより合成音声が生成され
る。あるいは、伴奏はステップ15でファイルに保存さ
れる。ファイルは、音声事象記述が保存されるMIDI
ファイルでもよく、あるいは合成音声が記憶されるサウ
ンドファイルでもよい。サウンドファイルは、記憶空間
の節約のために圧縮してもよい。ステップ14と15は
互いに排他的ではなく、両方とも実行することが可能で
ある。
【0019】図1(B)は、本発明による自動伴奏を生
成するための構成を図解したブロック図である。図示の
構成は、ユーザ端末あるいはホストコンピュータ3に接
続されたマイクロホン2、及びユーザ端末に接続された
スピーカ4を有する。マイクロホン2は、音楽表現を音
声信号の形で入力するために使用される。音楽表現は、
例えば歌唱、ハミング、口笛あるいは楽器演奏によって
生成される。マイクロホン2は、例えばホストコンピュ
ータ3にケーブルで接続された独立のマイクロホンで
も、あるいはホストコンピュータ3に組み込まれたマイ
クロホンでもよい。ホストコンピュータ3は、音声信号
に基づいて伴奏に対応するコード・シーケンスを生成す
るソフトウェアを有する。すなわち音声−音符変換及び
作曲方法の各ステップを実行する。コード・シーケンス
はホストコンピュータによってファイルに保存し、これ
を用いてスピーカ4により出力される合成音声を生成す
るための電子楽器あるいはシンセサイザを制御すること
が可能である。シンセサイザはホストコンピュータ上で
実行されるソフトウェアであってもよく、あるいはホス
トコンピュータ上の別個のハードウェア装置であっても
よい。あるいは、シンセサイザはMIDIケーブルでホ
ストコンピュータに接続された外部装置であってもよ
い。MIDIケーブルで接続された外部装置の場合は、
ホストコンピュータがコード・シーケンスに基づいてM
IDIポートにMIDI出力信号を供給する。好ましく
は、伴奏はリアルタイムで得られるようにする。例え
ば、ユーザがマイクロホン2に向かって歌を歌うと、コ
ンピュータ3がその歌唱によって生成された音曲内容を
処理してスピーカ4から伴奏を出力する。この構成は、
音楽表現を作り出す人の音楽的才能、例えば歌ったり楽
器を演じたりする才能を向上させるために使用すること
ができる。
成するための構成を図解したブロック図である。図示の
構成は、ユーザ端末あるいはホストコンピュータ3に接
続されたマイクロホン2、及びユーザ端末に接続された
スピーカ4を有する。マイクロホン2は、音楽表現を音
声信号の形で入力するために使用される。音楽表現は、
例えば歌唱、ハミング、口笛あるいは楽器演奏によって
生成される。マイクロホン2は、例えばホストコンピュ
ータ3にケーブルで接続された独立のマイクロホンで
も、あるいはホストコンピュータ3に組み込まれたマイ
クロホンでもよい。ホストコンピュータ3は、音声信号
に基づいて伴奏に対応するコード・シーケンスを生成す
るソフトウェアを有する。すなわち音声−音符変換及び
作曲方法の各ステップを実行する。コード・シーケンス
はホストコンピュータによってファイルに保存し、これ
を用いてスピーカ4により出力される合成音声を生成す
るための電子楽器あるいはシンセサイザを制御すること
が可能である。シンセサイザはホストコンピュータ上で
実行されるソフトウェアであってもよく、あるいはホス
トコンピュータ上の別個のハードウェア装置であっても
よい。あるいは、シンセサイザはMIDIケーブルでホ
ストコンピュータに接続された外部装置であってもよ
い。MIDIケーブルで接続された外部装置の場合は、
ホストコンピュータがコード・シーケンスに基づいてM
IDIポートにMIDI出力信号を供給する。好ましく
は、伴奏はリアルタイムで得られるようにする。例え
ば、ユーザがマイクロホン2に向かって歌を歌うと、コ
ンピュータ3がその歌唱によって生成された音曲内容を
処理してスピーカ4から伴奏を出力する。この構成は、
音楽表現を作り出す人の音楽的才能、例えば歌ったり楽
器を演じたりする才能を向上させるために使用すること
ができる。
【0020】本発明の音声−音符変換は図2に示す2つ
のステップ、すなわち基本周波数推定ステップ21及び
音検出ステップ22に分けることができる。ステップ2
1では、音声入力は時間のフレームに分割され、各フレ
ームの基本周波数が推定される。信号の処理はディジタ
ルドメインで実行される。従って、音声入力がディジタ
ル形式になっていない場合、音声入力は基本周波数推定
に先だってAD変換器でディジタル化される。しかしな
がら、基本周波数の推定は音符ベース・コードの生成に
とってそれだけでは十分ではない。そのために、ステッ
プ22で、相続く基本周波数はさらに処理されて、音が
検出される。以下、本発明の好適な図示実施例によるこ
れらの2つのステップの動作についてさらに詳細に説明
する。
のステップ、すなわち基本周波数推定ステップ21及び
音検出ステップ22に分けることができる。ステップ2
1では、音声入力は時間のフレームに分割され、各フレ
ームの基本周波数が推定される。信号の処理はディジタ
ルドメインで実行される。従って、音声入力がディジタ
ル形式になっていない場合、音声入力は基本周波数推定
に先だってAD変換器でディジタル化される。しかしな
がら、基本周波数の推定は音符ベース・コードの生成に
とってそれだけでは十分ではない。そのために、ステッ
プ22で、相続く基本周波数はさらに処理されて、音が
検出される。以下、本発明の好適な図示実施例によるこ
れらの2つのステップの動作についてさらに詳細に説明
する。
【0021】会話や音曲のような音声信号の基本周波数
を推定するための技術は、従来多数存在する。自己相関
関数の使用は基本周波数の推定のために広く採用されて
来た方法である。本発明の方法においては、基本周波数
の推定のために好ましくは自己相関関数を使用する。し
かしながら、本発明の方法にとって基本周波数推定に自
己相関を用いることは必須ではなく、他の基本周波数推
定方法を使用することもできる。基本周波数推定のため
の他の技術については、例えば参考文献[3]に記載さ
れている。
を推定するための技術は、従来多数存在する。自己相関
関数の使用は基本周波数の推定のために広く採用されて
来た方法である。本発明の方法においては、基本周波数
の推定のために好ましくは自己相関関数を使用する。し
かしながら、本発明の方法にとって基本周波数推定に自
己相関を用いることは必須ではなく、他の基本周波数推
定方法を使用することもできる。基本周波数推定のため
の他の技術については、例えば参考文献[3]に記載さ
れている。
【0022】この実施例の基本周波数推定アルゴリズム
は、音声信号セグメント(フレーム)の基本周期の検出
に基づくものである。基本周期はT0(サンプル数単
位)で表され、基本周波数f0との間に次の式1で表さ
れる関係を有する。
は、音声信号セグメント(フレーム)の基本周期の検出
に基づくものである。基本周期はT0(サンプル数単
位)で表され、基本周波数f0との間に次の式1で表さ
れる関係を有する。
【0023】
【式1】 式中、fsはヘルツで表したサンプリング周波数であ
る。基本周波数は式1を用いて推定基本周期から得られ
る。
る。基本周波数は式1を用いて推定基本周期から得られ
る。
【0024】図3は、基本周波数(あるいは周期)推定
の動作を図解したフローチャートである。入力信号は時
間のフレームに分割され、それらの各フレームが別々に
処理される。まず、ステップ30で、入力音声信号Au
dio Inはハイパスフィルタ(HPF)でフィルタ
されてその中の直流成分が除去される。HPFの伝達関
数は、例えば次の式2で表される。
の動作を図解したフローチャートである。入力信号は時
間のフレームに分割され、それらの各フレームが別々に
処理される。まず、ステップ30で、入力音声信号Au
dio Inはハイパスフィルタ(HPF)でフィルタ
されてその中の直流成分が除去される。HPFの伝達関
数は、例えば次の式2で表される。
【0025】
【式2】 式中aはフィルタ係数である。
【0026】処理チェーン中の次のステップ31は、信
号セグメント(フレーム)のスペクトルの任意態様の線
形予測コーディング(LPC)白色化処理である。次に
ステップ32で、信号は自己相関処理される。ステップ
33では、ピーク検出法を用いることによって信号の自
己相関関数から基本周期推定値が得られる。最後にステ
ップ34で、基本周期推定値は疑似ピークを除去するた
めにメディアンフィルタでフィルタされる。次の項で
は、LPC白色化、自己相関及びピーク検出について詳
細に説明する。
号セグメント(フレーム)のスペクトルの任意態様の線
形予測コーディング(LPC)白色化処理である。次に
ステップ32で、信号は自己相関処理される。ステップ
33では、ピーク検出法を用いることによって信号の自
己相関関数から基本周期推定値が得られる。最後にステ
ップ34で、基本周期推定値は疑似ピークを除去するた
めにメディアンフィルタでフィルタされる。次の項で
は、LPC白色化、自己相関及びピーク検出について詳
細に説明する。
【0027】人声発生メカニズムは、通常音源−フィル
タ系と見なされる。すなわち、声道をモデル化した線形
系によって励振信号が作り出され、フィルタされる。有
声(倍音の)音または有声会話音では、励振信号は周期
性を有し、声門で作り出される。励振信号の周期は音の
基本周波数を決定する。声道は、周期励振信号に影響を
及ぼす線形共鳴器と見なすことができ、例えば声道の形
は認識される母音を決定する。
タ系と見なされる。すなわち、声道をモデル化した線形
系によって励振信号が作り出され、フィルタされる。有
声(倍音の)音または有声会話音では、励振信号は周期
性を有し、声門で作り出される。励振信号の周期は音の
基本周波数を決定する。声道は、周期励振信号に影響を
及ぼす線形共鳴器と見なすことができ、例えば声道の形
は認識される母音を決定する。
【0028】実際、基本周期検出の前に信号中の声道の
影響を最小限にすることがかなり好ましいことがしばし
ばある。信号処理の面では、このことは、声道に相当す
る線形モデルの影響をなくすために逆フィルタすること
(白色化)を意味する。声道は、例えば全極モデルを使
用することによって、すなわち次の式3で表される伝達
関数を持つn次ディジタルフィルタとしてモデル化する
ことができる。
影響を最小限にすることがかなり好ましいことがしばし
ばある。信号処理の面では、このことは、声道に相当す
る線形モデルの影響をなくすために逆フィルタすること
(白色化)を意味する。声道は、例えば全極モデルを使
用することによって、すなわち次の式3で表される伝達
関数を持つn次ディジタルフィルタとしてモデル化する
ことができる。
【0029】
【式3】 式中、akはフィルタ係数である。フィルタ係数は、線
形予測を使用することにより、すなわち自己相関行列及
びパラメータakを含む線形系を解くことにより得るこ
とができる。線形系は、例えば参考文献[4]開示され
ているレヴィンソン−ダービン(Levinson−D
urbin)の漸化式(再帰方程式)を使用して最も効
果的に解かれる。パラメータakの解を求めた後に、式
3の伝達関数の逆関数を用いることにより非白色化信号
x’(n)を逆フィルタするにことよって白色化信号x
(n)が得られる。
形予測を使用することにより、すなわち自己相関行列及
びパラメータakを含む線形系を解くことにより得るこ
とができる。線形系は、例えば参考文献[4]開示され
ているレヴィンソン−ダービン(Levinson−D
urbin)の漸化式(再帰方程式)を使用して最も効
果的に解かれる。パラメータakの解を求めた後に、式
3の伝達関数の逆関数を用いることにより非白色化信号
x’(n)を逆フィルタするにことよって白色化信号x
(n)が得られる。
【0030】図4(A)及び(B)は時間ドメインのウ
ィンドウ生成を図解したものである。図4(A)は矩形
ウィンドウでウィンドウ表示された信号を示し、図4
(B)はハミング・ウィンドウで表示された信号を示
す。ウィンドウ生成は図3には示されていないが、信号
はステップ32の前にウィンドウ表示されるものと仮定
されている。
ィンドウ生成を図解したものである。図4(A)は矩形
ウィンドウでウィンドウ表示された信号を示し、図4
(B)はハミング・ウィンドウで表示された信号を示
す。ウィンドウ生成は図3には示されていないが、信号
はステップ32の前にウィンドウ表示されるものと仮定
されている。
【0031】LPC白色化の効果の例が図5(A)乃至
6(B)に図解されている。図5(A)、(B)及び
(C)は、図4(B)のハミング・ウィンドウ表示され
た信号のスペクトル、LPCスペクトル及び逆フィルタ
された(白色化)スペクトルをそれぞれ示す。図6
(A)及び6(B)は、自己相関関数におけるLPC白
色化の効果の例を示す。図6(A)は図5(C)の白色
化信号の自己相関関数を示し、図6(B)は図5(A)
の(非白色化)信号の自己相関関数を示している。図6
(A)の白色化スペクトルの自己相関関数中の極大値が
比較的図6(B)の非白色化スペクトルの極大値よりも
明確に際立っていることがわかる。従って、この例は、
自己相関の最大検出の問題にLPC白色化を適用するこ
とが効果的であるということを示唆している。
6(B)に図解されている。図5(A)、(B)及び
(C)は、図4(B)のハミング・ウィンドウ表示され
た信号のスペクトル、LPCスペクトル及び逆フィルタ
された(白色化)スペクトルをそれぞれ示す。図6
(A)及び6(B)は、自己相関関数におけるLPC白
色化の効果の例を示す。図6(A)は図5(C)の白色
化信号の自己相関関数を示し、図6(B)は図5(A)
の(非白色化)信号の自己相関関数を示している。図6
(A)の白色化スペクトルの自己相関関数中の極大値が
比較的図6(B)の非白色化スペクトルの極大値よりも
明確に際立っていることがわかる。従って、この例は、
自己相関の最大検出の問題にLPC白色化を適用するこ
とが効果的であるということを示唆している。
【0032】しかしながら、場合によっては、推定値の
精度がLPC白色化と共に低下するということが実験に
よって明らかになっている。このことは、特に高い音を
含む信号の場合に関係がある。従って、LPC白色化を
使用することは必ずしも常に効果的だとは限らず、本発
明における基本周期推定はLPC白色化と共に、あるい
は白色化なしで使用することができる。
精度がLPC白色化と共に低下するということが実験に
よって明らかになっている。このことは、特に高い音を
含む信号の場合に関係がある。従って、LPC白色化を
使用することは必ずしも常に効果的だとは限らず、本発
明における基本周期推定はLPC白色化と共に、あるい
は白色化なしで使用することができる。
【0033】信号の自己相関は、参考文献[5]に開示
されている短時間自己相関分析法を使用することにより
実施される。信号x(n)の短いセグメントに対して処
理を行う短時間自己相関関数は次の式4で定義される。
されている短時間自己相関分析法を使用することにより
実施される。信号x(n)の短いセグメントに対して処
理を行う短時間自己相関関数は次の式4で定義される。
【0034】
【式4】 式中、Mcは分析される自己相関点の数、Nはサンプル
数、w(n)はハミング・ウィンドウのような時間ドメ
インの窓関数である。
数、w(n)はハミング・ウィンドウのような時間ドメ
インの窓関数である。
【0035】時間ドメイン窓関数w(n)の長さは分析
の時間分解能を決定する。実際には、最も低い基本周波
数の少なくとも2倍の周期であるテーパ状ウィンドウを
使用することが可能である。このことは、例えば50ヘ
ルツを基本周波数推定値の下限に選択した場合、最小ウ
ィンドウ長さは40ミリ秒であるということを意味す
る。22,050ヘルツのサンプリング周波数では、こ
れは882サンプルに相当する。実際には、ウィンドウ
長さは40ミリ秒より大きい2の最小べき乗に選ぶこと
が好ましい。これは、自己相関関数を計算するのに高速
フーリエ変換(FFT)が用いられ、FFTはウィンド
ウ長さが2のべき乗であることを必要とするからであ
る。
の時間分解能を決定する。実際には、最も低い基本周波
数の少なくとも2倍の周期であるテーパ状ウィンドウを
使用することが可能である。このことは、例えば50ヘ
ルツを基本周波数推定値の下限に選択した場合、最小ウ
ィンドウ長さは40ミリ秒であるということを意味す
る。22,050ヘルツのサンプリング周波数では、こ
れは882サンプルに相当する。実際には、ウィンドウ
長さは40ミリ秒より大きい2の最小べき乗に選ぶこと
が好ましい。これは、自己相関関数を計算するのに高速
フーリエ変換(FFT)が用いられ、FFTはウィンド
ウ長さが2のべき乗であることを必要とするからであ
る。
【0036】Nサンプルの信号の自己相関関数は長さが
2N−1サンプルであるから、そのシーケンスはFFT
計算の前に0−パディングしなければならない。0−パ
ディングとは、信号長さを必要値まで大きくするため
に、単に信号セグメントに0を追加することである。0
−パディング後、短時間自己相関関数が次の式5で計算
される。
2N−1サンプルであるから、そのシーケンスはFFT
計算の前に0−パディングしなければならない。0−パ
ディングとは、信号長さを必要値まで大きくするため
に、単に信号セグメントに0を追加することである。0
−パディング後、短時間自己相関関数が次の式5で計算
される。
【0037】
【式5】 式中、x(n)はウィンドウ表示された信号セグメント
であり、IFFTは逆FFTを表す。
であり、IFFTは逆FFTを表す。
【0038】有意な自己相関遅延mの範囲内で各kに対
するφ(m)(自己相関ピーク)の極大値を探すピーク
検出によって推定基本周期T0が得られる。自己相関関
数の全域最大は位置m=0で生じ、基本周期に対応する
極大はいくつかの極大の中の1つである。
するφ(m)(自己相関ピーク)の極大値を探すピーク
検出によって推定基本周期T0が得られる。自己相関関
数の全域最大は位置m=0で生じ、基本周期に対応する
極大はいくつかの極大の中の1つである。
【0039】ピーク検出は放物線補間によってさらに改
善される。放物線補間では、極大及びその極大に隣接す
る2つの値からなる3点に放物線が当てはめられる。A
=φ(I)を自己相関遅延Iにおける極大値、A−1=
φ(I−1)及びA+1=φ(I+1)をそれぞれ遅延
I−1及びI+1における最大の左側及び右側の隣接値
であるとすると、自己相関ピークの補間位置は次の式6
で表される。
善される。放物線補間では、極大及びその極大に隣接す
る2つの値からなる3点に放物線が当てはめられる。A
=φ(I)を自己相関遅延Iにおける極大値、A−1=
φ(I−1)及びA+1=φ(I+1)をそれぞれ遅延
I−1及びI+1における最大の左側及び右側の隣接値
であるとすると、自己相関ピークの補間位置は次の式6
で表される。
【0040】
【式6】
【0041】本発明の方法で使用することが好ましいメ
ディアンフィルタは3タップ・メジアンフィルタであ
る。
ディアンフィルタは3タップ・メジアンフィルタであ
る。
【0042】LPC、自己相関分析及びFFTについて
のさらに詳しい情報は、ディジタル信号処理及びスペク
トル分析に関する教科書で見ることができる。
のさらに詳しい情報は、ディジタル信号処理及びスペク
トル分析に関する教科書で見ることができる。
【0043】基本周波数を推定するための上記の方法
は、単一の顕著な倍音源(例えば倍音を発生する有声会
話音、歌唱、楽器)を持つ音声信号の基本周波数を検出
するのに極めて確かな方法である。さらに、この方法
は、音声信号の基本周波数の変化を追うような形で推定
基本周波数の時間軌跡が得られる。しかしながら、前に
述べたように、基本周波数の時間軌跡は、音符ベース・
コードを得るためにはさらに処理する必要がある。詳し
く言うと、時間軌跡は、音の始め、ピッチ及び終わりを
示す一連の事象対の形で分析する必要があり、これを音
検出と称する。言い換えると、音検出は基本周波数軌跡
から音事象を形成することを言う。音事象は、例えば音
の開始位置(音オン事象)、ピッチ及び終了位置(音オ
フ事象)よりなる。例えば、時間軌跡はユーザが決定し
たテンポにより八分音符のような一つの長さ単位のシー
ケンスに変換することが可能である。
は、単一の顕著な倍音源(例えば倍音を発生する有声会
話音、歌唱、楽器)を持つ音声信号の基本周波数を検出
するのに極めて確かな方法である。さらに、この方法
は、音声信号の基本周波数の変化を追うような形で推定
基本周波数の時間軌跡が得られる。しかしながら、前に
述べたように、基本周波数の時間軌跡は、音符ベース・
コードを得るためにはさらに処理する必要がある。詳し
く言うと、時間軌跡は、音の始め、ピッチ及び終わりを
示す一連の事象対の形で分析する必要があり、これを音
検出と称する。言い換えると、音検出は基本周波数軌跡
から音事象を形成することを言う。音事象は、例えば音
の開始位置(音オン事象)、ピッチ及び終了位置(音オ
フ事象)よりなる。例えば、時間軌跡はユーザが決定し
たテンポにより八分音符のような一つの長さ単位のシー
ケンスに変換することが可能である。
【0044】図7(A)は、基本周波数の任意の長さの
シーケンスが一度に処理される本発明の実施例による音
検出プロセスを図解したフローチャートである。ステッ
プ71で、基本周波数は量子化される。基本周波数は、
例えば最も近い半音へ量子化されかつ/またはMIDI
音階等に変換される。ステップ72aで基本周波数中の
連続した等しい値のセグメントが検出され、ステップ7
2bでは、それらの各セグメントが音オン/音オフ事象
対と基本周波数に対応するピッチよりなる音事象として
指定される。
シーケンスが一度に処理される本発明の実施例による音
検出プロセスを図解したフローチャートである。ステッ
プ71で、基本周波数は量子化される。基本周波数は、
例えば最も近い半音へ量子化されかつ/またはMIDI
音階等に変換される。ステップ72aで基本周波数中の
連続した等しい値のセグメントが検出され、ステップ7
2bでは、それらの各セグメントが音オン/音オフ事象
対と基本周波数に対応するピッチよりなる音事象として
指定される。
【0045】図7(B)は、基本周波数がリアルタイム
で処理される本発明のもう一つの実施例による音検出プ
ロセスを図解したフローチャートである。基本周波数は
ステップ76で量子化される。しかしながら、フレーム
は1つずつ処理され、実際のセグメントへの分割は行わ
れない。ステップ77で、その時現在の基本周波数が後
で使用するためにメモリ保存される。ステップ78で
は、現在の基本周波数がメモリに保存されている前の基
本周波数と比較される。次に、前の基本周波数がメモリ
に保存されていれば現在の基本周波数をステップ78で
該前の基本周波数と比較し、その比較結果に基づいて、
基本周波数上でゼロからノンゼロ値への何らかの遷移が
生じた場合、ステップ79で現在の基本周波数に対応す
るピッチを持つ音オン事象を用いることによって、量子
化された基本周波数はリアルタイムで順次音事象にコー
ド化される。基本周波数上でノンゼロ値からゼロ値への
何らかの遷移が生じた場合は、音オフ事象が適用され、
基本周波数上でノンゼロ値から別のノンゼロ値への何ら
かの遷移が生じた場合は、音オフ事象及び該音オフ事象
の後に続く量子化された現在の基本周波数に対応するピ
ッチを持つ音オン事象が適用される。基本周波数が変化
しなければ、音事象は用いられない。
で処理される本発明のもう一つの実施例による音検出プ
ロセスを図解したフローチャートである。基本周波数は
ステップ76で量子化される。しかしながら、フレーム
は1つずつ処理され、実際のセグメントへの分割は行わ
れない。ステップ77で、その時現在の基本周波数が後
で使用するためにメモリ保存される。ステップ78で
は、現在の基本周波数がメモリに保存されている前の基
本周波数と比較される。次に、前の基本周波数がメモリ
に保存されていれば現在の基本周波数をステップ78で
該前の基本周波数と比較し、その比較結果に基づいて、
基本周波数上でゼロからノンゼロ値への何らかの遷移が
生じた場合、ステップ79で現在の基本周波数に対応す
るピッチを持つ音オン事象を用いることによって、量子
化された基本周波数はリアルタイムで順次音事象にコー
ド化される。基本周波数上でノンゼロ値からゼロ値への
何らかの遷移が生じた場合は、音オフ事象が適用され、
基本周波数上でノンゼロ値から別のノンゼロ値への何ら
かの遷移が生じた場合は、音オフ事象及び該音オフ事象
の後に続く量子化された現在の基本周波数に対応するピ
ッチを持つ音オン事象が適用される。基本周波数が変化
しなければ、音事象は用いられない。
【0046】図8には、基本周波数軌跡ffの一例が示
されている。半音81〜86の範囲内で変化する基本周
波数の値は同じピッチ値に量子化される。本発明の一実
施例においては、連続する等しい(量子化された)値8
1〜86が検出され、音オン/音オフ対及び基本周波数
81に対応するピッチよりなる音事象である音lとして
指定される。音2及び音3の音事象も同様に構成され
る。
されている。半音81〜86の範囲内で変化する基本周
波数の値は同じピッチ値に量子化される。本発明の一実
施例においては、連続する等しい(量子化された)値8
1〜86が検出され、音オン/音オフ対及び基本周波数
81に対応するピッチよりなる音事象である音lとして
指定される。音2及び音3の音事象も同様に構成され
る。
【0047】本発明のもう一つの実施例においては、量
子化された基本周波数80〜89が一度に1つずつ処理
される。休止(音なし)から音1への遷移、すなわちゼ
ロの基本周波数値80から基本周波数値81への遷移の
結果、基本周波数81対応するピッチ及び音オン事象が
生じる。連続した等しい基本周波数値82〜86は対応
するピッチを生じさせる。音1から音2への遷移、すな
わち基本周波数値86から別の基本周波数値87への遷
移の結果、基本周波数87に対応するピッチと連続する
音オフ及び音オン事象が生じる。音3から休止(音な
し)への遷移、すなわち基本周波数値88からゼロ基本
周波数値89への遷移は音オフ事象を生じさせる。
子化された基本周波数80〜89が一度に1つずつ処理
される。休止(音なし)から音1への遷移、すなわちゼ
ロの基本周波数値80から基本周波数値81への遷移の
結果、基本周波数81対応するピッチ及び音オン事象が
生じる。連続した等しい基本周波数値82〜86は対応
するピッチを生じさせる。音1から音2への遷移、すな
わち基本周波数値86から別の基本周波数値87への遷
移の結果、基本周波数87に対応するピッチと連続する
音オフ及び音オン事象が生じる。音3から休止(音な
し)への遷移、すなわち基本周波数値88からゼロ基本
周波数値89への遷移は音オフ事象を生じさせる。
【0048】図9は、本発明のさらにもう一つの実施例
による音声−音符変換プロセスを図解したフローチャー
トである。この実施例では、音声信号のフレームは一時
に1フレームずつ分析される。ステップ90では、音声
信号のフレームの信号レベルが測定される。通常、これ
にはエネルギーベースの信号レベル測定法が用いられる
が、例えば聴覚刺激音量測定法のようなより高度な方法
を使用することも可能である。ステップ91では、ステ
ップ90で得られた信号レベルが所定のスレッショルド
と比較される。信号レベルがスレッショルドより低い場
合は、その時現在のフレーム中には音がないと判断され
る。従って、その分析は終了し、ステップ96に移る。
による音声−音符変換プロセスを図解したフローチャー
トである。この実施例では、音声信号のフレームは一時
に1フレームずつ分析される。ステップ90では、音声
信号のフレームの信号レベルが測定される。通常、これ
にはエネルギーベースの信号レベル測定法が用いられる
が、例えば聴覚刺激音量測定法のようなより高度な方法
を使用することも可能である。ステップ91では、ステ
ップ90で得られた信号レベルが所定のスレッショルド
と比較される。信号レベルがスレッショルドより低い場
合は、その時現在のフレーム中には音がないと判断され
る。従って、その分析は終了し、ステップ96に移る。
【0049】信号レベルがスレッショルドより高い場合
は、ステップ92及び93で音声(有声音か/無声音か
の)判断が行われる。この音声判断は、フレームの自己
相関関数の際立った遅延における信号レベルとフレーム
エネルギーとの比に基づいて行われる。この比はステッ
プ92及びステップ93で求められ、所定のスレッショ
ルドと比較される。言い換えると、そのフレーム中に元
信号に音声あるいは休止があるかどうかが判断される。
ステップ93でフレームが無声音であると判断される
と、すなわち現在のフレーム中に際立った倍音がないと
判断されると、分析は終了し、ステップ96が実行され
る。ステップ93で際立った倍音が検出されると判断さ
れると、プロセスはステップ94に進む。
は、ステップ92及び93で音声(有声音か/無声音か
の)判断が行われる。この音声判断は、フレームの自己
相関関数の際立った遅延における信号レベルとフレーム
エネルギーとの比に基づいて行われる。この比はステッ
プ92及びステップ93で求められ、所定のスレッショ
ルドと比較される。言い換えると、そのフレーム中に元
信号に音声あるいは休止があるかどうかが判断される。
ステップ93でフレームが無声音であると判断される
と、すなわち現在のフレーム中に際立った倍音がないと
判断されると、分析は終了し、ステップ96が実行され
る。ステップ93で際立った倍音が検出されると判断さ
れると、プロセスはステップ94に進む。
【0050】ステップ94では、フレームの基本周波数
が推定される。通常、音声判断は基本周波数推定に組み
込まれるが、論理的にはこれらはそれぞれ独立したブロ
ックであり、そのために別個のステップとして示されて
いる。ステップ94では、フレームの基本周波数も好ま
しくはMIDI音階のような半音階に量子化される。ス
テップ95では、疑似ピークを除去するため、また音が
検出されたかどうかを判断するためにメディアンフィル
タがかけられる。言い換えると、例えば、連続した3つ
の基本周波数が検出されて、その中の1つが他と大きく
異なる場合、その特定の周波数は恐らくノイズピークで
あるため、除去される。ステップ95で音が検出されな
い場合、プロセスはステップ96に進む。ステップ96
では、音オン事象が現在有効かどうかが判断され、有効
ならば、音オフ事象が適用される。音オン事象が無効な
らば、何の処理も行われない。
が推定される。通常、音声判断は基本周波数推定に組み
込まれるが、論理的にはこれらはそれぞれ独立したブロ
ックであり、そのために別個のステップとして示されて
いる。ステップ94では、フレームの基本周波数も好ま
しくはMIDI音階のような半音階に量子化される。ス
テップ95では、疑似ピークを除去するため、また音が
検出されたかどうかを判断するためにメディアンフィル
タがかけられる。言い換えると、例えば、連続した3つ
の基本周波数が検出されて、その中の1つが他と大きく
異なる場合、その特定の周波数は恐らくノイズピークで
あるため、除去される。ステップ95で音が検出されな
い場合、プロセスはステップ96に進む。ステップ96
では、音オン事象が現在有効かどうかが判断され、有効
ならば、音オフ事象が適用される。音オン事象が無効な
らば、何の処理も行われない。
【0051】ステップ95で音が検出される場合は、ス
テップ94で推定された基本周波数が現在アクティブな
音(前のフレームの)の基本周波数と比較される。これ
らの周波数値が異なっていると、音オフ事象が適用され
て現在アクティブな音が止められ、音オン事象適用され
て新しい音事象が開始される。ステップ94で推定され
た基本周波数が現在アクティブな音の基本周波数と同じ
ならば、何の処理も行われない。
テップ94で推定された基本周波数が現在アクティブな
音(前のフレームの)の基本周波数と比較される。これ
らの周波数値が異なっていると、音オフ事象が適用され
て現在アクティブな音が止められ、音オン事象適用され
て新しい音事象が開始される。ステップ94で推定され
た基本周波数が現在アクティブな音の基本周波数と同じ
ならば、何の処理も行われない。
【0052】添付図面及び図面と関連させて行った説明
は、もっぱら本発明を例示説明するためのものである。
本発明の原理、すなわち音声信号の形で与えられる音楽
情報に基づいて音符ベース・コードを生成するという原
理は、ここで説明したものと異なる方法で実施すること
も可能である。本発明は、特許請求の範囲の記載する範
囲内においてその細部を修正、変更することが可能であ
る。
は、もっぱら本発明を例示説明するためのものである。
本発明の原理、すなわち音声信号の形で与えられる音楽
情報に基づいて音符ベース・コードを生成するという原
理は、ここで説明したものと異なる方法で実施すること
も可能である。本発明は、特許請求の範囲の記載する範
囲内においてその細部を修正、変更することが可能であ
る。
【0053】
【発明の効果】以上述べた通り本発明によれば、音楽理
論の知識が全くない人でも、例えば歌唱、ハミング、口
笛、あるいは楽器演奏によって音声信号の形で音楽情報
を供給することによって音楽情報を表わす音符ベース・
コードを生成するためにこれを使用することができ、ま
た音楽表現のリアルタイム伴奏を生成するための手段が
得られるものである。 参考文献 [1]MIDI 1.0規格、文書番号MIDI−1.
0、1983年8月、国際MIDI協会(Intern
ational MIDI Association) [2]T.コーネン(Kohonen T)の米国特許
代5,418,323号「探索引数及びルールを用いる
ことにより電子楽器を制御してディジタルコード・シー
ケンスを生成する方法」、1993年 [3] W.ヘス、「会話信号のピッチ測定。」、スプ
リンガー出版(Springer−Verlag)、ド
イツ国ベルリン、p.3〜48、1983年 [4]C.W.テリエン(Therrien)、「離散
ランダム信号と統計的信号処理」、プレンティス・ホー
ル、イングルウッド・クリフス、ニュージャージー、p
p.422〜430、1992年 [5](L.R.ラビナー(Rabiner)、「自己
相関分析を利用したピッチ検出について」、音響、会話
及び信号処理に関するIEEE会報、25(1)、p
p.24〜33、1977年
論の知識が全くない人でも、例えば歌唱、ハミング、口
笛、あるいは楽器演奏によって音声信号の形で音楽情報
を供給することによって音楽情報を表わす音符ベース・
コードを生成するためにこれを使用することができ、ま
た音楽表現のリアルタイム伴奏を生成するための手段が
得られるものである。 参考文献 [1]MIDI 1.0規格、文書番号MIDI−1.
0、1983年8月、国際MIDI協会(Intern
ational MIDI Association) [2]T.コーネン(Kohonen T)の米国特許
代5,418,323号「探索引数及びルールを用いる
ことにより電子楽器を制御してディジタルコード・シー
ケンスを生成する方法」、1993年 [3] W.ヘス、「会話信号のピッチ測定。」、スプ
リンガー出版(Springer−Verlag)、ド
イツ国ベルリン、p.3〜48、1983年 [4]C.W.テリエン(Therrien)、「離散
ランダム信号と統計的信号処理」、プレンティス・ホー
ル、イングルウッド・クリフス、ニュージャージー、p
p.422〜430、1992年 [5](L.R.ラビナー(Rabiner)、「自己
相関分析を利用したピッチ検出について」、音響、会話
及び信号処理に関するIEEE会報、25(1)、p
p.24〜33、1977年
【図1】(A)は本発明の方法を図解したフローチャー
トである。(B)は本発明の構成を図解したブロック図
である。
トである。(B)は本発明の構成を図解したブロック図
である。
【図2】本発明の音声−音符変換プロセスを図解した機
能ブロック図である。
能ブロック図である。
【図3】本発明の一実施例による基本周波数推定方法を
図解したフローチャートである。
図解したフローチャートである。
【図4】(A)、(B)は時間ドメインのウィンドウ生
成を示すグラフである。
成を示すグラフである。
【図5】(A)、(B)、(C)はLPC白色化(ホワ
イトニング)効果の例を示すグラフである。
イトニング)効果の例を示すグラフである。
【図6】(A)、(B)はLPC白色化(ホワイトニン
グ)効果の例を示すグラフである。
グ)効果の例を示すグラフである。
【図7】(A)は本発明の一実施例、(B)は本発明の
もう一つの実施例による音検出プロセスを図解したフロ
ーチャートである。
もう一つの実施例による音検出プロセスを図解したフロ
ーチャートである。
【図8】基本周波数の変化軌跡の一例を示すグラフであ
る。
る。
【図9】本発明のもう一つの実施例による音声−音符変
換プロセスを図解したフローチャートである
換プロセスを図解したフローチャートである
Claims (11)
- 【請求項1】 音楽情報を表わす音符ベース・コードを
生成する方法において:音声信号の形の音楽情報を受け
取るステップ(11)と;該音声信号に音声−音符変換
をかけて音楽情報を表わす音符ベース・コードを生成す
るステップ(12)で、 該音声−音符変換が −音声信号の基本周波数を推定して(21)基本周波数
のシーケンスを得るためのステップと; −該基本周波数のシーケンスに基づいて音事象を検出し
て(22)音符ベース・コードを得るためのステップ
と;よりなるステップ(12)と;よりなることを特徴
とする方法。 - 【請求項2】 音楽表現の伴奏を生成する方法におい
て;該方法が音楽表現に対応する音楽情報を表わす音符
ベース・コードを得るステップと;該音符ベース・コー
ドを作曲方法のための入力として使用することにより新
旋律ラインに対応するコード・シーケンスを生成するス
テップ(13)と;新旋律ラインに対応するコード・シ
ーケンスに基づいて伴奏を生成するステップ(14、1
5)と;よりなり、該音楽情報を表わす音符ベース・コ
ードを得るステップが、 a)音声信号の形の音楽情報を受け取るステップ(1
1)と; b)該音声信号に音声−音符変換をかけて音楽情報を表
わす音符ベース・コードを生成するステップ(12)
で、該音声−音符変換が、 −基本周波数のシーケンスを得るために音声信号の基本
周波数を推定するステップ(21)と; −音符ベース・コードを得るために該基本周波数のシー
ケンスに基づいて音事象を検出するステップ(22)
と;よりなるステップ(12)と;よりなることを特徴
とする方法。 - 【請求項3】 合成音声によって新旋律ラインに対応す
るコード・シーケンスに基づく可聴伴奏を提供するステ
ップ(14)を設けたこと特徴とする請求項2記載の方
法。 - 【請求項4】 新旋律ラインに対応するコード・シーケ
ンスをサウンドファイルあるいはMIDIファイルの形
で保存することによって伴奏をファイル形式で提供する
(15)ことを特徴とする請求項2または3のいずれか
1項記載の方法。 - 【請求項5】 上記音声−音符変換が、 a)音声信号を時間のフレームに分割してフレームのシ
ーケンスを得るステップと; b)現在の基本周波数を得るためにフレームの基本周波
数を推定するステップ(21)と; c)現在の基本周波数を好ましくはMIDI音階のよう
な半音階に量子化して(76)量子化された現在の基本
周波数を生成するステップと; d)該量子化された現在の基本周波数を保存するステッ
プ(77)と; e)該量子化された現在の基本周波数を前のフレームの
保存された基本周波数がある場合はこれと比較し(7
8)、前のフレームの保存された基本周波数がない場合
は該量子化された現在の基本周波数を0と比較するステ
ップと; f)ステップeの比較結果に基づいて −基本周波数中にゼロからノンゼロ値への何らかの遷移
が生じた場合は、量子化された現在の基本周波数に対応
するピッチを持つ音オン事象を、 −基本周波数中にノンゼロからゼロ値への何らかの遷移
が生じた場合は、音オフ事象を、 −基本周波数中にノンゼロから別のノンゼロ値への何ら
かの遷移が生じた場合は、音オフ事象、及び該音オフ事
象の後に続く量子化された現在の基本周波数に対応する
ピッチを持つ音オン事象を、 −基本周波数の変化が生じなかった場合は、音事象なし
を、それぞれ適用するステップ(79)と; g)音声信号を受け取るのと同時に1フレームずつ上記
ステップa乃至fフレームを繰り返して音符ベース・コ
ードを得るステップと;よりなることを特徴とする請求
項1乃至4のいずれか1項記載の方法。 - 【請求項6】 上記音声−音符変換が、 a)音声信号を時間のフレームに分割してフレームのシ
ーケンスを得るステップと; b)各フレームの基本周波数を検出して(21)該基本
周波数のシーケンスを生成するステップと; d)該基本周波数のシーケンスの各値を好ましくはMI
DI音階のような半音階に量子化して(76)量子化さ
れた基本周波数のシーケンスを生成するステップと; e)該量子化された基本周波数のシーケンス中で連続す
る等しい値のセグメントを検出するステップ(72a)
と; f)該連続する等しい値の各セグメントを対応するピッ
チを持つ音オン/音オフ事象対よりなる音事象に対応さ
せて割り当てて(72b)音符ベース・コードを得るス
テップと;よりなることを特徴とする請求項1乃至4の
いずれか1項記載の方法。 - 【請求項7】 上記音声−音符変換が、 a)音声信号を時間のフレームに分割してフレームのシ
ーケンスを得るステップと; b)フレームの信号レベルを測定するステップ(90)
と; c)該信号レベルを所定の信号レベル・スレッショルド
と比較するステップ(91)と; d)上記ステップcで該信号レベルが該信号レベル・ス
レッショルドを超えた場合に、そのフレームが有声音か
無声音かを判断するための音声判断を実行するステップ
(92、93)と; e)上記ステップdでフレームが有声音と判断された場
合に、フレームの基本周波数を推定し、量子化して(9
4)量子化された現在の基本周波数を得るステップと; f)該量子化された現在の基本周波数に基づいて音が検
出されるかどうかを判断するステップ(95)と; g)上記ステップfで音が検出される場合に、量子化さ
れた現在の基本周波数を前のフレームの基本周波数と比
較し(97)、これらの基本周波数が異なれば、音オフ
事象及び該音オフ事象の後に続く音オン事象を適用する
ステップと; h)上記ステップcで該信号レベルが該信号レベル・ス
レッショルドを超えない場合、上記ステップdでフレー
ムが無声音であると判断された場合、あるいは上記ステ
ップfで音が検出されない場合に、音オン事象が現在有
効かどうかを検出して(96)、音オン事象が現在有効
ならば音オフ事象を適用するステップと;音声信号を受
け取るのと同時に1フレームずつ上記ステップa乃至h
フレームを繰り返して音符ベース・コードを得るステッ
プと;よりなることを特徴とする請求項1乃至4のいず
れか1項記載の方法。 - 【請求項8】 歌唱、ハミング、口笛あるいは楽器演奏
によって音声信号を生成することを特徴とする請求項1
乃至7のいずれか1項記載の方法。 - 【請求項9】 コンピュータソフトウェアが書き込まれ
たコンピュータ可読媒体において、コンピュータ上で該
ソフトウェアを実行すると、コンピュータが請求項1乃
至7のいずれか1項記載各ステップを実行することを特
徴とするコンピュータ可読媒体。 - 【請求項10】 音楽情報を表わす音符ベース・コード
を生成するためのジェネレータにおいて;音声信号の形
の音楽情報を受け取る第1のルーチン(11)と;該音
声信号に音声−音符変換をかけて音楽情報を表わす音符
ベース・コードを生成する第2のルーチン(12)で、 −音声信号の基本周波数を推定して基本周波数のシーケ
ンスを得るための第3のルーチン(21)と; −該基本周波数のシーケンスに基づいて音事象を検出し
て音符ベース・コードを得るための第4のルーチン(2
2)と;よりなる第2のルーチン(12)と;よりなる
ことを特徴とするジェネレータ。 - 【請求項11】 音楽表現の伴奏を生成するためのジェ
ネレータにおいて:音楽表現に対応する音楽情報を表わ
す音符ベース・コードを生成する第1のルーチンと;該
音符ベース・コードを作曲方法のための入力として使用
することにより新旋律ラインに対応するコード・シーケ
ンスを生成する第2のルーチン(13)と;新旋律ライ
ンに対応するコード・シーケンスに基づいて伴奏を生成
する第3のルーチン(14、15)と;よりなり、該音
楽情報を表わす音符ベース・コードを生成する該第1の
ルーチンが、さらに、 a)音声信号の形の音楽情報を受け取る第4のルーチン
(11)と; b)該音声信号に音声−音符変換をかけて音楽情報を表
わす音符ベース・コードを生成する第5のルーチン(1
2)で、該音声−音符変換が、 −音声信号の基本周波数を推定して基本周波数のシーケ
ンスを得るための第6のルーチン(21)と; −該基本周波数のシーケンスに基づいて音事象を検出し
て音符ベース・コードを得るための第7のルーチン(2
2)と;よりなる第5のルーチン(12)と;よりなる
ことを特徴とするジェネレータ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI20001592A FI20001592A (fi) | 2000-07-03 | 2000-07-03 | Nuottipohjaisen koodin generointi |
FI20001592 | 2000-07-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002082668A true JP2002082668A (ja) | 2002-03-22 |
Family
ID=8558716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001200387A Pending JP2002082668A (ja) | 2000-07-03 | 2001-07-02 | 音符ベース・コードの生成 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6541691B2 (ja) |
JP (1) | JP2002082668A (ja) |
AU (1) | AU2001279826A1 (ja) |
FI (1) | FI20001592A (ja) |
WO (1) | WO2002003370A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006510944A (ja) * | 2002-12-20 | 2006-03-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オーディオ信号解析方法および装置 |
JP2011033717A (ja) * | 2009-07-30 | 2011-02-17 | Secom Co Ltd | 雑音抑圧装置 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7176372B2 (en) * | 1999-10-19 | 2007-02-13 | Medialab Solutions Llc | Interactive digital music recorder and player |
US9818386B2 (en) | 1999-10-19 | 2017-11-14 | Medialab Solutions Corp. | Interactive digital music recorder and player |
WO2003034627A1 (en) * | 2001-10-17 | 2003-04-24 | Koninklijke Philips Electronics N.V. | System for encoding auxiliary information within a signal |
US7027983B2 (en) * | 2001-12-31 | 2006-04-11 | Nellymoser, Inc. | System and method for generating an identification signal for electronic devices |
US7076035B2 (en) * | 2002-01-04 | 2006-07-11 | Medialab Solutions Llc | Methods for providing on-hold music using auto-composition |
EP1326228B1 (en) * | 2002-01-04 | 2016-03-23 | MediaLab Solutions LLC | Systems and methods for creating, modifying, interacting with and playing musical compositions |
CA2495539C (en) * | 2002-08-16 | 2010-08-10 | Togewa Holding Ag | Method and system for gsm authentication during wlan roaming |
US7026534B2 (en) * | 2002-11-12 | 2006-04-11 | Medialab Solutions Llc | Systems and methods for creating, modifying, interacting with and playing musical compositions |
US7169996B2 (en) * | 2002-11-12 | 2007-01-30 | Medialab Solutions Llc | Systems and methods for generating music using data/music data file transmitted/received via a network |
US7928310B2 (en) * | 2002-11-12 | 2011-04-19 | MediaLab Solutions Inc. | Systems and methods for portable audio synthesis |
US7323629B2 (en) * | 2003-07-16 | 2008-01-29 | Univ Iowa State Res Found Inc | Real time music recognition and display system |
AU2003304560A1 (en) * | 2003-11-21 | 2005-06-08 | Agency For Science, Technology And Research | Method and apparatus for melody representation and matching for music retrieval |
DE102004028693B4 (de) * | 2004-06-14 | 2009-12-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Bestimmen eines Akkordtyps, der einem Testsignal zugrunde liegt |
JP2006084749A (ja) * | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
EP1846916A4 (en) * | 2004-10-12 | 2011-01-19 | Medialab Solutions Llc | SYSTEMS AND METHODS FOR REMOVE MUSIC |
US7598447B2 (en) * | 2004-10-29 | 2009-10-06 | Zenph Studios, Inc. | Methods, systems and computer program products for detecting musical notes in an audio signal |
US7592533B1 (en) * | 2005-01-20 | 2009-09-22 | Gary Lee | Audio loop timing based on audio event information |
KR100735444B1 (ko) * | 2005-07-18 | 2007-07-04 | 삼성전자주식회사 | 오디오데이터 및 악보이미지 추출방법 |
US7563975B2 (en) * | 2005-09-14 | 2009-07-21 | Mattel, Inc. | Music production system |
KR100689849B1 (ko) * | 2005-10-05 | 2007-03-08 | 삼성전자주식회사 | 원격조정제어장치, 영상처리장치, 이를 포함하는 영상시스템 및 그 제어방법 |
CA2567021A1 (en) * | 2005-11-01 | 2007-05-01 | Vesco Oil Corporation | Audio-visual point-of-sale presentation system and method directed toward vehicle occupant |
US20070137467A1 (en) * | 2005-12-19 | 2007-06-21 | Creative Technology Ltd. | Portable media player |
SE0600243L (sv) * | 2006-02-06 | 2007-02-27 | Mats Hillborg | Melodigenerator |
US7705231B2 (en) * | 2007-09-07 | 2010-04-27 | Microsoft Corporation | Automatic accompaniment for vocal melodies |
JP5198093B2 (ja) * | 2008-03-06 | 2013-05-15 | 株式会社河合楽器製作所 | 電子楽音発生器 |
US8309834B2 (en) | 2010-04-12 | 2012-11-13 | Apple Inc. | Polyphonic note detection |
JP6402477B2 (ja) * | 2014-04-25 | 2018-10-10 | カシオ計算機株式会社 | サンプリング装置、電子楽器、方法、およびプログラム |
US9721551B2 (en) | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
US10854180B2 (en) | 2015-09-29 | 2020-12-01 | Amper Music, Inc. | Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine |
US11037538B2 (en) | 2019-10-15 | 2021-06-15 | Shutterstock, Inc. | Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system |
US10964299B1 (en) | 2019-10-15 | 2021-03-30 | Shutterstock, Inc. | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions |
US11024275B2 (en) | 2019-10-15 | 2021-06-01 | Shutterstock, Inc. | Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4392409A (en) | 1979-12-07 | 1983-07-12 | The Way International | System for transcribing analog signals, particularly musical notes, having characteristic frequencies and durations into corresponding visible indicia |
GB2090456B (en) | 1980-07-15 | 1984-02-15 | Wright Malta Corp | Sound signal automatic detection and display method and system |
GB2139405B (en) | 1983-04-27 | 1986-10-29 | Victor Company Of Japan | Apparatus for displaying musical notes indicative of pitch and time value |
US5418323A (en) | 1989-06-06 | 1995-05-23 | Kohonen; Teuvo | Method for controlling an electronic musical device by utilizing search arguments and rules to generate digital code sequences |
JP2775651B2 (ja) * | 1990-05-14 | 1998-07-16 | カシオ計算機株式会社 | 音階検出装置及びそれを用いた電子楽器 |
JPH0535287A (ja) | 1991-07-31 | 1993-02-12 | Ricos:Kk | カラオケ音楽選択装置 |
US6372973B1 (en) * | 1999-05-18 | 2002-04-16 | Schneidor Medical Technologies, Inc, | Musical instruments that generate notes according to sounds and manually selected scales |
-
2000
- 2000-07-03 FI FI20001592A patent/FI20001592A/fi unknown
-
2001
- 2001-06-29 US US09/893,661 patent/US6541691B2/en not_active Expired - Fee Related
- 2001-07-02 JP JP2001200387A patent/JP2002082668A/ja active Pending
- 2001-07-02 AU AU2001279826A patent/AU2001279826A1/en not_active Abandoned
- 2001-07-02 WO PCT/FI2001/000631 patent/WO2002003370A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006510944A (ja) * | 2002-12-20 | 2006-03-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オーディオ信号解析方法および装置 |
JP2011033717A (ja) * | 2009-07-30 | 2011-02-17 | Secom Co Ltd | 雑音抑圧装置 |
Also Published As
Publication number | Publication date |
---|---|
US6541691B2 (en) | 2003-04-01 |
FI20001592A (fi) | 2002-04-11 |
US20020035915A1 (en) | 2002-03-28 |
FI20001592A0 (fi) | 2000-07-03 |
WO2002003370A1 (en) | 2002-01-10 |
AU2001279826A1 (en) | 2002-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002082668A (ja) | 音符ベース・コードの生成 | |
Bittner et al. | Deep Salience Representations for F0 Estimation in Polyphonic Music. | |
JP6610714B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6610715B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
US8618402B2 (en) | Musical harmony generation from polyphonic audio signals | |
Klapuri | Automatic music transcription as we know it today | |
Klapuri | Multiple fundamental frequency estimation based on harmonicity and spectral smoothness | |
JP6290858B2 (ja) | 発話の入力オーディオエンコーディングを、対象歌曲にリズム的に調和する出力へと自動変換するための、コンピュータ処理方法、装置、及びコンピュータプログラム製品 | |
CN112382257B (zh) | 一种音频处理方法、装置、设备及介质 | |
JP5961950B2 (ja) | 音声処理装置 | |
JP2005537499A (ja) | 音声制御式電子楽器 | |
JP4613923B2 (ja) | 楽音処理装置およびプログラム | |
JP2008015214A (ja) | 歌唱力評価方法及びカラオケ装置 | |
JP2012506061A (ja) | デジタル音楽音響信号の分析方法 | |
WO2017057531A1 (ja) | 音響処理装置 | |
Lerch | Software-based extraction of objective parameters from music performances | |
Stowell | Making music through real-time voice timbre analysis: machine learning and timbral control | |
Ryynänen | Singing transcription | |
JP5292702B2 (ja) | 楽音信号生成装置及びカラオケ装置 | |
JP2008015388A (ja) | 歌唱力評価方法及びカラオケ装置 | |
Rodet et al. | Spectral envelopes and additive+ residual analysis/synthesis | |
Donati et al. | Electroglottography based real-time voice-to-MIDI controller | |
Noland et al. | Influences of signal processing, tone profiles, and chord progressions on a model for estimating the musical key from audio | |
Faruqe et al. | Template music transcription for different types of musical instruments | |
CN112992110A (zh) | 音频处理方法、装置、计算设备以及介质 |