JP2012506061A - デジタル音楽音響信号の分析方法 - Google Patents
デジタル音楽音響信号の分析方法 Download PDFInfo
- Publication number
- JP2012506061A JP2012506061A JP2011531363A JP2011531363A JP2012506061A JP 2012506061 A JP2012506061 A JP 2012506061A JP 2011531363 A JP2011531363 A JP 2011531363A JP 2011531363 A JP2011531363 A JP 2011531363A JP 2012506061 A JP2012506061 A JP 2012506061A
- Authority
- JP
- Japan
- Prior art keywords
- data
- music
- algorithm
- music acoustic
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
- G10H1/383—Chord detection and/or recognition, e.g. for correction, or automatic bass generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
詳細な説明で用いられるいくつかの用語について、以下に説明する。これら用語には通常その分野で用いられるものもあり、本発明の実施形態を明確に伝えるために作り出したものもある。
オクターブ−基本周波数を2倍にすることに相当するインターバル
ピッチクラス−オクターブの整数倍だけ離れている、全てのピッチのセット、例えば、ピッチクラスCは、全てのオクターブにおけるCからなる。
クロマティックスケール−12のピッチクラス全てのセット
拍子−楽曲における基本的な時間の区分であり、強拍および弱拍のメジャーとして体系化される(概略として、図3を参照)。
音楽音響信号の場合、信号に現れる様々なピッチを直接観測することは不可能であり、むしろそれらは高調波の混合として観測される。従って、殆どの先行技術のアルゴリズムは、音楽音響信号モデリングの基礎としてクロマベクトルとも呼ばれるピッチクラスプロファイル(PCP)を用いている(例えば、M.A.Bartsch and GH.Wakefield, "Audio Thumbnailing of Popular Music Using Chroma-based Representations", IEEE Transactions on Multimedia, 1996を参照)。
上述の先行技術を考慮して、本発明の目的は、楽曲における音響信号のピッチコンテンツを音楽学的に有効に記述できるよう計算する特徴抽出アルゴリズムを開発することである。
b)第1データ5に含まれる調性の中心音を表す第2データ7を提供するために、第1データ5に第2アルゴリズム6を適用するステップ
上記の定義に関して、調性との用語は、調性の中心音周辺で階層的に体系化された、コードルートおよびコードファミリの組み合わせを指す、すなわち、知覚されるレベルが調性の中心音に相対的に測定される、コードルートおよびコードファミリの組み合わせを指すことに留意されたい。
ステップa)
図5aおよび5bを参照すると、音響デジタル信号2から第1データ5を抽出することに適した第1アルゴリズム4のブロック図が示されている。
第1アルゴリズム4の上記ステップa1)は、音響信号2の音楽イベントのアタックを検出するために、開始検出アルゴリズムにより実行される。
第1アルゴリズム4の上記ステップa2)において、音楽音響信号2が複数の音響セグメントs−on−1,s−on−2,s−on−3,…,s−on−iに分割され、各音響セグメントs−on−1,s−on−2,s−on−3,…,s−on−iは期間「T」を有する。
第1アルゴリズム4の上記ステップa3)は、所定のサブ期間「t」の間のみ、各音響セグメントs−on−1,s−on−2,s−on−3,…,s−on−iに対して、有利には周波数解析を適用する。ここで、サブ期間「t」は期間「T」よりも短い。
図6Aおよび6Bに関連して上記ステップa4)を参照して、計算ネットワーク12が、好ましくは、訓練された機械学習アルゴリズムを用いて実行されることに留意されたい。
ステップb)
次に、図6および7を参照すると、音楽音響分析方法1の第2アルゴリズム6は、次のステップを備えている。
b2)第1の窓「w1」に含まれる局所的な調性の中心音を表す第1の調性コンテキストTc1を推定するために、第1の窓「w1」に含まれる第1の群(gl)のベクトルを処理する。
好ましい実施形態において、音楽音響分析方法1の第2アルゴリズム6のステップb5)、すなわち、与えられた楽曲のデータ8の調性の中心音の変化を表すデータ7を抽出するステップは、以下のようにして実行される。
p(Tcl, Tc2, …, Tcn|Obsl, Obs2, …, Obsn)
これは、p(Tc1, Tc2, …, Tcn, Obsl, Obs2, …, Obsn)≒ Πt p(Tct|Obst)p(Tct|Tct-1)のような、最も確からしいシーケンスを見つけることと等価である。
ステップc)
図4を再び参照すると、第3のアルゴリズム8は、第3のデータ9を生成するように、第2データ7に依存して第1データ5を基準ピッチに移調するステップcl)を備えている。
・デジタル音楽音響信号2を処理するためのプロセッサユニット18
・同様のまたは異なる音楽イベントの代表イベントが記憶されるデータベース19(このようなイベントは、元々の音楽イベントの既知である開始点に対応している)。データベース19は、プロセッサユニット18と信号通信を行う。
US2008245215には、次のような信号処理装置が開示されている。該装置は、ステレオ信号の形式において音信号から、左右間の中心に位置する音の成分である中心成分を除去する除去手段と、中心成分が除去された音信号から、所定範囲内にある12平均律の様々なトーンの音特徴を表す第1特徴量を抽出する抽出手段と、第1特徴量を用いて所定範囲内にあるコードを判定する判定手段と、を備えている。
US6057502には、以下が開示されている。まず、音波形の時間の一部分、すなわち、短い期間がFFT処理によって解析され、複数のピークエネルギーレベルを有する周波数スペクトルの形式である周波数成分となる。スペクトルの所定の周波数範囲(例えば、63.5〜2032Hz)はコード認識解析のために除去され、次に、除去された周波数スペクトルはオクターブスパンベースに畳み込まれて、音楽オクターブスパン内のスペクトルピークが増幅され、さらに、解析されたスペクトルのピーク周波数位置によって定義される基準トーンピッチと処理システムにおいて用いられる基準トーンピッチとの間の差に基づいて、周波数軸が調整され、次いで、各コードタイプの基準周波数成分パターンを用いたパターン比較により、形成されたオクターブスペクトルにおけるこれらピークの位置からコードが決定される。従って、音楽演奏時に含まれる音楽コードは、音楽演奏時の音波形から認識される。半音ベースにおけるオクターブプロファイルの周波数スペクトルにおけるピークを増幅するために、自己相関法を使用して、半音スパンの基本ユニットに関してオクターブプロファイルにおける周波数成分間の自己相関を取ることも好ましい。
Claims (18)
- デジタル音楽音響信号(2)に含まれるコードファミリプロファイル(CFP)のセットを抽出するために、前記デジタル音楽音響信号(2)を分析する音楽音響分析方法において、
a)前記デジタル音楽音響信号(2)の調性コンテキストを表す第1データ(5)を抽出するために、前記デジタル音楽音響信号(2)に第1アルゴリズム(4)を適用するステップと、
b)前記第1データ(5)に含まれる調性の中心音(Tc)を表す第2データ(7)を提供するために、前記第1データ(5)に第2アルゴリズム(6)を適用するステップと、
を備えることを特徴とする、音楽音響分析方法。 - 前記第1アルゴリズムは、
a1)複数のピーク(p1,p2,p3,…,pi)の時間位置を特定するために、前記音楽音響信号(2)におけるノート開始点のシーケンスを同定する(10)ステップと、
a2)前記音響音楽信号(2)を、期間(T)を有する複数の音響セグメント(s−on−1,s−on−2,s−on−3,…,s−on−i)に分割するステップと、各前記音響セグメントは、前記複数のピーク(p1,p2,p3,…,pi)のうちの1つを含み、
a3)所定のサブ期間(t)の間、複数のスペクトルセグメント(sp−1,sp−2,sp−3,sp−i)を得るために、各前記音響セグメント(s−on−1,s−on−2,s−on−3,s−on−i)に対して周波数解析を行うステップと、前記サブ期間(t)の長さは前記期間(T)の長さより短い、
を備えることを特徴とする、請求項1記載の音楽音響分析方法。 - 前記第1アルゴリズムは、
a4)前記第1データ(5)を提供するために、計算ネットワーク(12)により、前記複数のスペクトルセグメント(sp−1,sp−2,sp−3,…,sp−i)を処理するステップを備え、前記第1データ(5)は、「コードタイプ/ピッチクラス」ペアを記述する複数のベクトル(v1,v2,v3,…,vi)を有し、
前記複数のベクトル(v1,v2,v3,…,vi)の各ベクトルは、それぞれ前記音響セグメント(s−on−1,s−on−2,s−on−3,…,s−on−i)に関連付けられる、
ことを特徴とする、請求項2記載の音楽音響分析方法。 - 前記計算ネットワーク(12)は、訓練された機械学習アルゴリズムによって実装されていることを特徴とする、請求項3記載の音楽音響分析方法。
- 前記訓練された機械学習アルゴリズム(12)は、
手動ラベル付けされた少量の訓練データ(13)を用いる教師付き学習である第1ステップと、
ラベル付けされていない多量の訓練データのセット(14)を用いた教師なし学習である第2ステップ、の2つのステップ
で訓練されることを特徴とする、請求項4記載の音楽音響分析方法。 - 前記第2ステップは、前記第1ステップ後に得られた、前記訓練された機械学習アルゴリズム(12)の重み(ω)のセットを改良するために行われることを特徴とする、請求項5記載の音楽音響分析方法。
- 前記第1アルゴリズムは、周波数解析のステップa3)後に、
a5)各前記複数のスペクトルセグメント(sp−1,sp−2,sp−3,…,sp−i)におけるピーク(pi’,p2’,p3’,…,pi’)を強調するために、移動平均により前記複数のスペクトルセグメント(sp−1,sp−2,sp−3,…,sp−i)をフィルタリングするステップ
をさらに備えることを特徴とする、請求項3記載の音楽音響分析方法。 - 前記計算段階a4)は、2つの連続する検出されたセグメント間の、複数の各セグメントに対して行われることを特徴とする、請求項3記載の音楽音響分析方法。
- 前記周波数解析は、前記サブ期間(t)の間のみ実施され、前記サブ期間(t)は、250〜350msecの範囲であることを特徴とする、請求項2〜8記載の音楽音響分析方法。
- 前記第2アルゴリズムは、
b1)前記第1データ(5)を構成する第1の群(gl)のベクトルを含む第1の所定の期間(Tl)を有する第1の窓(w1)を提供するステップと、
b2)前記第1の窓(w1)に含まれる局所的な調性の中心音を表す第1の調性コンテキスト(Tc1)を推定するための、前記窓(w)に含まれる前記第1の群(gl)のベクトルを改良するステップと、
b3)第2の所定の期間(T2)を有する第2の窓(w2)を提供するステップと、前記第2の窓(w2)は、前記第1の窓(w1)に対して前記第2の窓(w2)が重なるような、前記第1の窓(w1)の所定のシフトされた時間(Ts)でシフトされた窓であり、第2の群(g2)のベクトルを有しており、
b4)前記第2の窓(w2)に含まれる局所的な調性の中心音を表す第2の調性コンテキスト(Tc2)を推定するために、前記第2の窓(w2)に含まれる前記第2の群(g2)のベクトルを計算するステップと、
b5)前記第2データ(7)を生成するための、前記第1の窓(w1)の前記調性コンテキスト(Tc1)および前記第2の窓(w2)の前記調性コンテキスト(Tc2)を改良するステップと、前記第2データ(7)は、前記第1データ(5)の調性の中心音の変化を表す、
を備えることを特徴とする、請求項1〜9記載の音楽音響分析方法。 - 前記第2アルゴリズムは、
b6)さらなる窓(wi)を特定するために、ステップb3)〜b5)を繰り返すステップをさらに備え、
各前記さらなる窓(wi)は、前記第1データ(5)に含まれる前記調性コンテキスト(Tc)を推定するためのベクトル群(gi)を含む、
ことを特徴とする、請求項10記載の音楽音響分析方法。 - 前記第1の所定の期間(T1)は、25〜35secの範囲で設定され、より好ましくは約30secであることを特徴とする、請求項10記載の音楽音響分析方法。
- 前記所定のシフト時間(Ts)は、10〜20secの範囲で設定され、より好ましくは約15secであり、前記第2の所定の期間(T2)は、
前記第1の所定の期間(T1)および前記所定のシフト時間(Ts)と、
前記第1の所定の期間(T1)と
の差の範囲で変化することを特徴とする、請求項10記載の音楽音響分析方法。 - 前記ステップb5)は、多層パーセプトロン(MLP)により実行されることを特徴とする、請求項10記載の音楽音響分析方法。
- 前記方法は、前記音楽音響信号(2)の特徴の前記特徴セット(CFP)を提供するために、前記第2データ(7)に依存して、第3のアルゴリズム(8)を前記第1データ(5)に適用するステップc)をさらに備えることを特徴とする、請求項1〜14記載の音楽音響分析方法。
- 前記第3のアルゴリズム(8)は、前記第1データ(5)の不変にするために、基準ピッチを前記第1データ(5)に移調するステップを備えることを特徴とする、請求項15記載の音楽音響分析方法。
- 音楽音響信号のコンテンツを表す少なくとも特徴のセットを抽出するために、音楽音響信号を分析するプログラムを備えたコンピュータプログラム製品であって、
a)音楽音響信号(2)の調性を表す第1データ(5)を抽出するために、第1アルゴリズム(4)を音楽音響信号(2)に適用するステップと、
b)前記第1データ(5)に含まれる前記調性の中心音を表す第2データ(7)を提供するために、第2アルゴリズム(6)を前記第1データ(5)に適用するステップと、
を備えた、コンピュータプログラム製品。 - 音楽音響信号のコンテンツを表す少なくとも特徴のセットを抽出するために、音楽音響信号を分析する装置であって、
デジタル音楽音響信号(2)を受け取るための入力部と、
前記デジタル音楽音響信号(2)を処理するためのプロセッサユニット(18)と、
同様のまたは異なる音楽イベントの代表イベントが記憶されるデータベース(19)と、
を備え、
前記プロセッサユニット(18)は、請求項1〜16のいずれか1項記載の音楽音響分析方法に従って、デジタル音楽音響信号(2)のコンテンツを表す特徴のセットを抽出するように構成されている、
音楽音響信号を分析する装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2008/063911 WO2010043258A1 (en) | 2008-10-15 | 2008-10-15 | Method for analyzing a digital music audio signal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012506061A true JP2012506061A (ja) | 2012-03-08 |
Family
ID=40344486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011531363A Pending JP2012506061A (ja) | 2008-10-15 | 2008-10-15 | デジタル音楽音響信号の分析方法 |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP2342708B1 (ja) |
JP (1) | JP2012506061A (ja) |
CN (1) | CN102187386A (ja) |
BR (1) | BRPI0823192A2 (ja) |
CA (1) | CA2740638A1 (ja) |
EA (1) | EA201170559A1 (ja) |
WO (1) | WO2010043258A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017215520A (ja) * | 2016-06-01 | 2017-12-07 | 株式会社Nttドコモ | 識別装置 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110254688A1 (en) * | 2010-04-15 | 2011-10-20 | Samsung Electronics Co., Ltd. | User state recognition in a wireless communication system |
US9263060B2 (en) | 2012-08-21 | 2016-02-16 | Marian Mason Publishing Company, Llc | Artificial neural network based system for classification of the emotional content of digital music |
US9257954B2 (en) * | 2013-09-19 | 2016-02-09 | Microsoft Technology Licensing, Llc | Automatic audio harmonization based on pitch distributions |
CN107135578B (zh) * | 2017-06-08 | 2020-01-10 | 复旦大学 | 基于TonaLighting调节技术的智能音乐和弦-氛围灯系统 |
US11024288B2 (en) * | 2018-09-04 | 2021-06-01 | Gracenote, Inc. | Methods and apparatus to segment audio and determine audio segment similarities |
JP7375302B2 (ja) * | 2019-01-11 | 2023-11-08 | ヤマハ株式会社 | 音響解析方法、音響解析装置およびプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1091199A (ja) * | 1996-09-18 | 1998-04-10 | Mitsubishi Electric Corp | 記録再生装置 |
JP2003005744A (ja) * | 2001-06-20 | 2003-01-08 | Yamaha Corp | 演奏タイミング抽出方法 |
JP2006202235A (ja) * | 2005-01-24 | 2006-08-03 | Nara Institute Of Science & Technology | 経時的現象発生解析装置及び経時的現象発生解析方法 |
JP2007041234A (ja) * | 2005-08-02 | 2007-02-15 | Univ Of Tokyo | 音楽音響信号の調推定方法および調推定装置 |
JP2007248610A (ja) * | 2006-03-14 | 2007-09-27 | Mitsubishi Electric Corp | 楽曲分析方法及び楽曲分析装置 |
JP2008040283A (ja) * | 2006-08-09 | 2008-02-21 | Kawai Musical Instr Mfg Co Ltd | コード名検出装置及びコード名検出用プログラム |
JP2008102405A (ja) * | 2006-10-20 | 2008-05-01 | Sony Corp | 信号処理装置および方法、プログラム、並びに記録媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6057502A (en) | 1999-03-30 | 2000-05-02 | Yamaha Corporation | Apparatus and method for recognizing musical chords |
JP4315180B2 (ja) * | 2006-10-20 | 2009-08-19 | ソニー株式会社 | 信号処理装置および方法、プログラム、並びに記録媒体 |
-
2008
- 2008-10-15 CN CN2008801315891A patent/CN102187386A/zh active Pending
- 2008-10-15 EA EA201170559A patent/EA201170559A1/ru unknown
- 2008-10-15 EP EP08875184A patent/EP2342708B1/en not_active Not-in-force
- 2008-10-15 WO PCT/EP2008/063911 patent/WO2010043258A1/en active Application Filing
- 2008-10-15 JP JP2011531363A patent/JP2012506061A/ja active Pending
- 2008-10-15 BR BRPI0823192A patent/BRPI0823192A2/pt not_active IP Right Cessation
- 2008-10-15 CA CA2740638A patent/CA2740638A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1091199A (ja) * | 1996-09-18 | 1998-04-10 | Mitsubishi Electric Corp | 記録再生装置 |
JP2003005744A (ja) * | 2001-06-20 | 2003-01-08 | Yamaha Corp | 演奏タイミング抽出方法 |
JP2006202235A (ja) * | 2005-01-24 | 2006-08-03 | Nara Institute Of Science & Technology | 経時的現象発生解析装置及び経時的現象発生解析方法 |
JP2007041234A (ja) * | 2005-08-02 | 2007-02-15 | Univ Of Tokyo | 音楽音響信号の調推定方法および調推定装置 |
JP2007248610A (ja) * | 2006-03-14 | 2007-09-27 | Mitsubishi Electric Corp | 楽曲分析方法及び楽曲分析装置 |
JP2008040283A (ja) * | 2006-08-09 | 2008-02-21 | Kawai Musical Instr Mfg Co Ltd | コード名検出装置及びコード名検出用プログラム |
JP2008102405A (ja) * | 2006-10-20 | 2008-05-01 | Sony Corp | 信号処理装置および方法、プログラム、並びに記録媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017215520A (ja) * | 2016-06-01 | 2017-12-07 | 株式会社Nttドコモ | 識別装置 |
Also Published As
Publication number | Publication date |
---|---|
CA2740638A1 (en) | 2010-04-22 |
EA201170559A1 (ru) | 2012-01-30 |
BRPI0823192A2 (pt) | 2018-10-23 |
CN102187386A (zh) | 2011-09-14 |
WO2010043258A1 (en) | 2010-04-22 |
EP2342708A1 (en) | 2011-07-13 |
EP2342708B1 (en) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6297439B1 (en) | System and method for automatic music generation using a neural network architecture | |
US6541691B2 (en) | Generation of a note-based code | |
Paiement et al. | A probabilistic model for chord progressions | |
JP5088030B2 (ja) | 演奏音の類似度を評価する方法、装置およびプログラム | |
CN109979488B (zh) | 基于重音分析的人声转乐谱系统 | |
JP7448053B2 (ja) | 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム | |
JP4815436B2 (ja) | 可変分解能により情報信号をスペクトル表現に変換する装置および方法 | |
JP2012506061A (ja) | デジタル音楽音響信号の分析方法 | |
CN112382257B (zh) | 一种音频处理方法、装置、设备及介质 | |
JP6743425B2 (ja) | 音信号処理方法および音信号処理装置 | |
Lerch | Software-based extraction of objective parameters from music performances | |
Stark | Musicians and machines: Bridging the semantic gap in live performance | |
JP4722738B2 (ja) | 楽曲分析方法及び楽曲分析装置 | |
Liang et al. | Piano legato-pedal onset detection based on a sympathetic resonance measure | |
CN112634841B (zh) | 一种基于声音识别的吉他谱自动生成方法 | |
Noland et al. | Influences of signal processing, tone profiles, and chord progressions on a model for estimating the musical key from audio | |
Eronen | Signal processing methods for audio classification and music content analysis | |
Camurri et al. | An experiment on analysis and synthesis of musical expressivity | |
Wang et al. | A framework for automated pop-song melody generation with piano accompaniment arrangement | |
JP7375302B2 (ja) | 音響解析方法、音響解析装置およびプログラム | |
JP2017161572A (ja) | 音信号処理方法および音信号処理装置 | |
JP2004531758A5 (ja) | ||
Müller et al. | Music signal processing | |
Sarkar et al. | Automatic identification of Tala from Tabla signal | |
Sauer | Design and Evaluation of a Simple Chord Detection Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130225 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130304 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130328 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130408 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130430 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130729 |