JP2017161574A - 音信号処理方法および音信号処理装置 - Google Patents
音信号処理方法および音信号処理装置 Download PDFInfo
- Publication number
- JP2017161574A JP2017161574A JP2016043219A JP2016043219A JP2017161574A JP 2017161574 A JP2017161574 A JP 2017161574A JP 2016043219 A JP2016043219 A JP 2016043219A JP 2016043219 A JP2016043219 A JP 2016043219A JP 2017161574 A JP2017161574 A JP 2017161574A
- Authority
- JP
- Japan
- Prior art keywords
- sound signal
- similarity
- input sound
- unit
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 139
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000001228 spectrum Methods 0.000 claims abstract description 62
- 230000033764 rhythmic process Effects 0.000 claims abstract description 49
- 238000004364 calculation method Methods 0.000 claims description 100
- 239000011159 matrix material Substances 0.000 claims description 90
- 238000010606 normalization Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 description 32
- 230000010365 information processing Effects 0.000 description 26
- 239000013598 vector Substances 0.000 description 24
- 238000000034 method Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 14
- 230000010354 integration Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 230000035559 beat frequency Effects 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/051—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Auxiliary Devices For Music (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
図1は、一実施形態に係る楽曲検索システム1の機能構成を例示する図である。楽曲検索システム1は、複数の楽曲データをあらかじめ記憶している。処理対象となる楽曲(検索キーとなる楽曲)の音の入力が受け付けられると(以下、この音を「入力音」といい、入力音を示す信号を「入力音信号」という)、楽曲検索システム1は、記憶している楽曲の中から、入力音と類似している楽曲を検索する。
2−1.概要
図8は、楽曲検索システム1の動作の概要を示すフローチャートである。図8のフローは、例えば、ユーザーが楽曲の検索開始の指示を入力したことを契機として開始される。ステップS1において、取得手段11は、入力音信号を取得する。ステップS2において、特定手段12は、対象区間特定処理を行う。ステップS3において、類似度計算手段13は、NMFによる類似度計算を行う。ステップS4において、類似度計算手段15は、ビートスペクトルによる類似度計算を行う。ステップS5において、統合手段16は、NMFによる類似度およびビートスペクトルによる類似度を統合する。ステップS6において、選択手段17は、統合された類似度に基づいて楽曲を選択する。ステップS7において、出力手段18は、選択された楽曲を出力する。すなわち、出力手段18は、入力音に似た伴奏音を出力する。以下、各処理の詳細を説明する。
ステップS3およびS4における類似度の計算は、入力音信号の全体を対象に行われてもよい。しかし、入力音信号の全体を対象とすると、以下の問題点がある。まず第1に、入力音信号の全体を対象とすると、計算にその分の時間を要する点である。第2に、入力音信号のうち、いわゆるイントロやアウトロ(エンディング)にはリズムが無い箇所が含まれている場合があり、このような部分まで含めて類似度を計算すると、類似度の信頼性が低下してしまうという点である。本実施形態においては、この点に対処するため、入力音信号のうち類似度計算の対象となる部分を一部に限っている。
次に、ステップS3におけるNMFによる類似度計算について説明する。類似度計算の詳細を説明する前に、まずNMFの概要について説明する。NMFとは、非負値の行列を2つの非負値の行列の積に分解する低ランク近似アルゴリズムである。非負値行列とは、その成分が全て非負値(すなわちゼロまたは正値)である行列をいう。一般にNMFは次式(1)で表される。
図16は、ステップS4におけるビートスペクトルによる類似度計算の詳細を例示するフローチャートである。ビートスペクトルとは、スペクトル上の繰り返しパターンを捉えた特徴量であり、何らかのスペクトログラム的な特徴量の時間領域の自己相関により計算される。この例では、スペクトル差分の自己相関により計算される。
ステップS5における類似度の統合は、詳細には以下のように行われる。この例では、NMFにより2つの類似度(音色類似度およびリズム類似度)が、ビートスペクトルにより1つの類似度(リズム類似度)が得られている。これらの類似度は、共通のスケールに正規化されている(例えば、類似度最低がゼロ、類似度最高が1)。
Di=2・DtN+DrN+Drb …(3)
ここで、DtNおよびDrNはNMFにより得られた音色類似度およびリズム類似度を、Drbはビートスペクトルにより得られたリズム類似度を、それぞれ示している。この例によれば、NMFによる類似度とビートスペクトルによる類似度とが同じ重みで評価される。統合された類似度は、複数の伴奏データの各々について計算される。
本発明は上述の実施形態に限定されるものではなく種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
Claims (3)
- 入力音信号を取得するステップと、
前記入力音信号から単位時間あたりのビート数を取得するステップと、
前記入力音信号を前記単位時間あたりのビート数で正規化するステップと、
前記正規化された入力音信号のビートスペクトルを計算するステップと、
前記正規化された入力音信号のビートスペクトルと、参照音信号から計算された正規化されたビートスペクトルとのリズム類似度を計算するステップと
を有する音信号処理方法。 - 非負値行列因子分解を用いて、前記入力音信号と前記参照音信号との第2類似度を計算するステップと、
前記リズム類似度および前記第2類似度を統合するステップと
を有する請求項1に記載の音信号処理方法。 - 入力音信号を取得する取得手段と、
前記入力音信号から単位時間あたりのビート数を取得するBPM取得手段と、
前記入力音信号を前記単位時間あたりのビート数で正規化する正規化手段と、
前記正規化された入力音信号のビートスペクトルを計算するBS計算手段と、
前記正規化された入力音信号のビートスペクトルと、参照音信号から計算された正規化されたビートスペクトルとを比較し、リズム類似度を計算するリズム類似度計算手段と
を有する音信号処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043219A JP6743425B2 (ja) | 2016-03-07 | 2016-03-07 | 音信号処理方法および音信号処理装置 |
PCT/JP2017/009074 WO2017154928A1 (ja) | 2016-03-07 | 2017-03-07 | 音信号処理方法および音信号処理装置 |
US16/123,478 US10297241B2 (en) | 2016-03-07 | 2018-09-06 | Sound signal processing method and sound signal processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043219A JP6743425B2 (ja) | 2016-03-07 | 2016-03-07 | 音信号処理方法および音信号処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017161574A true JP2017161574A (ja) | 2017-09-14 |
JP6743425B2 JP6743425B2 (ja) | 2020-08-19 |
Family
ID=59789464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016043219A Active JP6743425B2 (ja) | 2016-03-07 | 2016-03-07 | 音信号処理方法および音信号処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10297241B2 (ja) |
JP (1) | JP6743425B2 (ja) |
WO (1) | WO2017154928A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10586519B2 (en) * | 2018-02-09 | 2020-03-10 | Yamaha Corporation | Chord estimation method and chord estimation apparatus |
JP7266390B2 (ja) * | 2018-11-20 | 2023-04-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 行動識別方法、行動識別装置、行動識別プログラム、機械学習方法、機械学習装置及び機械学習プログラム |
US20220309097A1 (en) * | 2019-04-26 | 2022-09-29 | Sony Group Corporation | Information processing apparatus and method, and program |
US10607500B1 (en) * | 2019-05-21 | 2020-03-31 | International Business Machines Corporation | Providing background music tempo to accompany procedural instructions |
WO2021059473A1 (ja) * | 2019-09-27 | 2021-04-01 | ヤマハ株式会社 | 音響解析方法、音響解析装置およびプログラム |
CN112466267B (zh) * | 2020-11-24 | 2024-04-02 | 瑞声新能源发展(常州)有限公司科教城分公司 | 振动生成方法、振动控制方法及其相关设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003330460A (ja) * | 2002-05-01 | 2003-11-19 | Fuji Xerox Co Ltd | 少なくとも2つのオーディオ・ワークの比較方法、少なくとも2つのオーディオ・ワークの比較方法をコンピュータに実現させるためのプログラム、及び、オーディオ・ワークのビートスペクトルの決定方法 |
JP2008275975A (ja) * | 2007-05-01 | 2008-11-13 | Kawai Musical Instr Mfg Co Ltd | リズム検出装置及びリズム検出用コンピュータ・プログラム |
JP2011221156A (ja) * | 2010-04-07 | 2011-11-04 | Yamaha Corp | 楽曲解析装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6542869B1 (en) * | 2000-05-11 | 2003-04-01 | Fuji Xerox Co., Ltd. | Method for automatic analysis of audio including music and speech |
US7812241B2 (en) * | 2006-09-27 | 2010-10-12 | The Trustees Of Columbia University In The City Of New York | Methods and systems for identifying similar songs |
US9093056B2 (en) * | 2011-09-13 | 2015-07-28 | Northwestern University | Audio separation system and method |
JP5962218B2 (ja) * | 2012-05-30 | 2016-08-03 | 株式会社Jvcケンウッド | 曲順決定装置、曲順決定方法、および曲順決定プログラム |
US9449646B2 (en) * | 2013-06-10 | 2016-09-20 | Htc Corporation | Methods and systems for media file management |
JP6197569B2 (ja) | 2013-10-17 | 2017-09-20 | ヤマハ株式会社 | 音響解析装置 |
JP6252147B2 (ja) | 2013-12-09 | 2017-12-27 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
-
2016
- 2016-03-07 JP JP2016043219A patent/JP6743425B2/ja active Active
-
2017
- 2017-03-07 WO PCT/JP2017/009074 patent/WO2017154928A1/ja active Application Filing
-
2018
- 2018-09-06 US US16/123,478 patent/US10297241B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003330460A (ja) * | 2002-05-01 | 2003-11-19 | Fuji Xerox Co Ltd | 少なくとも2つのオーディオ・ワークの比較方法、少なくとも2つのオーディオ・ワークの比較方法をコンピュータに実現させるためのプログラム、及び、オーディオ・ワークのビートスペクトルの決定方法 |
JP2008275975A (ja) * | 2007-05-01 | 2008-11-13 | Kawai Musical Instr Mfg Co Ltd | リズム検出装置及びリズム検出用コンピュータ・プログラム |
JP2011221156A (ja) * | 2010-04-07 | 2011-11-04 | Yamaha Corp | 楽曲解析装置 |
Non-Patent Citations (2)
Title |
---|
JONATHAN FOOTE, SHINGO UCHIHASHI: "The Beat Spectrum: A New Approach To Rhythm Analysis", 2001 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, JPN6017018665, 20 October 2003 (2003-10-20), US, pages 1088 - 1091, ISSN: 0004171838 * |
川渕 将太, 外1名: "NMFを利用した楽曲間類似尺度の構成方法に関する検討", 日本音響学会 2011年 春季研究発表会講演論文集CD−ROM[CD−ROM], JPN6017018663, 2 March 2011 (2011-03-02), JP, pages 1035 - 1036, ISSN: 0004171837 * |
Also Published As
Publication number | Publication date |
---|---|
US10297241B2 (en) | 2019-05-21 |
US20190005935A1 (en) | 2019-01-03 |
WO2017154928A1 (ja) | 2017-09-14 |
JP6743425B2 (ja) | 2020-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6743425B2 (ja) | 音信号処理方法および音信号処理装置 | |
US7273978B2 (en) | Device and method for characterizing a tone signal | |
JP4465626B2 (ja) | 情報処理装置および方法、並びにプログラム | |
JP4665836B2 (ja) | 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム | |
JP6019858B2 (ja) | 楽曲解析装置および楽曲解析方法 | |
CN109979488B (zh) | 基于重音分析的人声转乐谱系统 | |
JP4815436B2 (ja) | 可変分解能により情報信号をスペクトル表現に変換する装置および方法 | |
Benetos et al. | Joint multi-pitch detection using harmonic envelope estimation for polyphonic music transcription | |
Miron et al. | Monaural score-informed source separation for classical music using convolutional neural networks | |
JP4613923B2 (ja) | 楽音処理装置およびプログラム | |
JP5127982B2 (ja) | 音楽検索装置 | |
Wu et al. | Polyphonic pitch estimation and instrument identification by joint modeling of sustained and attack sounds | |
Osmalsky et al. | Neural networks for musical chords recognition | |
US20230186877A1 (en) | Musical piece structure analysis device and musical piece structure analysis method | |
JP2012506061A (ja) | デジタル音楽音響信号の分析方法 | |
Cogliati et al. | Piano music transcription modeling note temporal evolution | |
JP2017161572A (ja) | 音信号処理方法および音信号処理装置 | |
CN113196381A (zh) | 音响解析方法以及音响解析装置 | |
Laroche et al. | Hybrid projective nonnegative matrix factorization with drum dictionaries for harmonic/percussive source separation | |
Ozaslan et al. | Legato and glissando identification in classical guitar | |
JP6733487B2 (ja) | 音響解析方法および音響解析装置 | |
JP2017161573A (ja) | 音信号処理方法および音信号処理装置 | |
JP4926044B2 (ja) | 音信号の特徴を記述する装置および方法 | |
Özaslan et al. | Identifying attack articulations in classical guitar | |
Yanchenko et al. | Hierarchical multidimensional scaling for the comparison of musical performance styles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200713 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6743425 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |