JP7006592B2 - 信号処理装置、信号処理方法および信号処理プログラム - Google Patents
信号処理装置、信号処理方法および信号処理プログラム Download PDFInfo
- Publication number
- JP7006592B2 JP7006592B2 JP2018523934A JP2018523934A JP7006592B2 JP 7006592 B2 JP7006592 B2 JP 7006592B2 JP 2018523934 A JP2018523934 A JP 2018523934A JP 2018523934 A JP2018523934 A JP 2018523934A JP 7006592 B2 JP7006592 B2 JP 7006592B2
- Authority
- JP
- Japan
- Prior art keywords
- basis
- acoustic event
- matrix
- spectral
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/0308—Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/22—Source localisation; Inverse modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Description
次に、本発明の第1の実施形態を説明する。図1は、第1の実施形態の信号処理装置110の構成例を示すブロック図である。図1に示す信号処理装置110は、検知対象とされる音響信号のスペクトログラムである識別用スペクトログラムVを入力とし、該スペクトログラムVに含まれる音響イベントの識別結果を示す音響イベントラベルを出力する音響イベント識別装置として機能する装置である。なお、いずれの音響イベントも含まれていない場合は、その旨を示す識別結果が出力される。
次に、本発明の第2の実施形態について説明する。図3は、第2の実施形態の信号処理装置200の構成例を示すブロック図である。図3に示す信号処理装置200は、第1の実施形態の信号処理装置110の構成に加えて、基底生成部10と、学習データ分析部12と、モデル学習部13とをさらに備えている。なお、図3には、信号処理装置200が、第1の実施形態の信号処理装置110が備える各要素(符号111~114)を、音響イベント識別部11の各要素として含む例が示されている。
本例の基底生成処理では、まず信号処理装置200に基底生成用スペクトログラムVbaseが入力される(ステップS211)。
次に、本発明の第3の実施形態について説明する。図7は、第3の実施形態の信号処理装置100の構成例を示すブロック図である。図7に示す信号処理装置100は、基底生成用スペクトログラムVbaseを入力とし、予め保持されている事前分布W0を制約として、Vbaseを構成するスペクトル基底行列Wを生成する基底生成装置として機能する。
したがって、例えば、第2の実施形態の構成において、基底生成部10に代えて本実施形態の信号処理装置100を用いれば、音響イベントに対応するアクティベーションHeを精度よく推定でき、音響イベントの識別精度を向上できる。
次に、本発明の第4の実施形態について説明する。図9は、第4の実施形態の信号処理装置400の構成例を示すブロック図である。図9に示す信号処理装置400は、第2の実施形態の構成における基底生成部10に代えて、基底生成部40を含む。なお、基底生成部40の構成は、図7に示す第3の実施形態の信号処理装置100の構成に、さらに分布解析部103を加えたものと同様である。
次に、本発明の第5の実施形態を説明する。図11は、本実施形態の信号処理装置500の構成例を示すブロック図である。図11に示す信号処理装置500は、基底生成部50と、学習データ分析部52と、モデル学習部53と、音響イベント識別部51とを備える。
ここで、Hg(gr,j)の列ベクトルh j は、hj (r)におけるr=1~Rとして各hj (r)を行方向に連結したものに相当する。
次に、本発明の第6の実施形態を説明する。図12は、本実施形態の信号処理装置600の構成例を示すブロック図である。図12に示す信号処理装置600は、分布解析部61と、事前分布格納部62と、音源分離部63と、音源再構築部64とを備える。
Vn=WnHn ・・・(g-3)
10、40、50 基底生成部
101、501 事前分布格納部
102、502 基底信号分析部
103、503 分布解析部
11、51 音響イベント識別部
111、511 基底格納部
112、512 識別信号分析部
113、513 モデル格納部
114、514 信号識別部
12、52 学習データ分析部
13、53 モデル学習部
61 分布解析部
62 事前分布格納部
63 音源分離部
64 音源再構築部
Claims (9)
- 検知対象とされる音響イベントのスペクトル基底の集合である音響イベント基底群を格納する基底格納手段と、
音響信号のスペクトログラムの時間区間中の音響イベントのスペクトル基底の発現度合いの組み合わせを特徴量として、前記音響信号に含まれる音響イベントを識別する識別モデルを格納するモデル格納手段と、
識別用音響信号のスペクトログラムが入力されると、当該スペクトログラムに対して、前記音響イベント基底群に検知対象とされる音響イベント以外の音響イベントである未知の音響イベントに対応するスペクトル基底を加えたスペクトル基底集合を用い、かつそのうちの前記未知のスペクトル基底のみを学習させて音源分離を行い、前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いを算出する識別信号分析手段と、
算出された前記発現度合いの組み合わせを基に、前記識別モデルを用いて、前記識別用音響信号に含まれる音響イベントを識別する信号識別手段と、を備え、
前記識別信号分析手段は、識別用音響信号のスペクトログラムに対して、前記音響イベント基底群を表す所定形式の第1基底行列に前記未知の音響イベントのスペクトル基底群を表す第2基底行列を加えた第3基底行列のうちの前記第2基底行列と、前記第1基底行列に対応する第1アクティベーション行列に、前記第2基底行列に対応する第2アクティベーション行列を加えた第3アクティベーション行列とを学習させて、当該スペクトログラムを、前記第3基底行列と前記第3基底行列の各スペクトル基底の発現度合いを表すアクティベーション行列とに分解し、入力されたスペクトログラムにマッチするように、前記第2基底行列と前記第3アクティベーション行列の値を最適化するよう更新し、最適化された前記第2基底行列と前記第3アクティベーション行列から、前記第1基底行列の各スペクトル基底の発現度合いを表す第1アクティベーション行列を算出し、
前記信号識別手段は、算出された前記第1アクティベーション行列によって示される前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いの組み合わせを基に、前記識別モデルを用いて、前記識別用音響信号に含まれる音響イベントを識別する
ことを特徴とする信号処理装置。 - 基底生成用のスペクトログラムを入力として音響イベント基底群を生成する基底生成手段と、
対応する音響イベントを示すラベル付きのスペクトログラムが入力されると、前記基底生成手段によって生成された音響イベント基底群を用いて、前記ラベル付きスペクトログラムから前記音響イベントのスペクトル基底の発現度合いを算出して、識別モデルを学習するモデル学習手段と
を備えた請求項1に記載の信号処理装置。 - 検知対象とされる音響イベントのスペクトル基底の代表的なスペクトル形状を示す事前分布の集合である事前分布群を格納する事前分布格納手段を備え、
前記基底生成手段は、前記事前分布群に含まれる各事前分布を、対応する音響イベントのスペクトル基底の制約として用いて、基底生成用のスペクトログラムに対して音源分離を行い、音響イベント基底群を生成する
請求項2に記載の信号処理装置。 - 音響イベント基底群は、音響イベントを構成する音の代表的なスペクトル形状ごとに2以上のスペクトル基底がグループ化されたサブ集合の集合である
請求項1から3のうちのいずれか1つに記載の信号処理装置。 - 音響イベント基底群は、音響イベントを構成する音の代表的なスペクトル形状ごとに2以上のスペクトル基底がグループ化されたサブ集合の集合であり、
前記モデル学習手段は、対応する音響イベントを示すラベル付きスペクトログラムを、音響イベント基底群を表す第1基底行列と前記第1基底行列の各スペクトル基底の発現度合いを表す第1アクティベーション行列とに分解する処理において、グループごとに、当該グループに含まれるスペクトル基底の発現度合いの集合を表すアクティベーション群に対して、更新の際に更新前の値が大きければ更新後の値も大きく、更新前の値が小さければ更新後の値も小さくなるようなスパース制約を課して分解することにより、前記第1アクティベーション行列を算出し、算出された前記第1アクティベーション行列によって示される前記識別用音響信号のスペクトログラムの時間区間中の前記音響イベント基底群に含まれる各スペクトル基底の発現度合いの組み合わせを特徴量として、識別モデルを学習する請求項2に記載の信号処理装置。 - 音響イベント基底群は、音響イベントを構成する音の代表的なスペクトル形状ごとに2以上のスペクトル基底がグループ化されたサブ集合の集合であり、
前記基底生成手段は、前記事前分布群に含まれる各事前分布を、対応する代表的なスペクトル形状のグループに含まれるスペクトル基底の制約として用い、かつグループごとに、当該グループに含まれるスペクトル基底の発現度合いの集合を表すアクティベーション群に対して、更新の際に更新前の値が大きければ更新後の値も大きく、更新前の値が小さければ更新後の値も小さくなるようなスパース制約を用いて、基底生成用のスペクトログラムに対して音源分離を行い、音響イベント基底群を生成する請求項3に記載の信号処理装置。 - 音響イベント基底群に含まれる音響イベントごとのサブ集合には、当該音響イベントを構成する音の代表的なスペクトル形状に対して異なるバリエーションまたは揺らぎが表現された2以上のスペクトル基底が含まれる請求項4から6のうちのいずれかに記載の信号処理装置。
- 識別用音響信号のスペクトログラムが入力されると、当該スペクトログラムに対して、検知対象とされる音響イベントのスペクトル基底の集合である音響イベント基底群に検知対象とされる音響イベント以外の音響イベントである未知の音響イベントに対応するスペクトル基底を加えたスペクトル基底集合を用い、かつそのうちの前記未知のスペクトル基底のみを学習させて音源分離を行い、前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いを算出し、
算出された前記発現度合いの組み合わせを基に、音響信号のスペクトログラムの時間区間中の前記音響イベント基底群に含まれる各スペクトル基底の発現度合いの組み合わせを特徴量として前記音響信号に含まれる音響イベントを識別する識別モデルを用いて、前記識別用音響信号に含まれる音響イベントを識別する方法であり、
前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いを算出する方法は、識別用音響信号のスペクトログラムに対して、前記音響イベント基底群を表す所定形式の第1基底行列に前記未知の音響イベントのスペクトル基底群を表す第2基底行列を加えた第3基底行列のうちの前記第2基底行列と、前記第1基底行列に対応する第1アクティベーション行列に、前記第2基底行列に対応する第2アクティベーション行列を加えた第3アクティベーション行列とを学習させて、当該スペクトログラムを前記第3基底行列と前記第3基底行列の各スペクトル基底の発現度合いを表すアクティベーション行列とに分解し、入力されたスペクトログラムにマッチするように、前記第2基底行列と前記第3アクティベーション行列の値を最適化するよう更新し、最適化された前記第2基底行列と前記第3アクティベーション行列から、前記第1基底行列の各スペクトル基底の発現度合いを表す第1アクティベーション行列を算出するものであり、
前記識別用音響信号に含まれる音響イベントを識別する方法は、算出された前記第1アクティベーション行列によって示される前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いの組み合わせを基に、前記識別モデルを用いて、前記識別用音響信号に含まれる音響イベントを識別するものである
ことを特徴とする信号処理方法。 - コンピュータに、
識別用音響信号のスペクトログラムが入力されると、当該スペクトログラムに対して、検知対象とされる音響イベントのスペクトル基底の集合である音響イベント基底群に検知対象とされる音響イベント以外の音響イベントである未知の音響イベントに対応するスペクトル基底を加えたスペクトル基底集合を用い、かつそのうちの前記未知のスペクトル基底のみを学習させて音源分離を行い、前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いを算出する処理、および
算出された前記発現度合いの組み合わせを基に、音響信号のスペクトログラムの時間区間中の前記音響イベント基底群に含まれる各スペクトル基底の発現度合いの組み合わせを特徴量として前記音響信号に含まれる音響イベントを識別する識別モデルを用いて、前記識別用音響信号に含まれる音響イベントを識別する処理を実行させるための信号処理プログラムであって、
前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いを算出する処理は、識別用音響信号のスペクトログラムに対して、前記音響イベント基底群を表す所定形式の第1基底行列に前記未知の音響イベントのスペクトル基底群を表す第2基底行列を加えた第3基底行列のうちの前記第2基底行列と、前記第1基底行列に対応する第1アクティベーション行列に、前記第2基底行列に対応する第2アクティベーション行列を加えた第3アクティベーション行列とを学習させて、当該スペクトログラムを前記第3基底行列と前記第3基底行列の各スペクトル基底の発現度合いを表すアクティベーション行列とに分解し、入力されたスペクトログラムにマッチするように、前記第2基底行列と前記第3アクティベーション行列の値を最適化するよう更新し、最適化された前記第2基底行列と前記第3アクティベーション行列から、前記第1基底行列の各スペクトル基底の発現度合いを表す第1アクティベーション行列を算出するものであり、
前記識別用音響信号に含まれる音響イベントを識別する方法は、算出された前記第1アクティベーション行列によって示される前記識別用音響信号のスペクトログラムにおける前記音響イベントのスペクトル基底の発現度合いの組み合わせを基に、前記識別モデルを用いて、前記識別用音響信号に含まれる音響イベントを識別するものである
ことを特徴とする信号処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120126 | 2016-06-16 | ||
JP2016120126 | 2016-06-16 | ||
PCT/JP2017/021826 WO2017217412A1 (ja) | 2016-06-16 | 2017-06-13 | 信号処理装置、信号処理方法およびコンピュータ読み取り可能記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017217412A1 JPWO2017217412A1 (ja) | 2019-04-18 |
JP7006592B2 true JP7006592B2 (ja) | 2022-01-24 |
Family
ID=60664612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523934A Active JP7006592B2 (ja) | 2016-06-16 | 2017-06-13 | 信号処理装置、信号処理方法および信号処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10817719B2 (ja) |
JP (1) | JP7006592B2 (ja) |
WO (1) | WO2017217412A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020087372A1 (zh) * | 2018-10-31 | 2020-05-07 | 深圳市大疆创新科技有限公司 | 撞击物识别方法、系统及存储介质 |
JP7266390B2 (ja) * | 2018-11-20 | 2023-04-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 行動識別方法、行動識別装置、行動識別プログラム、機械学習方法、機械学習装置及び機械学習プログラム |
BR112021025892A2 (pt) * | 2019-06-28 | 2022-02-08 | Nec Corp | Aparelho de detecção de falsificação, método de detecção de falsificação e meio de armazenamento legível por computador |
CN111933113B (zh) * | 2020-09-29 | 2021-03-02 | 北京捷通华声科技股份有限公司 | 一种语音识别的方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012163918A (ja) | 2011-02-09 | 2012-08-30 | Sony Corp | 音声信号処理装置、および音声信号処理方法、並びにプログラム |
JP2013142870A (ja) | 2012-01-12 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | 特定状況モデルデータベース作成装置とその方法と、特定要素音モデルデータベース作成装置と状況推定装置と発呼適否通知装置とプログラム |
WO2014079484A1 (en) | 2012-11-21 | 2014-05-30 | Huawei Technologies Co., Ltd. | Method for determining a dictionary of base components from an audio signal |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6109927B2 (ja) * | 2012-05-04 | 2017-04-05 | カオニックス ラブス リミテッド ライアビリティ カンパニー | 源信号分離のためのシステム及び方法 |
US10497381B2 (en) * | 2012-05-04 | 2019-12-03 | Xmos Inc. | Methods and systems for improved measurement, entity and parameter estimation, and path propagation effect measurement and mitigation in source signal separation |
US9183849B2 (en) * | 2012-12-21 | 2015-11-10 | The Nielsen Company (Us), Llc | Audio matching with semantic audio recognition and report generation |
JP2014164126A (ja) | 2013-02-25 | 2014-09-08 | Nippon Telegr & Teleph Corp <Ntt> | 音響信号分析方法、装置、及びプログラム |
JP6085538B2 (ja) * | 2013-09-02 | 2017-02-22 | 本田技研工業株式会社 | 音響認識装置、音響認識方法、及び音響認識プログラム |
JP6195548B2 (ja) | 2014-08-19 | 2017-09-13 | 日本電信電話株式会社 | 信号解析装置、方法、及びプログラム |
EP3093846A1 (en) * | 2015-05-12 | 2016-11-16 | Nxp B.V. | Accoustic context recognition using local binary pattern method and apparatus |
US9805739B2 (en) * | 2015-05-15 | 2017-10-31 | Google Inc. | Sound event detection |
US9368110B1 (en) * | 2015-07-07 | 2016-06-14 | Mitsubishi Electric Research Laboratories, Inc. | Method for distinguishing components of an acoustic signal |
US10650842B2 (en) * | 2015-09-16 | 2020-05-12 | Nec Corporation | Signal detection device, signal detection method, and signal detection program |
US10014003B2 (en) * | 2015-10-12 | 2018-07-03 | Gwangju Institute Of Science And Technology | Sound detection method for recognizing hazard situation |
-
2017
- 2017-06-13 WO PCT/JP2017/021826 patent/WO2017217412A1/ja active Application Filing
- 2017-06-13 JP JP2018523934A patent/JP7006592B2/ja active Active
- 2017-06-13 US US16/309,521 patent/US10817719B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012163918A (ja) | 2011-02-09 | 2012-08-30 | Sony Corp | 音声信号処理装置、および音声信号処理方法、並びにプログラム |
JP2013142870A (ja) | 2012-01-12 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | 特定状況モデルデータベース作成装置とその方法と、特定要素音モデルデータベース作成装置と状況推定装置と発呼適否通知装置とプログラム |
WO2014079484A1 (en) | 2012-11-21 | 2014-05-30 | Huawei Technologies Co., Ltd. | Method for determining a dictionary of base components from an audio signal |
Non-Patent Citations (1)
Title |
---|
Tatsuya KOMATSU, et al.,ACOUSTIC EVENT DETECTION BASED ON NON-NEGATIVE MATRIX FACTORIZATION WITH MIXTURES OF LOCAL DICTIONARIES AND ACTIVATION AGGREGATION,Proc. ICASSP 2016,中国,IEEE,2016年03月,pp. 2259-2263 |
Also Published As
Publication number | Publication date |
---|---|
WO2017217412A1 (ja) | 2017-12-21 |
JPWO2017217412A1 (ja) | 2019-04-18 |
US10817719B2 (en) | 2020-10-27 |
US20190188468A1 (en) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7006592B2 (ja) | 信号処理装置、信号処理方法および信号処理プログラム | |
Benetos et al. | Detection of overlapping acoustic events using a temporally-constrained probabilistic model | |
JP6911854B2 (ja) | 信号処理装置、信号処理方法および信号処理プログラム | |
JP2014164126A (ja) | 音響信号分析方法、装置、及びプログラム | |
JP6747447B2 (ja) | 信号検知装置、信号検知方法、および信号検知プログラム | |
CN110534091A (zh) | 一种基于微服务器及智能语音识别的人车交互方法 | |
CN111488486B (zh) | 一种基于多音源分离的电子音乐分类方法及系统 | |
US10431191B2 (en) | Method and apparatus for analyzing characteristics of music information | |
JP6499095B2 (ja) | 信号処理方法、信号処理装置及び信号処理プログラム | |
CN113380268A (zh) | 模型训练的方法、装置和语音信号的处理方法、装置 | |
Sheng et al. | Feature design using audio decomposition for intelligent control of the dynamic range compressor | |
O'Hanlon et al. | Improved template based chord recognition using the CRP feature | |
JP6911930B2 (ja) | 信号処理装置、信号処理方法およびプログラム | |
US11200882B2 (en) | Signal processing device, signal processing method, and storage medium for storing program | |
Anderson | Musical instrument classification utilizing a neural network | |
Xie et al. | Acoustic features for multi-level classification of Australian frogs | |
Nguyen et al. | Improving mix-and-separate training in audio-visual sound source separation with an object prior | |
Vieira et al. | Automatic classification of instruments from supervised methods of machine learning | |
CN116189636B (zh) | 基于电子乐器的伴奏生成方法、装置、设备及存储介质 | |
Grigore et al. | Self-organizing maps for identifying impaired speech | |
JP2010197596A (ja) | 信号解析装置、信号解析方法、プログラム、及び記録媒体 | |
Gonçalves et al. | Instrumentals/Songs Separation for Background Music Removal | |
Seyedin et al. | Discriminative sparse-based feature extraction and dictionary learning for sound classification applications | |
Dhole et al. | Support Vector Machine Classification of Stress Types in Speech | |
Ma | Monaural source separation in the wild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210930 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210930 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211011 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211012 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211021 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211220 |