JP2021092695A - 音源分離装置、音源分離方法、およびプログラム - Google Patents
音源分離装置、音源分離方法、およびプログラム Download PDFInfo
- Publication number
- JP2021092695A JP2021092695A JP2019223975A JP2019223975A JP2021092695A JP 2021092695 A JP2021092695 A JP 2021092695A JP 2019223975 A JP2019223975 A JP 2019223975A JP 2019223975 A JP2019223975 A JP 2019223975A JP 2021092695 A JP2021092695 A JP 2021092695A
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- sound
- acoustic signal
- topic
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
また、上述した(2)によれば、潜在的ディリクレ配分法によって共通成分を抽出するようにしたので、精度良く所望の音源を取り出すことができる。
また、上述した(3)によれば、収音音響信号を音のトピックに分類して、一致しているトピックを共通成分をとして抽出するようにしたので、精度良く所望の音源を取り出すことができる。
また、上述した(4)によれば、収音音響信号をセグメントに分け、セグメント毎に音のトピックに分類して、一致しているトピックを共通成分をとして抽出するようにしたので、精度良く所望の音源を取り出すことができる。
また、上述した(5)によれば、同時刻のセグメントごとのトピック分布を比較し,少なくとも2つのマイクロホンアレイでアクティブになっているトピックを抽出して共通成分を抽出するようにしたので、精度良く所望の音源を取り出すことができる。
また、上述した(6)によれば、ビームフォーミングによって分離された収音音響信号に含まれている共通成分を抽出するようにしたので、同方向に複数の音源が存在する場合であっても、所望の音源を取り出すことができる。
また、上述した(7)によれば、音源定位処理と音源分離処理によって収音音響信号から分離信号を分離し、分離信号に含まれている共通成分を抽出するようにしたので、同方向に複数の音源が存在する場合であっても、所望の音源を取り出すことができる。
まず、実施形態の概要を説明する。図1は、実施形態に係る分離対象の音源の位置例とマイクロホンアレイの配置例を示す図である。
図1に示す例では、4人の話者の音源S0〜S3のうち、音源S0を注目音源とする。符号MA1〜MA3は、マイクロホンアレイである。マイクロホンアレイMA1によって収音された音響信号を分離した分離音には音源S0とS1が含まれる。マイクロホンアレイMA2によって収音された音響信号を分離した分離音には音源S0とS2が含まれる。マイクロホンアレイMA3によって収音された音響信号を分離した分離音には音源S0とS3が含まれる。
第1実施形態では、音源方向が既知であり、ビームフォーミング法によって音源方向の音響信号を収音して分離する例を説明する。
まず、本実施形態の音源分離装置1の構成例を説明する。
図2は、本実施形態に係る音源分離装置1の構成例を示すブロック図である。図2に示すように、音源分離装置1は、収音部2、および処理部3を備える。
収音部2は、第1マイクロホンアレイ2−1、第2マイクロホンアレイ2−2、および第3マイクロホンアレイ2−3を備える。なお、図2に示す構成では、収音部2が3つのマイクロホンアレイを備える例を説明するが、マイクロホンアレイの数は2つ以上であればよい。
処理部3は、ビームフォーミング制御部30、取得部31、変換部34、分類部35、除去部36、抽出部37、逆変換部38、および出力部39を備える。
次に、音源分離装置1の各部の動作と機能例を説明する。
第1マイクロホンアレイ2−1、第2マイクロホンアレイ2−2、および第3マイクロホンアレイ2−3それぞれは、処理部3のビームフォーミング制御部30に応じて、既知の音源方向にビームを形成する。第1マイクロホンアレイ2−1、第2マイクロホンアレイ2−2、および第3マイクロホンアレイ2−3それぞれは、P(Pは2以上の整数)個ずつのマイクロホンを備えるマイクロホンアレイである。第1マイクロホンアレイ2−1、第2マイクロホンアレイ2−2、および第3マイクロホンアレイ2−3それぞれは、収音した音響信号を処理部3に出力する。なお、各マイクロホンアレイが出力する音響信号には、マイクロホンアレイを識別するための識別情報が含まれている。なお、各マイクロホンアレイが収音した音響信号は、ビームフォーミング法で既知の音源方向に形成された、例えば1つのビームによる1つの指向性マイクロホンによって収音された音響信号に相当する。なお、マイクロホンアレイそれぞれが集音する収音音響信号は、図1のように、注目音源の第1音響信号と、注目音源と同じ方向の他の音源の第2音響信号とが含まれている場合があるとする。
次に、音源分離装置1が行う処理手順例を説明する。
図3は、本実施形態に係る音源分離装置1が行う処理手順を示すフローチャートである。
次に、LDAを用いた注目音源の抽出方法を説明する。
実施形態では、複数のマイクロホンアレイでビームフォーミングして得られた注目音源方向の各分離音に対して、全ての分離音に共通する成分だけを取り出すことで注目音源が抽出する。
別の話者のスペクトルは異なるトピックに割り振られる場合は、ある時間区間で分離音のトピックが異なる場合は注目音源が存在していない。また、すべての分離音に同じトピックが割り当てられる場合は、そのトピックは注目音源である。
実施形態では、このようにしてトピックの時間同一性から注目音源のトピックを推定し,そのトピックがもつ周波数スペクトルだけを抜き出すことで共通成分を抽出する。
実施形態では、音響信号に対してLDAを適用するために、音を量子化スペクトル化する前処理を行う。
実施形態では、時間フレームごとの振幅スペクトルを一つの量子化スペクトルベクトルとみなし、例えば、k−means法のクラスタリング手法を用いて、似たような成分を持つ量子化スペクトルベクトルをいくつかのグループに分ける。
短時間フーリエ変換を音響信号Xi(t)に適用すると、時間周波数領域の振幅スペクトルYi(ω、t)∈RF×T(Rは、正の実数全体の集合)が得られる。ここで,Fは周波数ビン数を表し、Tは時間フレーム数を表す。図4のように、時間フレームごとの振幅スペクトルyi(t)を一つのベクトルとみなして量子化スペクトル化を行う。さらに、実施形態では、k−means法により、yi(t)をK個のクラスk∈{1,…,K}に分類する。図4は、周波数スペクトルの量子化スペクトル化を説明するための図である。図4において、横軸は時間フレームであり、縦軸は周波数である。
図5は、k−meansの処理手順例を示すフローチャートである。なお、iはマイクロホンアレイの番号であり、Kは量子化スペクトルのクラスタのクラスタ数である。実施形態では、周波数ベクトル成分の類似性に基づき、マイクロホンアレイi毎、時間フレームt毎にクラスkが割り当てられる。
(ステップS13)分類部35は、yitを最も近いクラスタ中心Vkに再配分する。
トピックモデルは、大量の文書データから何らかの意味情報を発見するための道具として考えられたものである。トピックモデルは、文書データの解析手法として考案されたが、その構造モデルの汎用性の高さから、画像処理やソーシャルネットワーク解析、音響信号処理などでも使われている。音響信号処理分野では、例えば信号到来方向(DOA;Direction Of Arrival)情報にトピックモデルを用いた話者推定法が考案されている。
分類部35は、このようにして得たセグメントmiに対して、それぞれに含まれる量子化スペクトルkの数を数える。分類部35は、この操作によってLDAへの頻度行列W∈R3M×K(Rは、正の実数全体の集合)を作成する。なお、頻度行列Wの行数が3Mの理由は、3つのマイクロホンアレイのセグメント全体でLDAを計算するためである。
上述したように、前処理後、除去部36は、ノイズ成分を除去する。
実施形態では、前処理で作成された頻度行列Wに対してLDAを適用する。LDAの推定法については変分ベイズ法を用いる。
なお、lはトピック番号を表し、mはセグメント番号を表し、Nmはセグメントmに含まれる量子化スペクトル数を表している。また、セグメントmのn番目の量子化スペクトルに対して、zmnはトピック番号を表し、wmnは単語番号を表す。
この生成過程では、トピック分布と量子化スペクトル分布を多項分布で表し、事前分布としてはディリクレ分布を採用する。また、α、βはそれぞれのハイパーパラメータを表す。
LDAのグラフィカルモデルは図7のようになる。図7は、LDAのグラフィカルモデルを表す図である。図7において、丸で囲われたノード(α、β、θ、φ、w、z)は未知変数を表し、四角で囲われた部分(L、N、M)は繰り返しを表す。グラフィカルモデルでは、各ノードの確率的依存関係が視覚的に表現される。
以下の説明において、トピックモデルの未知変数は、トピック集合Z、トピック分布集合Θ、量子化スペクトル分布集合Φである。
まず,トピックモデルの対数周辺尤度logp(W|α,β)の変分下限Fを次式(3)のように求める。
∂F(q(Z))/q(Z)=0を解くと、F((q(Z))を最大化するqmnlは、次式(5)のようになる。
同様に、q(Θ、Φ)に対しても、変分下限Fの最大化を行う。F(q(Θ、Φ))を、次式(6)のようにおき、式(6)の極値を求める。
(ステップS105〜S111)抽出部37は、ステップS105〜S111の処理をN回繰り返す。
(ステップS106〜S110)抽出部37は、ステップS106〜S110の処理をL回繰り返す。
(ステップS108)抽出部37は、パラメータαml new=αml new+qmnlに設定して、トピック分布の変分事後分布のパラメータを更新する。
(ステップS109)抽出部37は、パラメータβlwmn new=βlwmn new+qmnlに設定して、量子化スペクトル分布の変分事後分布のパラメータを更新する。
(ステップS111)抽出部37は、ステップS105〜S111の処理をN回繰り返した後、ステップS112の処理に進める。
(ステップS112)抽出部37は、ステップS104〜S112の処理をM回繰り返した後、ステップS113の処理に進める。
βlk=βlk newに設定して更新する。
(ステップS114)抽出部37は、終了条件を満たした後、処理を終了する。なお、終了条件は、例えば所定の範囲に収束した場合または所定回数の処理を行った場合である。
具体的には、トピック分布θimにどのトピックが含まれているかを判別するために閾値γと比較して、αimlを次式(11)のように決定する。
別の時間区間m、m’に同じ音が含まれる場合、その音を含むトピックlは、どちらの時間区間でもアクティブ状態になる可能性が高い。つまり、αiml=αim’l=1となる可能性が高い。このため、同じ時間区間におけるそれぞれの入力音で同じトピックがアクティブ状態であれば、そのトピックは注目音源の可能性が高い。
実施形態では、同じ時間区間mにおいて、トピックlが全ての入力信号でαiml=1となっている場合に、このトピックlを抽出し、抽出したトピックを推定トピックとする。
図9の例は、図1に示したように、3つの第1マイクロホンアレイ2−1〜第3マイクロホンアレイ2−3それぞれが収音した音響信号に注目音源S0が含まれている例であるが、例えば3つの第1マイクロホンアレイ2−1〜第3マイクロホンアレイ2−3のうち、2つのマイクロホンアレイで収音した音響信号に注目信号が含まれている場合もあり得る。このような場合は、収音に用いた複数のマイクロホンアレイのうち、2つ以上のマイクロホンアレイに同じトピックが含まれている場合に、その共通のトピックを注目音源であると推定するようにしてもよい。
これにより本実施形態によれば、簡易に注目音源を分離することができる。
次に、本実施形態の音源分離装置1を用いて評価を行った結果を説明する。
評価は、図1のように4人の音源に対して、3つのマイクロホンアレイを用いて収音して音源分離した。なお、音源には、サンプリング周波数16kHz、長さ30秒の男性による朗読音声を用いた。この4人の音源のうち、2人目の音声データを注目音源S0とした。また、1人目の音声を音源S3とし、3人目の音声を音源S1とし、4人目の音声を音源S2とした。注目音源S0は、前半30秒で発話し、それ以外の音源が後半30秒で発話しているようにした。このように、合計60秒の分離信号を3つ作成した。なお、評価では、注目音源と他の音源との発話時間が重なっていない状態で行った。また、全ての分離信号で注目音源の振幅や位相が等しいという条件で評価を行った。また、サンプリング周波数を16000Hzとし、短時間フーリエ変換の窓幅を512とし、短時間フーリエ変換のシフト幅を256とし、短時間フーリエ変換の窓関数としてハミング窓を用いた。
また、SDRの計算式は、次式(14)で表される。
図11は、クラスタ数K=600、時間区間d=4秒の場合のトピック数Lに伴う分離性能の変化を示す図である。横軸はトピック数であり、縦軸はSDR改善率[dB]である。
図11に示す評価結果において、SDR改善率は本実施形態の手法を適用した場合と適用しない場合のSDRの差分を表し、この値が高い値であるほど分離が高性能であることを意味する。この評価結果では、トピック数L=2の時、ほとんどSDR値が改善していないのに対し、トピック数Lが大きいほど分離性能が上がる傾向であった。このため、トピック数Lは、適用する音響信号に応じて変更するようにしてもよい。また、トピック数は、例えば機械学習によって設定や変更するようにしてもよい。
これらのことから、Kは小さすぎず大きすぎない適切な値を設定した方が、より精度を向上することができる。このため、クラスタ数Kは、適用する環境等に応じて設定するようにしてもよく、例えば機械学習によって設定や変更するようにしてもよい。
第2実施形態では、音源それぞれの方向を音源定位処理と音源分離処理によって検出する例を説明する。
まず、本実施形態の音源分離装置1Aの構成例を説明する。
図14は、本実施形態に係る音源分離装置1Aの構成例を示すブロック図である。図14に示すように、音源分離装置1Aは、収音部2A、および処理部3Aを備える。なお、第1実施形態の音源分離装置1と同様の機能を有する機能部については、同じ符号を用いて説明を省略する。
収音部2Aは、第1マイクロホンアレイ2−1、第2マイクロホンアレイ2−2、および第3マイクロホンアレイ2−3を備える。
処理部3Aは、取得部31A、音源定位部32、音源分離部33、変換部34A、分類部35、除去部36、抽出部37、逆変換部38、および出力部39を備える。
次に、音源分離装置1Aの各部の動作と機能例を説明する。
第1マイクロホンアレイ2−1、第2マイクロホンアレイ2−2、および第3マイクロホンアレイ2−3それぞれは、収音したPチャネルの音響信号を処理部3Aに出力する。なお、各マイクロホンアレイが出力するPチャネルの音響信号には、マイクロホンアレイを識別するための識別情報が含まれている。
上述した第1実施形態と第2実施形態では、k−means法によってクラスタリングを行う例を説明したが、これに限らない。クラスタリングは、他の周知の手法(例えば重み付き平均法等)を用いてもよい。
図15に示すように、音響信号には、一般的に無音区間g501が含まれている。このような無音区間を除去、または発話区間g502を抽出し、発話区間に対して所定の区間毎のからトピックを抽出するようにしてもよい。無音区間または発話区間の検出は、例えば音響信号の振幅に対する発話区間検出のための閾値と音響信号を比較して検出するようにしてもよい。
2,2A…収音部、
3,3A…処理部、
2−1…第1マイクロホンアレイ、
2−2…第2マイクロホンアレイ、
2−3…第3マイクロホンアレイ、
30…ビームフォーミング制御部、
31…取得部、
32…音源定位部、
33…音源分離部、
34,34A…変換部、
35…分類部、
36…除去部、
37…抽出部、
38…逆変換部、
39…出力部、
40…音源定位部
Claims (9)
- 音響信号を収音する複数のマイクロホンアレイと、
少なくとも2つの前記マイクロホンアレイによって収音されたそれぞれの収音音響信号に、注目音源の第1音響信号と、前記注目音源と同じ方向の他の音源の第2音響信号とが含まれる場合、少なくとも2つの前記マイクロホンアレイによって収音されたそれぞれの前記収音音響信号に含まれている共通成分を抽出して、前記収音音響信号から前記第1音響信号を抽出する抽出部と、
を備える音源分離装置。 - 前記抽出部は、
前記共通成分を、潜在的ディリクレ配分法を用いて抽出する、
請求項1に記載の音源分離装置。 - 前記収音音響信号に含まれている音のトピックを分類する分類部、をさらに備え、
前記抽出部は、
前記分類部によって、前記マイクロホンアレイ毎に分類された前記トピックを比較し、比較した結果、複数の前記マイクロホンアレイそれぞれが収音した前記収音音響信号において同じトピックである場合に、前記同じトピックを前記注目音源であると推定して、前記収音音響信号から、前記同じトピックに対応する音響信号を前記第1音響信号として抽出する、
請求項1または請求項2に記載の音源分離装置。 - 前記分類部は、
前記マイクロホンアレイそれぞれによって収音された前記収音音響信号を周波数スペクトルに変換し、前記マイクロホンアレイ毎の前記周波数スペクトルを、時間フレームにおいてM(Mは2以上の整数)個の区間に分割してセグメント化し、各セグメントに含まれている前記時間フレーム毎の周波数スペクトルを前記トピック毎に分類する、
請求項3に記載の音源分離装置。 - 前記抽出部は、
時間区間毎の前記トピックの分布と、前記トピック毎の前記周波数スペクトルを量子化した量子化スペクトルの分布を推定し、前記トピックの分布と前記量子化スペクトルの分布の事後確率が、それぞれアクティブ状態を判別するための閾値より大きいものをアクティブ状態であるとし、
同時刻の前記セグメントごとの前記トピックの分布を比較し、少なくとも2つの前記マイクロホンアレイにおいてアクティブになっている前記トピックを抽出することで前記共通成分を抽出する、
請求項4に記載の音源分離装置。 - 前記マイクロホンアレイに対して、前記注目音源の方向にビームを形成するように制御する制御部、をさらに備え、
複数の前記マイクロホンアレイは、前記制御部の制御に応じて、前記注目音源の前記第1音響信号を含む前記収音音響信号を収音する、
請求項1から請求項5のいずれか1項に記載の音源分離装置。 - 前記マイクロホンアレイそれぞれが収音した前記収音音響信号に対して音源定位を行う音源定位部と、
前記マイクロホンアレイそれぞれが収音した前記収音音響信号から、前記音源定位された定位結果に基づいて、前記第1音響信号を含む分離信号を分離する音源分離部と、をさらに備え、
前記抽出部は、
少なくとも2つの前記マイクロホンアレイそれぞれの前記収音音響信号から分離されたそれぞれの前記分離信号に含まれている共通成分を抽出して、前記収音音響信号から前記第1音響信号を抽出する、
請求項1から請求項5のいずれか1項に記載の音源分離装置。 - 複数のマイクロホンアレイが、音響信号を収音し、
抽出部が、少なくとも2つの前記マイクロホンアレイによって収音されたそれぞれの収音音響信号に、注目音源の第1音響信号と、前記注目音源と同じ方向の他の音源の第2音響信号とが含まれる場合、少なくとも2つの前記マイクロホンアレイによって収音されたそれぞれの前記収音音響信号に含まれている共通成分を抽出して、前記収音音響信号から前記第1音響信号を抽出する、
音源分離方法。 - コンピュータに、
複数のマイクロホンアレイによって音響信号を収音させ、
少なくとも2つの前記マイクロホンアレイそれぞれによって収音された収音音響信号に、注目音源の第1音響信号と、前記注目音源と同じ方向の他の音源の第2音響信号とが含まれる場合、少なくとも2つの前記マイクロホンアレイによって収音されたそれぞれの前記収音音響信号に含まれている共通成分を抽出させ、前記収音音響信号から前記第1音響信号を抽出させる、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019223975A JP7292646B2 (ja) | 2019-12-11 | 2019-12-11 | 音源分離装置、音源分離方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019223975A JP7292646B2 (ja) | 2019-12-11 | 2019-12-11 | 音源分離装置、音源分離方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021092695A true JP2021092695A (ja) | 2021-06-17 |
JP7292646B2 JP7292646B2 (ja) | 2023-06-19 |
Family
ID=76312392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019223975A Active JP7292646B2 (ja) | 2019-12-11 | 2019-12-11 | 音源分離装置、音源分離方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7292646B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014072708A (ja) * | 2012-09-28 | 2014-04-21 | Oki Electric Ind Co Ltd | 収音装置及びプログラム |
JP2015049398A (ja) * | 2013-09-02 | 2015-03-16 | 本田技研工業株式会社 | 音響認識装置、音響認識方法、及び音響認識プログラム |
JP2015079080A (ja) * | 2013-10-16 | 2015-04-23 | 日本電信電話株式会社 | 音源位置推定装置、方法及びプログラム |
WO2015125321A1 (ja) * | 2014-02-21 | 2015-08-27 | 独立行政法人産業技術総合研究所 | 多角的歌声分析システム及び多角的歌声分析方法 |
JP2017044916A (ja) * | 2015-08-27 | 2017-03-02 | 本田技研工業株式会社 | 音源同定装置および音源同定方法 |
JP2019068133A (ja) * | 2017-09-28 | 2019-04-25 | 沖電気工業株式会社 | 収音装置、プログラム及び方法 |
-
2019
- 2019-12-11 JP JP2019223975A patent/JP7292646B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014072708A (ja) * | 2012-09-28 | 2014-04-21 | Oki Electric Ind Co Ltd | 収音装置及びプログラム |
JP2015049398A (ja) * | 2013-09-02 | 2015-03-16 | 本田技研工業株式会社 | 音響認識装置、音響認識方法、及び音響認識プログラム |
JP2015079080A (ja) * | 2013-10-16 | 2015-04-23 | 日本電信電話株式会社 | 音源位置推定装置、方法及びプログラム |
WO2015125321A1 (ja) * | 2014-02-21 | 2015-08-27 | 独立行政法人産業技術総合研究所 | 多角的歌声分析システム及び多角的歌声分析方法 |
JP2017044916A (ja) * | 2015-08-27 | 2017-03-02 | 本田技研工業株式会社 | 音源同定装置および音源同定方法 |
JP2019068133A (ja) * | 2017-09-28 | 2019-04-25 | 沖電気工業株式会社 | 収音装置、プログラム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7292646B2 (ja) | 2023-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9524730B2 (en) | Monaural speech filter | |
Giannakopoulos et al. | A multi-class audio classification method with respect to violent content in movies using bayesian networks | |
JP6543844B2 (ja) | 音源同定装置および音源同定方法 | |
EP1670285A2 (en) | Method to adjust parameters of a transfer function of a hearing device as well as a hearing device | |
Guo et al. | Localising speech, footsteps and other sounds using resource-constrained devices | |
CN111341319B (zh) | 一种基于局部纹理特征的音频场景识别方法及系统 | |
US10548534B2 (en) | System and method for anhedonia measurement using acoustic and contextual cues | |
JP6195548B2 (ja) | 信号解析装置、方法、及びプログラム | |
JP6821615B2 (ja) | マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム | |
CN107871499A (zh) | 语音识别方法、系统、计算机设备及计算机可读存储介质 | |
Nie et al. | Deep stacking networks with time series for speech separation | |
Phan et al. | A multi-channel fusion framework for audio event detection | |
JPWO2019171457A1 (ja) | 音源分離装置、音源分離方法およびプログラム | |
KR20190140780A (ko) | 음악 장르 분류 장치 및 방법 | |
WO2005029463A1 (en) | A method for recovering target speech based on speech segment detection under a stationary noise | |
JP2020095732A (ja) | 対話行為推定方法、対話行為推定装置及びプログラム | |
JP7292646B2 (ja) | 音源分離装置、音源分離方法、およびプログラム | |
SHANTHAKUMAR et al. | Environmental sound classification using deep learning | |
JP5705190B2 (ja) | 音響信号強調装置、音響信号強調方法、およびプログラム | |
Subba Ramaiah et al. | A novel approach for speaker diarization system using TMFCC parameterization and Lion optimization | |
JP4170072B2 (ja) | 音声抽出装置 | |
Cipli et al. | Multi-class acoustic event classification of hydrophone data | |
Ngo et al. | Sound context classification based on joint learning model and multi-spectrogram features | |
Diez Gaspon et al. | Deep learning for natural sound classification | |
Mandel et al. | Learning a concatenative resynthesis system for noise suppression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20200220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200417 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7292646 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |