JP6732944B2 - 目的音強調装置、雑音推定用パラメータ学習装置、目的音強調方法、雑音推定用パラメータ学習方法、プログラム - Google Patents
目的音強調装置、雑音推定用パラメータ学習装置、目的音強調方法、雑音推定用パラメータ学習方法、プログラム Download PDFInfo
- Publication number
- JP6732944B2 JP6732944B2 JP2018556185A JP2018556185A JP6732944B2 JP 6732944 B2 JP6732944 B2 JP 6732944B2 JP 2018556185 A JP2018556185 A JP 2018556185A JP 2018556185 A JP2018556185 A JP 2018556185A JP 6732944 B2 JP6732944 B2 JP 6732944B2
- Authority
- JP
- Japan
- Prior art keywords
- microphone
- noise
- target sound
- transfer function
- probability distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000006870 function Effects 0.000 claims description 115
- 238000012546 transfer Methods 0.000 claims description 64
- 238000009826 distribution Methods 0.000 claims description 49
- 238000001914 filtration Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 23
- 238000001228 spectrum Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 11
- 238000011410 subtraction method Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 7
- 230000003595 spectral effect Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000002156 mixing Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005534 acoustic noise Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02165—Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Circuit For Audible Band Transducer (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Description
所定の観測信号であるものとし、音源強調に用いる信号として相応しい観測信号であるものとする。
標本化周波数が48.0[kHz]で短時間フーリエ変換(STFT)の分析幅が512点の時、瞬時混合として記述できる残響(インパルス応答)の時間長は10[ms]である。一般にスポーツ場や製造工場の残響時間はこれ以上である。ゆえに単純な瞬時混合モデルは仮定できない。
例えば野球場では、外野スタンドからホームベースまでは約100[m]離れている。音速がC=340[m/s]の時、外野スタンドの応援は約300[ms]遅れて到達する。標本化周波数が48.0[kHz]でSTFTのシフト幅が256点の時、
(注*1)残響は周波数領域で伝達関数として記述でき、そのゲインを伝達関数ゲインと呼ぶ。
今、目的音S(1) ω,τを、M本のマイクロホン(Mは2以上の整数)での観測から推定する問題を考える。なお、マイクロホンのうちの1本以上は、メインとなるマイクロホンと十分離れた位置(注*2)に配置されているものとする。
(注*2)短時間フーリエ変換(STFT)のシフト幅以上の到達時間差が発生する距離。すなわち時間周波数分析において時間フレーム差が発生してしまうほどの距離。例えば音速がC=340[m/s]、標本化周波数が48.0[kHz]でSTFTのシフト幅が512点の時、マイク間隔が2[m]以上あると時間フレーム差が生じる。すなわち、観測信号はマイクロホンが集音した音響信号を周波数変換した信号であり、雑音源から所定のマイクロホンまでの雑音の到達時間と、雑音源から任意のマイクロホンまでの雑音の到達時間と、の2つの到達時間の差が周波数変換のシフト幅以上であることを意味する。
(参考非特許文献1:T. Higuchi and H. Kameoka, “Joint audio source separation and dereverberation based on multichannel factorial hidden Markov model,” in Proc MLSP 2014, 2014.)
<モデル化部11の動作の詳細>
以下、図3を参照してモデル化部11の動作の詳細を説明する。観測信号モデル化部111には、学習に必要なデータが入力される。具体的には観測信号
以下、図4を参照して尤度関数設定部12の動作の詳細を説明する。具体的には、目的関数設定部121は、上記のモデル化された確率分布に基づいて、その目的関数を以下のように設定する(S121)。
以下、図5を参照してパラメータ更新部13の動作の詳細を説明する。伝達関数ゲイン更新部131は、伝達関数ゲインを非負の値に限定する制約を付し、近接勾配法により伝達関数ゲインに関する尤度関数の変数を繰り返し更新する(S131)。
(参考非特許文献2:麻生英樹、外7名、「深層学習 Deep Learning」、株式会社近代科学社、2015年11月)
実施例2では、雑音推定部21が別の装置(雑音推定用パラメータ学習装置1)から雑音推定用パラメータΘを都度受信する(受け取る)構成とした。もちろん目的音強調装置としては別の形態も考えられる。例えば、図8に示す変形例1の目的音強調装置2aのように、別の装置(雑音推定用パラメータ学習装置1)から雑音推定用パラメータΘを前もって受信しておき、これをパラメータ記憶部20に予め記憶しておいてもよい。
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
Claims (15)
- 複数のマイクロホンから観測信号を得る観測信号取得部と、
複数のマイクロホンのうち所定のマイクロホンから得た観測信号と、前記所定のマイクロホンと、前記複数のマイクロホンのうち前記所定のマイクロホンとは異なる任意のマイクロホンと雑音源の相対位置差に応じて生じる時間フレーム差と、前記所定のマイクロホンと任意のマイクロホンと前記雑音源の相対位置差に応じて生じる伝達関数ゲインと、を関連付けて複数の前記所定のマイクロホンによる観測信号に含まれる雑音を推定する雑音推定部と、
少なくとも前記推定された雑音に基づきフィルタを生成するフィルタ生成部と、
前記所定のマイクロホンから得た観測信号を前記フィルタでフィルタリングするフィルタリング部と、
を含む目的音強調装置。 - 請求項1に記載の目的音強調装置であって、
前記所定のマイクロホンの観測信号は目的音と雑音を含み、前記任意のマイクロホンの観測信号は雑音を含んでいる
目的音強調装置。 - 請求項2に記載の目的音強調装置であって、
前記観測信号はマイクロホンが集音した音響信号を周波数変換した信号であり、前記雑音源から前記所定のマイクロホンまでの前記雑音の到達時間と、前記雑音源から前記任意のマイクロホンまでの前記雑音の到達時間と、の2つの到達時間の差が前記周波数変換のシフト幅以上である
目的音強調装置。 - 請求項2または3に記載の目的音強調装置であって、
前記雑音推定部は、
前記所定のマイクロホンの観測信号の確率分布と、前記所定のマイクロホンと任意のマイクロホンと雑音源の相対位置差に応じて生じる時間フレーム差をモデル化した確率分布と、前記所定のマイクロホンと前記任意のマイクロホンと前記雑音源の相対位置差に応じて生じる伝達関数ゲインをモデル化した確率分布と、を関連付けて複数の前記マイクロホンによる観測信号に含まれる雑音を推定する
目的音強調装置。 - 請求項4に記載の目的音強調装置であって、
前記雑音推定部は、
前記所定のマイクロホンの観測信号の確率分布と、前記所定のマイクロホンと任意のマイクロホンと雑音源の相対位置差に応じて生じる時間フレーム差をモデル化した確率分布と、前記所定のマイクロホンと前記任意のマイクロホンと前記雑音源の相対位置差に応じて生じる伝達関数ゲインをモデル化した確率分布と、からなる三つの前記確率分布に基づいて設定された二つの尤度関数を関連付けて、複数の前記マイクロホンによる観測信号に含まれる雑音を推定し、第1の尤度関数は少なくとも前記時間フレーム差をモデル化した確率分布に基づき、第2の尤度関数は少なくとも前記伝達関数ゲインをモデル化した確率分布に基づく
目的音強調装置。 - 請求項5に記載の目的音強調装置であって、
前記雑音推定部は、前記第1の尤度関数の変数と、前記第2の尤度関数の変数を交互に繰り返し更新する
目的音強調装置。 - 請求項6に記載の目的音強調装置であって、
前記第1の尤度関数の変数と、前記第2の尤度関数の変数の更新は、前記伝達関数ゲインを非負の値に限定する制約を付して行われる
目的音強調装置。 - 請求項7に記載の目的音強調装置であって、
前記時間フレーム差の前記確率分布を、ポワソン分布でモデル化し、前記伝達関数ゲインの前記確率分布を、指数分布でモデル化する
目的音強調装置。 - 複数のマイクロホンによる観測信号に含まれる雑音の推定に用いる雑音推定用パラメータを学習する雑音推定用パラメータ学習装置であって、
複数の前記マイクロホンのうち、所定のマイクロホンの観測信号の確率分布をモデル化し、前記所定のマイクロホンと任意のマイクロホンと雑音源の相対位置差に応じて生じる時間フレーム差の確率分布をモデル化し、前記所定のマイクロホンと前記任意のマイクロホンと前記雑音源の相対位置差に応じて生じる伝達関数ゲインの確率分布をモデル化するモデル化部と、
前記モデル化された前記確率分布に基づいて、前記時間フレーム差に関する尤度関数と、前記伝達関数ゲインに関する尤度関数を設定する尤度関数設定部と、
前記時間フレーム差に関する前記尤度関数の変数と前記伝達関数ゲインに関する前記尤度関数の変数とを交互に繰り返し更新し、更新後の前記時間フレーム差および前記伝達関数ゲインを前記雑音推定用パラメータとして出力するパラメータ更新部
を含む雑音推定用パラメータ学習装置。 - 請求項9に記載の雑音推定用パラメータ学習装置であって、
前記パラメータ更新部は、
前記伝達関数ゲインを非負の値に限定する制約を付し、近接勾配法により前記伝達関数ゲインに関する前記尤度関数の変数を繰り返し更新する伝達関数ゲイン更新部
を含む雑音推定用パラメータ学習装置。 - 請求項9または10に記載の雑音推定用パラメータ学習装置であって、
前記モデル化部は、
前記観測信号の前記確率分布を、ガウス分布でモデル化する観測信号モデル化部と、
前記時間フレーム差の前記確率分布を、ポワソン分布でモデル化する時間フレーム差モデル化部と、
前記伝達関数ゲインの前記確率分布を、指数分布でモデル化する伝達関数ゲインモデル化部
を含む雑音推定用パラメータ学習装置。 - 目的音強調装置が実行する目的音強調方法であって、
複数のマイクロホンから観測信号を得るステップと、
複数のマイクロホンのうち所定のマイクロホンから得た観測信号と、前記所定のマイクロホンと、前記複数のマイクロホンのうち前記所定のマイクロホンとは異なる任意のマイクロホンと雑音源の相対位置差に応じて生じる時間フレーム差と、前記所定のマイクロホンと任意のマイクロホンと前記雑音源の相対位置差に応じて生じる伝達関数ゲインと、を関連付けて複数の前記所定のマイクロホンによる観測信号に含まれる雑音を推定するステップと、
少なくとも前記推定された雑音に基づきフィルタを生成するステップと、
前記所定のマイクロホンから得た観測信号を前記フィルタでフィルタリングするステップ
を含む目的音強調方法。 - 複数のマイクロホンによる観測信号に含まれる雑音の推定に用いる雑音推定用パラメータを学習する雑音推定用パラメータ学習装置が実行する雑音推定用パラメータ学習方法であって、
複数の前記マイクロホンのうち、所定のマイクロホンの観測信号の確率分布をモデル化し、前記所定のマイクロホンと任意のマイクロホンと雑音源の相対位置差に応じて生じる時間フレーム差の確率分布をモデル化し、前記所定のマイクロホンと前記任意のマイクロホンと前記雑音源の相対位置差に応じて生じる伝達関数ゲインの確率分布をモデル化するステップと、
前記モデル化された前記確率分布に基づいて、前記時間フレーム差に関する尤度関数と、前記伝達関数ゲインに関する尤度関数を設定するステップと、
前記時間フレーム差に関する前記尤度関数の変数と前記伝達関数ゲインに関する前記尤度関数の変数とを交互に繰り返し更新し、更新後の前記時間フレーム差および前記伝達関数ゲインを前記雑音推定用パラメータとして出力するステップ
を含む雑音推定用パラメータ学習方法。 - コンピュータを、請求項1から8の何れかに記載の目的音強調装置として機能させるプログラム。
- コンピュータを、請求項9から11の何れかに記載の雑音推定用パラメータ学習装置として機能させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244169 | 2016-12-16 | ||
JP2016244169 | 2016-12-16 | ||
PCT/JP2017/032866 WO2018110008A1 (ja) | 2016-12-16 | 2017-09-12 | 目的音強調装置、雑音推定用パラメータ学習装置、目的音強調方法、雑音推定用パラメータ学習方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018110008A1 JPWO2018110008A1 (ja) | 2019-10-24 |
JP6732944B2 true JP6732944B2 (ja) | 2020-07-29 |
Family
ID=62558463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018556185A Active JP6732944B2 (ja) | 2016-12-16 | 2017-09-12 | 目的音強調装置、雑音推定用パラメータ学習装置、目的音強調方法、雑音推定用パラメータ学習方法、プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11322169B2 (ja) |
EP (1) | EP3557576B1 (ja) |
JP (1) | JP6732944B2 (ja) |
CN (1) | CN110036441B (ja) |
ES (1) | ES2937232T3 (ja) |
WO (1) | WO2018110008A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020207580A1 (en) * | 2019-04-10 | 2020-10-15 | Huawei Technologies Co., Ltd. | Audio processing apparatus and method for localizing an audio source |
JP7444243B2 (ja) * | 2020-04-06 | 2024-03-06 | 日本電信電話株式会社 | 信号処理装置、信号処理方法、およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1600791B1 (en) * | 2004-05-26 | 2009-04-01 | Honda Research Institute Europe GmbH | Sound source localization based on binaural signals |
ATE405925T1 (de) * | 2004-09-23 | 2008-09-15 | Harman Becker Automotive Sys | Mehrkanalige adaptive sprachsignalverarbeitung mit rauschunterdrückung |
CN101385386B (zh) * | 2006-03-03 | 2012-05-09 | 日本电信电话株式会社 | 混响除去装置和混响除去方法 |
US20080152167A1 (en) * | 2006-12-22 | 2008-06-26 | Step Communications Corporation | Near-field vector signal enhancement |
US7983428B2 (en) * | 2007-05-09 | 2011-07-19 | Motorola Mobility, Inc. | Noise reduction on wireless headset input via dual channel calibration within mobile phone |
US8174932B2 (en) * | 2009-06-11 | 2012-05-08 | Hewlett-Packard Development Company, L.P. | Multimodal object localization |
JP5143802B2 (ja) * | 2009-09-01 | 2013-02-13 | 日本電信電話株式会社 | 雑音除去装置、遠近判定装置と、各装置の方法と、装置プログラム |
JP5337072B2 (ja) * | 2010-02-12 | 2013-11-06 | 日本電信電話株式会社 | モデル推定装置、音源分離装置、それらの方法及びプログラム |
FR2976111B1 (fr) * | 2011-06-01 | 2013-07-05 | Parrot | Equipement audio comprenant des moyens de debruitage d'un signal de parole par filtrage a delai fractionnaire, notamment pour un systeme de telephonie "mains libres" |
US9338551B2 (en) * | 2013-03-15 | 2016-05-10 | Broadcom Corporation | Multi-microphone source tracking and noise suppression |
JP6193823B2 (ja) * | 2014-08-19 | 2017-09-06 | 日本電信電話株式会社 | 音源数推定装置、音源数推定方法および音源数推定プログラム |
US10127919B2 (en) * | 2014-11-12 | 2018-11-13 | Cirrus Logic, Inc. | Determining noise and sound power level differences between primary and reference channels |
CN105225672B (zh) * | 2015-08-21 | 2019-02-22 | 胡旻波 | 融合基频信息的双麦克风定向噪音抑制的系统及方法 |
CN105590630B (zh) * | 2016-02-18 | 2019-06-07 | 深圳永顺智信息科技有限公司 | 基于指定带宽的定向噪音抑制方法 |
-
2017
- 2017-09-12 EP EP17881038.8A patent/EP3557576B1/en active Active
- 2017-09-12 WO PCT/JP2017/032866 patent/WO2018110008A1/ja unknown
- 2017-09-12 US US16/463,958 patent/US11322169B2/en active Active
- 2017-09-12 ES ES17881038T patent/ES2937232T3/es active Active
- 2017-09-12 CN CN201780075048.0A patent/CN110036441B/zh active Active
- 2017-09-12 JP JP2018556185A patent/JP6732944B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11322169B2 (en) | 2022-05-03 |
US20200388298A1 (en) | 2020-12-10 |
EP3557576A4 (en) | 2020-08-12 |
EP3557576B1 (en) | 2022-12-07 |
JPWO2018110008A1 (ja) | 2019-10-24 |
CN110036441A (zh) | 2019-07-19 |
ES2937232T3 (es) | 2023-03-27 |
WO2018110008A1 (ja) | 2018-06-21 |
CN110036441B (zh) | 2023-02-17 |
EP3557576A1 (en) | 2019-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111161752B (zh) | 回声消除方法和装置 | |
JP6234060B2 (ja) | ターゲットドメインの学習用音声データの生成方法、生成装置、および生成プログラム | |
JP6927419B2 (ja) | 推定装置、学習装置、推定方法、学習方法及びプログラム | |
JP6723120B2 (ja) | 音響処理装置および音響処理方法 | |
JP7276470B2 (ja) | 到来方向推定装置、モデル学習装置、到来方向推定方法、モデル学習方法、プログラム | |
JP4977062B2 (ja) | 残響除去装置とその方法と、そのプログラムと記録媒体 | |
JP5634959B2 (ja) | 雑音/残響除去装置とその方法とプログラム | |
JP2014041308A (ja) | 信号処理装置、方法及びプログラム | |
JP6732944B2 (ja) | 目的音強調装置、雑音推定用パラメータ学習装置、目的音強調方法、雑音推定用パラメータ学習方法、プログラム | |
KR102410850B1 (ko) | 잔향 제거 오토 인코더를 이용한 잔향 환경 임베딩 추출 방법 및 장치 | |
CN113470685A (zh) | 语音增强模型的训练方法和装置及语音增强方法和装置 | |
JP5881454B2 (ja) | 音源ごとに信号のスペクトル形状特徴量を推定する装置、方法、目的信号のスペクトル特徴量を推定する装置、方法、プログラム | |
JP6721165B2 (ja) | 入力音マスク処理学習装置、入力データ処理関数学習装置、入力音マスク処理学習方法、入力データ処理関数学習方法、プログラム | |
JP2014021315A (ja) | 音源分離定位装置、方法、及びプログラム | |
JP6290803B2 (ja) | モデル推定装置、目的音強調装置、モデル推定方法及びモデル推定プログラム | |
JP2017083566A (ja) | 雑音抑圧装置、雑音抑圧方法、およびプログラム | |
JP7159928B2 (ja) | 雑音空間共分散行列推定装置、雑音空間共分散行列推定方法、およびプログラム | |
WO2019208137A1 (ja) | 音源分離装置、その方法、およびプログラム | |
JP7024615B2 (ja) | 音響信号分離装置、学習装置、それらの方法、およびプログラム | |
JP6827908B2 (ja) | 音源強調装置、音源強調学習装置、音源強調方法、プログラム | |
JP6167062B2 (ja) | 分類装置、分類方法、およびプログラム | |
JP5498452B2 (ja) | 背景音抑圧装置、背景音抑圧方法、およびプログラム | |
JP6314393B2 (ja) | 音響信号分析装置、音響信号分析方法及びコンピュータプログラム | |
JP6063843B2 (ja) | 信号区間分類装置、信号区間分類方法、およびプログラム | |
JP2019035851A (ja) | 目的音源推定装置、目的音源推定方法及び目的音源推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190521 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6732944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |