JP2022532959A - オーディオ信号内の特定の音声の検出に基づく歯擦音検出の適応 - Google Patents
オーディオ信号内の特定の音声の検出に基づく歯擦音検出の適応 Download PDFInfo
- Publication number
- JP2022532959A JP2022532959A JP2022502267A JP2022502267A JP2022532959A JP 2022532959 A JP2022532959 A JP 2022532959A JP 2022502267 A JP2022502267 A JP 2022502267A JP 2022502267 A JP2022502267 A JP 2022502267A JP 2022532959 A JP2022532959 A JP 2022532959A
- Authority
- JP
- Japan
- Prior art keywords
- sibilant
- term
- detector
- audio signal
- short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 59
- 238000001514 detection method Methods 0.000 title claims description 123
- 230000006978 adaptation Effects 0.000 title description 3
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000007774 longterm Effects 0.000 claims abstract description 31
- 230000003595 spectral effect Effects 0.000 claims description 30
- 230000004907 flux Effects 0.000 claims description 26
- 238000001228 spectrum Methods 0.000 claims description 21
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 description 15
- 230000001629 suppression Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013016 damping Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009527 percussion Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Telephone Function (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本願は、参照により全体がここに組み込まれる、2019年8月8日に出願した米国仮出願番号第62/884,320号及び2019年7月17日に出願した国際出願番号第PCT/CN2019/096399号、の優先権を主張する。
本開示の実施形態は、概して、オーディオ信号処理に関し、より具体的には、歯擦音検出の適応に関する。
Claims (21)
- 方法であって、
オーディオ信号を受信するステップと、
前記オーディオ信号から、複数の時間-周波数特徴を抽出するステップであって、前記複数の時間-周波数特徴は、1つ以上の短期又は長期特徴を含む、ステップと、
抽出した短期又は長期特徴に従い、前記オーディオ信号内の歯擦音を検出する歯擦音検出器の1つ以上のパラメータを適応するステップと、
前記1つ以上の適応されたパラメータを有する前記歯擦音検出器を用いて、前記オーディオ信号内の歯擦音を検出するステップと、
を含む方法。 - 前記短期特徴は衝撃音を含む、請求項1に記載の方法。
- 前記短期特徴は平坦摩擦音を含む、請求項1に記載の方法。
- 前記長期特徴は平滑化されたオーディオスペクトルバランス特徴を含む、請求項1に記載の方法。
- 歯擦音検出器の前記1つ以上のパラメータを適応するステップは、
短期特徴検出から生じる値を含む制御信号を生成するステップを含む、請求項1に記載の方法。 - 歯擦音検出器の前記1つ以上のパラメータを適応するステップは、
前記1つ以上の短期特徴を決定するステップと、
前記1つ以上の長期特徴を決定するステップと、
前記1つ以上の短期特徴及び前記1つ以上の長期特徴の組合せに基づき、前記1つ以上の歯擦音パラメータを適応するステップと、
を含む、請求項1に記載の方法。 - 前記複数の時間-周波数特徴を用いて、前記オーディオ信号が前記衝撃音を含むかどうかを決定するステップは、
前記オーディオ信号内の第1時間間隔について、1つ以上の歯擦音周波数帯における第1合計パワーと、1つ以上の非歯擦音周波数帯における第2合計パワーと、を計算するステップと、
前記オーディオ信号内の第2時間間隔について、1つ以上の歯擦音周波数帯における第3合計パワーと、1つ以上の非歯擦音周波数帯における第4合計パワーと、を計算するステップと、
前記第1合計パワーと前記第3合計パワーとの間の差に基づき第1フラックス値を、及び前記第2合計パワーと前記第4合計パワーとの間の差に基づき第2フラックス値を、決定するステップと、
前記第1フラックス値が第1閾値を満たすか及び前記第2フラックス値が第2閾値を満たすかどうかに基づき、前記衝撃音が存在するかどうかを決定するステップと、
を含む、請求項1又は2に記載の方法。 - 前記衝撃音が存在すると決定することに応答して、
出力値を生成するステップと、
前記出力値に平滑化アルゴリズムを適用するステップと、
を更に含む請求項1~3のいずれかに記載の方法。 - 前記出力値に前記平滑化アルゴリズムを適用するステップは、アタック時定数及びリリース時定数を用いるステップを含む、請求項4に記載の方法。
- 前記衝撃音の種類に基づき、前記アタック時定数又は前記リリース時定数を適応するステップを更に含む、請求項5に記載の方法。
- 前記複数の時間-周波数特徴に基づき、前記衝撃音の種類を決定するステップ、を更に含む請求項1~6のいずれかに記載の方法。
- 衝撃音の種類を決定するステップは、
前記歯擦音周波数帯及び非歯擦音周波数帯の各々のデータを、複数の知られている衝撃音の対応する周波数帯データと比較するステップと、
前記比較に基づき、前記衝撃音を識別するステップと、
を含む、請求項7に記載の方法。 - 前記複数の時間-周波数特徴を用いて、前記オーディオ信号が前記平坦摩擦音を含むかどうかを決定するステップは、
歯擦音周波数帯スペクトル及び周波数帯の数に基づき、歯擦音スペクトル平坦度指標を計算するステップを含む、請求項1~12のいずれかに記載の方法。 - 前記複数の時間-周波数特徴を用いて、前記オーディオ信号が前記平坦摩擦音を含むかどうかを決定するステップは、
隣接する歯擦音周波数帯のパワーの分散を計算するステップを含む、請求項1~12のいずれかに記載の方法。 - 前記複数の時間-周波数特徴を用いて、前記オーディオ信号が前記平坦摩擦音を含むかどうかを決定するステップは、
歯擦音周波数帯のパワーのピーク対平均比、又はピーク対中央値比を計算するステップを含む、請求項1~12のいずれかに記載の方法。 - 前記複数の時間-周波数特徴を用いて、前記オーディオ信号が前記平坦摩擦音を含むかどうかを決定するステップは、
歯擦音周波数帯におけるスペクトルエントロピー指標を計算するステップを含む、請求項1~12のいずれかに記載の方法。 - 前記オーディオ信号内の歯擦音を検出する歯擦音検出器の1つ以上のパラメータを適応するステップは、前記衝撃音が検出されたかどうかの決定から生じる出力値、及び前記平坦摩擦音が検出されたかどうかの決定から生じる出力値に基づき、歯擦音検出閾値を適応するステップを含む、請求項1~16のいずれかに記載の方法。
- 前記歯擦音検出器の1つ以上のパラメータを適応するステップは、
前記オーディオ信号の現在部分が会話を含むかどうかを決定するステップと、
前記オーディオ信号の前記現在部分が会話を含むという決定に応答して、前記衝撃音が検出されたかどうかの決定から生じる前記出力値に第1重みを加え、前記平坦摩擦音が検出されたかどうかの決定から生じる前記出力値に、前記第1重みより高い第2重みを加えるステップと、
前記オーディオ信号の前記現在部分が非会話を含むという決定に応答して、前記衝撃音が検出されたかどうかの決定から生じる前記出力値に第1重みを加え、前記平坦摩擦音が検出されたかどうかの決定から生じる前記出力値に、前記第1重みより低い第2重みを加えるステップと、
を含む、請求項16に記載の方法。 - 前記歯擦音検出器の出力及びスペクトルバランス値にアクセスするステップと、
前記歯擦音検出器が歯擦音を検出したかどうかに基づき、時定数を選択するステップと、
前記選択した時定数を用いて、前記スペクトルバランス値の平滑化バージョンを計算するステップと、
前記スペクトルバランスの前記平滑化バージョンを閾値と比較するステップと、
前記スペクトルバランスの前記平滑化バージョンを閾値と比較することに基づき、歯擦音が存在するかどうかを決定するステップと、
を更に含む請求項1~17のいずれかに記載の方法。 - 短期特徴検出器、短期歯擦音検出器、及び長期歯擦音検出器の出力のうちの1つ以上を、機械学習に基づく分類器に入力するステップと、
前記機械学習に基づく分類器から、歯擦音が存在するかどうかの決定を受信するステップと、
を更に含む請求項1~18のいずれかに記載の方法。 - システムであって、
1つ以上のコンピュータプロセッサと、
命令を格納する1つ以上の非一時的記憶媒体と、
を含み、前記命令は、前記1つ以上のコンピュータプロセッサにより実行されると、請求項1~20のいずれかに記載の方法の実行を生じる、システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019096399 | 2019-07-17 | ||
CNPCT/CN2019/096399 | 2019-07-17 | ||
US201962884320P | 2019-08-08 | 2019-08-08 | |
US62/884,320 | 2019-08-08 | ||
PCT/US2020/042400 WO2021011814A2 (en) | 2019-07-17 | 2020-07-16 | Adapting sibilance detection based on detecting specific sounds in an audio signal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022532959A true JP2022532959A (ja) | 2022-07-20 |
JP7350973B2 JP7350973B2 (ja) | 2023-09-26 |
Family
ID=71944414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502267A Active JP7350973B2 (ja) | 2019-07-17 | 2020-07-16 | オーディオ信号内の特定の音声の検出に基づく歯擦音検出の適応 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220383889A1 (ja) |
EP (1) | EP4000064B1 (ja) |
JP (1) | JP7350973B2 (ja) |
CN (1) | CN114127848A (ja) |
WO (1) | WO2021011814A2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114171053B (zh) * | 2021-12-20 | 2024-04-05 | Oppo广东移动通信有限公司 | 一种神经网络的训练方法、音频分离方法、装置及设备 |
CN117079659A (zh) * | 2023-03-28 | 2023-11-17 | 荣耀终端有限公司 | 音频处理方法及相关装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004109661A1 (ja) * | 2003-06-05 | 2004-12-16 | Matsushita Electric Industrial Co., Ltd. | 音質調整装置および音質調整方法 |
US20100114583A1 (en) * | 2008-09-25 | 2010-05-06 | Lg Electronics Inc. | Apparatus for processing an audio signal and method thereof |
US20170372719A1 (en) * | 2016-06-22 | 2017-12-28 | Dolby Laboratories Licensing Corporation | Sibilance Detection and Mitigation |
-
2020
- 2020-07-16 JP JP2022502267A patent/JP7350973B2/ja active Active
- 2020-07-16 EP EP20751020.7A patent/EP4000064B1/en active Active
- 2020-07-16 CN CN202080051216.4A patent/CN114127848A/zh active Pending
- 2020-07-16 WO PCT/US2020/042400 patent/WO2021011814A2/en active Search and Examination
- 2020-07-16 US US17/627,116 patent/US20220383889A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004109661A1 (ja) * | 2003-06-05 | 2004-12-16 | Matsushita Electric Industrial Co., Ltd. | 音質調整装置および音質調整方法 |
US20100114583A1 (en) * | 2008-09-25 | 2010-05-06 | Lg Electronics Inc. | Apparatus for processing an audio signal and method thereof |
US20170372719A1 (en) * | 2016-06-22 | 2017-12-28 | Dolby Laboratories Licensing Corporation | Sibilance Detection and Mitigation |
Non-Patent Citations (1)
Title |
---|
ABDELATTY ALI AHMED M ET AL: ""Acoustic-phonetic features for the automatic classification of fricatives"", THE JOURNAL OF THE ACOUSTICAL SOCIETY OF AMERICA, vol. 109, no. 5, JPN7022003376, 1 May 2001 (2001-05-01), pages 2217 - 2235, XP012002284, ISSN: 0005008628, DOI: 10.1121/1.1357814 * |
Also Published As
Publication number | Publication date |
---|---|
CN114127848A (zh) | 2022-03-01 |
JP7350973B2 (ja) | 2023-09-26 |
EP4000064A2 (en) | 2022-05-25 |
WO2021011814A2 (en) | 2021-01-21 |
EP4000064B1 (en) | 2024-04-10 |
WO2021011814A3 (en) | 2021-03-18 |
US20220383889A1 (en) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7150939B2 (ja) | ボリューム平準化器コントローラおよび制御方法 | |
JP6921907B2 (ja) | オーディオ分類および処理のための装置および方法 | |
EP2979359B1 (en) | Equalizer controller and controlling method | |
EP3757993A1 (en) | Pre-processing for automatic speech recognition | |
JP7350973B2 (ja) | オーディオ信号内の特定の音声の検出に基づく歯擦音検出の適応 | |
WO2022034139A1 (en) | Automatic detection and attenuation of speech-articulation noise events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20220113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7350973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |