JP2022086961A - 話者埋め込みに基づく音声活動検出を利用した話者ダイアライゼーション方法、システム、およびコンピュータプログラム - Google Patents
話者埋め込みに基づく音声活動検出を利用した話者ダイアライゼーション方法、システム、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2022086961A JP2022086961A JP2021014192A JP2021014192A JP2022086961A JP 2022086961 A JP2022086961 A JP 2022086961A JP 2021014192 A JP2021014192 A JP 2021014192A JP 2021014192 A JP2021014192 A JP 2021014192A JP 2022086961 A JP2022086961 A JP 2022086961A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice
- embedding
- processor
- computer system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000000694 effects Effects 0.000 title claims abstract description 31
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000004590 computer program Methods 0.000 title claims abstract description 8
- 230000008569 process Effects 0.000 claims description 9
- 230000002123 temporal effect Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 238000005065 mining Methods 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
- G10L2025/932—Decision in previous or following frames
Abstract
Description
310:話者埋め込み部
320:音声区間検出部
330:クラスタリング実行部
Claims (20)
- コンピュータシステムが実行する話者ダイアライゼーション方法であって、
前記コンピュータシステムは、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
前記話者ダイアライゼーション方法は、
前記少なくとも1つのプロセッサにより、与えられた音声ファイルに対して音声フレームごとに話者埋め込みを抽出する段階、および
前記少なくとも1つのプロセッサにより、前記話者埋め込みに基づいて音声活動領域(speech activity region)である音声区間を検出する段階
を含む、話者ダイアライゼーション方法。 - 前記話者ダイアライゼーション方法は、
単一モデルである話者認識モデルを利用して、前記話者埋め込みを抽出する段階と前記音声区間を検出する段階とを実行すること
を特徴とする、請求項1に記載の話者ダイアライゼーション方法。 - 前記音声区間を検出する段階は、
前記音声フレームそれぞれの話者埋め込みベクトルに対してノルム(Norm)値を求める段階、および
埋め込みノルム値が閾値以上の音声フレームは前記音声区間と判断し、前記閾値未満の音声フレームは非音声区間と判断する段階
を含む、請求項1に記載の話者ダイアライゼーション方法。 - 前記話者ダイアライゼーション方法は、
前記少なくとも1つのプロセッサにより、音声と非音声を分類するための前記閾値を、与えられた音声ファイルによって適応的に設定する段階
をさらに含む、請求項3に記載の話者ダイアライゼーション方法。 - 前記話者ダイアライゼーション方法は、
前記少なくとも1つのプロセッサにより、前記音声ファイルに対して、混合ガウスモデル(Gaussian mixture model)によって推定された前記閾値を設定する段階
をさらに含む、請求項3に記載の話者ダイアライゼーション方法。 - 前記話者ダイアライゼーション方法は、
前記少なくとも1つのプロセッサにより、音声と非音声を分類するための前記閾値を、実験によって決定された固定値に設定する段階
をさらに含む、請求項3に記載の話者ダイアライゼーション方法。 - 前記話者埋め込みを抽出する段階は、
スライディングウィンドウ方式を利用して、前記音声フレームごとに前記話者埋め込みを抽出する段階
を含む、請求項1に記載の話者ダイアライゼーション方法。 - 前記話者埋め込みを抽出する段階は、
分類ロス(classification loss)とハードネガティブマイニングロス(hard negative mining loss)との組み合わせを利用して学習された話者認識モデルにより、前記話者埋め込みを抽出する段階
を含む、請求項1に記載の話者ダイアライゼーション方法。 - 前記話者埋め込みを抽出する段階は、
話者認識モデルの出力が、時間的平均プーリング層(temporal average pooling layer)を使用して時間経過によって集計された後、投影層(projection layer)を通過することにより、発言レベル(utterance-level)の埋め込みを取得する段階を含む、
請求項1に記載の話者ダイアライゼーション方法。 - 前記音声区間を検出する段階は、
前記話者認識モデルの出力が、時間経過による集計なく、前記投影層を経て伝達されることにより、音声活動ラベルを取得する段階
を含む、請求項9に記載の話者ダイアライゼーション方法。 - 請求項1~10のうちのいずれか一項に記載の話者ダイアライゼーション方法を前記コンピュータシステムに実行させる、コンピュータプログラム。
- コンピュータシステムであって、
メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
与えられた音声ファイルに対して音声フレームごとに話者埋め込みを抽出する話者埋め込み部、および
前記話者埋め込みに基づいて音声活動領域である音声区間を検出する音声区間検出部
を含む、コンピュータシステム。 - 前記少なくとも1つのプロセッサは、
単一モデルである話者認識モデルを利用して、前記話者埋め込みを抽出する過程と前記音声区間を検出する過程とを実行すること
を特徴とする、請求項12に記載のコンピュータシステム。 - 前記音声区間検出部は、
前記音声フレームそれぞれの話者埋め込みベクトルに対してノルム値を求め、
埋め込みノルム値が閾値以上の音声フレームは前記音声区間と判断し、前記閾値未満の音声フレームは非音声区間と判断すること
を特徴とする、請求項12に記載のコンピュータシステム。 - 前記少なくとも1つのプロセッサは、
音声と非音声を分類するための前記閾値を、与えられた音声ファイルによって適応的に設定すること
を特徴とする、請求項14に記載のコンピュータシステム。 - 前記少なくとも1つのプロセッサは、
前記音声ファイルに対して、混合ガウスモデルによって推定された前記閾値を設定すること
を特徴とする、請求項14に記載のコンピュータシステム。 - 前記話者埋め込み部は、
スライディングウィンドウ方式を利用して、前記音声フレームごとに前記話者埋め込みを抽出すること
を特徴とする、請求項12に記載のコンピュータシステム。 - 前記話者埋め込み部は、
分類ロスとハードネガティブマイニングロスとの組み合わせを利用して学習された話者認識モデルにより、前記話者埋め込みを抽出すること
を特徴とする、請求項12に記載のコンピュータシステム。 - 前記話者埋め込み部は、
話者認識モデルの出力が、時間的平均プーリング層を使用して時間経過によって集計された後、投影層を通過することにより、発言レベル埋め込みを取得すること
を特徴とする、請求項12に記載のコンピュータシステム。 - 前記音声区間検出部は、
前記話者認識モデルの出力が、時間経過による集計なく、前記投影層を経て伝達されることにより、音声活動ラベルを取得すること
を特徴とする、請求項19に記載のコンピュータシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200163743A KR102482827B1 (ko) | 2020-11-30 | 2020-11-30 | 화자 임베딩 기반 음성 활동 검출을 이용한 화자 분할 방법, 시스템, 및 컴퓨터 프로그램 |
KR10-2020-0163743 | 2020-11-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022086961A true JP2022086961A (ja) | 2022-06-09 |
JP7273078B2 JP7273078B2 (ja) | 2023-05-12 |
Family
ID=81894610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021014192A Active JP7273078B2 (ja) | 2020-11-30 | 2021-02-01 | 話者埋め込みに基づく音声活動検出を利用した話者ダイアライゼーション方法、システム、およびコンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7273078B2 (ja) |
KR (1) | KR102482827B1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010054733A (ja) * | 2008-08-27 | 2010-03-11 | Nippon Telegr & Teleph Corp <Ntt> | 複数信号区間推定装置、複数信号区間推定方法、そのプログラムおよび記録媒体 |
JP2010175614A (ja) * | 2009-01-27 | 2010-08-12 | Nippon Telegr & Teleph Corp <Ntt> | クラスタリング計算装置、クラスタリング計算方法、クラスタリング計算プログラム並びにそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
WO2012105385A1 (ja) * | 2011-02-01 | 2012-08-09 | 日本電気株式会社 | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム |
US20150025887A1 (en) * | 2013-07-17 | 2015-01-22 | Verint Systems Ltd. | Blind Diarization of Recorded Calls with Arbitrary Number of Speakers |
JP2018063313A (ja) * | 2016-10-12 | 2018-04-19 | 日本電信電話株式会社 | 話者数推定装置、話者数推定方法、およびプログラム |
WO2020068056A1 (en) * | 2018-09-25 | 2020-04-02 | Google Llc | Speaker diarization using speaker embedding(s) and trained generative model |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101616112B1 (ko) * | 2014-07-28 | 2016-04-27 | (주)복스유니버스 | 음성 특징 벡터를 이용한 화자 분리 시스템 및 방법 |
KR101780932B1 (ko) * | 2016-02-25 | 2017-09-27 | 주식회사 셀바스에이아이 | 음성 인식 성능을 향상시키기 위한 컴퓨터 프로그램 및 장치 |
KR101843079B1 (ko) | 2016-09-26 | 2018-05-14 | 서울대학교산학협력단 | 화자 상호 정보를 활용한 강인한 i-벡터 추출기 학습 방법 및 시스템 |
-
2020
- 2020-11-30 KR KR1020200163743A patent/KR102482827B1/ko active IP Right Grant
-
2021
- 2021-02-01 JP JP2021014192A patent/JP7273078B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010054733A (ja) * | 2008-08-27 | 2010-03-11 | Nippon Telegr & Teleph Corp <Ntt> | 複数信号区間推定装置、複数信号区間推定方法、そのプログラムおよび記録媒体 |
JP2010175614A (ja) * | 2009-01-27 | 2010-08-12 | Nippon Telegr & Teleph Corp <Ntt> | クラスタリング計算装置、クラスタリング計算方法、クラスタリング計算プログラム並びにそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
WO2012105385A1 (ja) * | 2011-02-01 | 2012-08-09 | 日本電気株式会社 | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム |
US20150025887A1 (en) * | 2013-07-17 | 2015-01-22 | Verint Systems Ltd. | Blind Diarization of Recorded Calls with Arbitrary Number of Speakers |
JP2018063313A (ja) * | 2016-10-12 | 2018-04-19 | 日本電信電話株式会社 | 話者数推定装置、話者数推定方法、およびプログラム |
WO2020068056A1 (en) * | 2018-09-25 | 2020-04-02 | Google Llc | Speaker diarization using speaker embedding(s) and trained generative model |
Also Published As
Publication number | Publication date |
---|---|
KR102482827B1 (ko) | 2022-12-29 |
KR20220075550A (ko) | 2022-06-08 |
JP7273078B2 (ja) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mannepalli et al. | A novel adaptive fractional deep belief networks for speaker emotion recognition | |
EP3201912B1 (en) | Neural network-based speech processing | |
Colonna et al. | Automatic classification of anuran sounds using convolutional neural networks | |
Tong et al. | A comparative study of robustness of deep learning approaches for VAD | |
JP7348445B2 (ja) | 話者識別を結合した話者ダイアライゼーション方法、システム、およびコンピュータプログラム | |
CN111816215A (zh) | 语音端点检测模型训练和使用方法及装置 | |
EP3682444A1 (en) | Voice-controlled management of user profiles | |
KR20200052453A (ko) | 딥러닝 모델 학습 장치 및 방법 | |
CN117337467A (zh) | 经由迭代说话者嵌入的端到端说话者分离 | |
CN114141252A (zh) | 声纹识别方法、装置、电子设备和存储介质 | |
Salekin et al. | Distant emotion recognition | |
JPWO2019244298A1 (ja) | 属性識別装置、属性識別方法、およびプログラム | |
CN111816170A (zh) | 一种音频分类模型的训练和垃圾音频识别方法和装置 | |
CN113593597A (zh) | 语音噪声过滤方法、装置、电子设备和介质 | |
JP7453733B2 (ja) | マルチデバイスによる話者ダイアライゼーション性能の向上のための方法およびシステム | |
JP7273078B2 (ja) | 話者埋め込みに基づく音声活動検出を利用した話者ダイアライゼーション方法、システム、およびコンピュータプログラム | |
CN112735432B (zh) | 音频识别的方法、装置、电子设备及存储介质 | |
KR20230093826A (ko) | 동물 탐지 및 분류를 위한 영상 데이터 라벨링 방법 및 장치 | |
Taran et al. | A Dual-Staged heterogeneous stacked ensemble model for gender recognition using speech signal | |
Karlos et al. | Speech recognition combining MFCCs and image features | |
Groh et al. | Efficient and explainable deep neural networks for airway symptom detection in support of wearable health technology | |
Tai et al. | Seef-aldr: A speaker embedding enhancement framework via adversarial learning based disentangled representation | |
CN112037772A (zh) | 基于多模态的响应义务检测方法、系统及装置 | |
Sophiya et al. | Deep learning based audio scene classification | |
Su et al. | Audio-Visual Multi-person Keyword Spotting via Hybrid Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210201 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210414 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |