JP2020154076A - 推論器、学習方法および学習プログラム - Google Patents
推論器、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP2020154076A JP2020154076A JP2019051008A JP2019051008A JP2020154076A JP 2020154076 A JP2020154076 A JP 2020154076A JP 2019051008 A JP2019051008 A JP 2019051008A JP 2019051008 A JP2019051008 A JP 2019051008A JP 2020154076 A JP2020154076 A JP 2020154076A
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- output
- asr
- encoder
- attribute information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 57
- 238000012549 training Methods 0.000 claims abstract description 28
- 230000005236 sound signal Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 26
- 230000010365 information processing Effects 0.000 description 21
- 238000011156 evaluation Methods 0.000 description 19
- 238000013519 translation Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000000692 Student's t-test Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012353 t test Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
Description
エンコーダは積層された複数のエンコーダブロックを含み、複数のエンコーダブロック間でパラメータが共有されてもよい。デコーダは積層された複数のデコータブロックを含み、複数のデコータブロック間でパラメータが共有されていてもよい。
まず、ASRトランスフォーマモデルの構成例について説明する。
次に、本実施の形態に従う学習処理および推論処理について説明する。
入力される音声信号に関連付けられる属性情報としては任意の情報を用いることができる。一例として、以下のような属性情報を用いてもよい。
(1)発話長さ(DUR:Duration of the utterance)
属性値としては、「Short」(例えば、3秒以下)および「Long」(例えば、3秒より長い)を設定できる。
(2)発話の内容(TOP:Topic of the lecture)
属性値としては、「Academic」(学術)、「Simulated」(仮想の内容)、「Dialogue」(会話)、「Read」(書籍の内容)、「Misc」(その他)、「Unknown」(未知)などを設定できる。
(3)話者の性別(SEX:Sex of the speaker)
属性値としては、「Male」(男性)、「Female」(女性)、「Unknown」(未知)などを設定できる。
(4)話者の年齢(AGE:Age of the speaker)
属性値としては、「Young」(10−20代)、「Middle−age」(30−50代)、「Old」(60−80代)、Unknown(未知)などを設定できる。
(5)話者の学歴(EDU:Education of the speaker)
属性値としては、「Middle−school」(中卒)、「Highschool」(高卒)、「Bechelor」(学士)、「Master−Doctor」(修士または博士)、「Unknown」(未知)などを設定できる。
(6)話者の識別情報(SPK:The speaker)
属性値としては、話者ごとに設定された識別情報などを設定できる。
次に、本実施の形態に従うASRトランスフォーマモデルを含む推論器を実現するためのハードウェア構成の一例について説明する。
次に、本実施の形態に従うASRトランスフォーマモデルの学習処理について説明する。
次に、本実施の形態に従うASRトランスフォーマモデル2を用いた推論処理について説明する。すなわち、ASRトランスフォーマモデル2を含む推論器の動作について説明する。
本願発明者らは、本実施の形態に従うASRトランスフォーマモデルの性能について評価実験を行った。以下、評価実験の内容および結果について説明する。
評価実験には、トレーニングデータおよび評価データとして、国立国語研究所が提供している「日本語話し言葉コーパス(Corpus of Spontaneous Japanese:CSJ)」を用いた。
まず、図1に示すASRトランスフォーマモデル1と図2に示すASRトランスフォーマモデル2とについて、音声認識性能および処理速度の評価結果を示す。
次に、図2に示すASRトランスフォーマモデル2について、属性情報を含むトレーニングデータセットを用いた学習処理を行った場合の音声認識性能および処理速度の評価結果を示す。
次に、属性情報の表現による性能差についての評価結果を示す。
次に、本実施の形態に従うASRトランスフォーマモデルを用いたアプリケーションの一例について説明する。
本実施の形態に従う学習処理によれば、音声信号と対応するテキストだけではなく、対応する属性情報をも含むデータセットを用いて、ASRトランスフォーマモデルを学習させることで、音声認識性能を高めることができる。
Claims (6)
- 音声信号から生成された入力シーケンスを受けて、前記音声信号に対応するテキストを含む出力シーケンスを出力する推論器であって、
推論器は、前記入力シーケンスから中間表現のシーケンスを出力するエンコーダと、前記エンコーダから出力される中間表現のシーケンス、および、先に出力された出力シーケンスから前記出力シーケンスを出力するデコーダとを含む学習済モデルを備えており、
前記学習済モデルは、音声信号と、当該音声信号に対応するテキストおよび属性情報とからなるトレーニングデータセットを用いて最適化されている、推論器。 - 前記出力シーケンスには、前記入力シーケンスに対応する属性情報に引き続いて、前記入力シーケンスに対応するテキストが配置されている、請求項1に記載の推論器。
- 前記出力シーケンスは、前記入力シーケンスに対応する複数種類の属性情報を含む、請求項1または2に記載の推論器。
- 前記エンコーダは積層された複数のエンコーダブロックを含み、前記複数のエンコーダブロック間でパラメータが共有され、
前記デコーダは積層された複数のデコータブロックを含み、前記複数のデコータブロック間でパラメータが共有されている、請求項1〜3のいずれか1項に記載の推論器。 - 音声信号から生成された入力シーケンスを受けて、前記音声信号に対応するテキストを含む出力シーケンスを出力するモデルを学習させる学習方法であって、
前記モデルは、
前記入力シーケンスから中間表現のシーケンスを出力するエンコーダと、
前記エンコーダから出力される中間表現のシーケンス、および、先に出力された出力シーケンスから前記出力シーケンスを出力するデコーダとを含み、
前記学習方法は、
音声信号と、当該音声信号に対応するテキストおよび属性情報とからなるトレーニングデータセットを用意するステップと、
前記トレーニングデータセットを用いて前記モデルに含まれるパラメータを最適化するステップとを含む、学習方法。 - コンピュータに請求項5に記載の学習方法を実行させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051008A JP2020154076A (ja) | 2019-03-19 | 2019-03-19 | 推論器、学習方法および学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051008A JP2020154076A (ja) | 2019-03-19 | 2019-03-19 | 推論器、学習方法および学習プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020154076A true JP2020154076A (ja) | 2020-09-24 |
Family
ID=72558838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019051008A Pending JP2020154076A (ja) | 2019-03-19 | 2019-03-19 | 推論器、学習方法および学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020154076A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112951200A (zh) * | 2021-01-28 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN113821053A (zh) * | 2021-09-28 | 2021-12-21 | 中国民航大学 | 一种基于语音识别和关系抽取技术的飞行辅助方法和系统 |
JP2022020006A (ja) * | 2021-03-04 | 2022-01-27 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 |
JP2022020051A (ja) * | 2020-11-18 | 2022-01-31 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 意味認識方法、装置、機器及び記憶媒体 |
WO2023073886A1 (ja) * | 2021-10-28 | 2023-05-04 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017159614A1 (ja) * | 2016-03-14 | 2017-09-21 | オムロン株式会社 | 学習サービス提供装置 |
WO2018051945A1 (ja) * | 2016-09-14 | 2018-03-22 | 日本電気株式会社 | 音声処理装置、音声処理方法、および記録媒体 |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
-
2019
- 2019-03-19 JP JP2019051008A patent/JP2020154076A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017159614A1 (ja) * | 2016-03-14 | 2017-09-21 | オムロン株式会社 | 学習サービス提供装置 |
WO2018051945A1 (ja) * | 2016-09-14 | 2018-03-22 | 日本電気株式会社 | 音声処理装置、音声処理方法、および記録媒体 |
WO2018071389A1 (en) * | 2016-10-10 | 2018-04-19 | Google Llc | Very deep convolutional neural networks for end-to-end speech recognition |
Non-Patent Citations (3)
Title |
---|
RAJ DABLE ET AL.: ""Recurrent Stacking of Layers for Compact Neural Machine Translation Models"", ARXIV:1807.05353V2 [CS.CL], JPN6023003049, 17 July 2018 (2018-07-17), ISSN: 0005112888 * |
SEKI, HIROSHI, ET AL.: "AN END-TO-END LANGUAGE-TRACKING SPEECH RECOGNIZER FOR MIXED-LANGUAGE SPEECH", PROC. ICASSP 2018, JPN6023029910, 15 April 2018 (2018-04-15), CA, pages 4919 - 4923, XP033401497, ISSN: 0005112889, DOI: 10.1109/ICASSP.2018.8462180 * |
SHI ZHOU ET AL.: ""Multilingual End-to-End Speech Recognition with A Single Transformer on Low-Resource Languages"", ARXIV:1806.05059V2 [EESS.AS], JPN6023003048, 14 June 2018 (2018-06-14), ISSN: 0005112887 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022020051A (ja) * | 2020-11-18 | 2022-01-31 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 意味認識方法、装置、機器及び記憶媒体 |
JP7280930B2 (ja) | 2020-11-18 | 2023-05-24 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 意味認識方法、装置、機器及び記憶媒体 |
CN112951200A (zh) * | 2021-01-28 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN112951200B (zh) * | 2021-01-28 | 2024-03-12 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
JP2022020006A (ja) * | 2021-03-04 | 2022-01-27 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 |
JP7297038B2 (ja) | 2021-03-04 | 2023-06-23 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 |
CN113821053A (zh) * | 2021-09-28 | 2021-12-21 | 中国民航大学 | 一种基于语音识别和关系抽取技术的飞行辅助方法和系统 |
WO2023073886A1 (ja) * | 2021-10-28 | 2023-05-04 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10559299B1 (en) | Reconciliation between simulator and speech recognition output using sequence-to-sequence mapping | |
AU2019347734B2 (en) | Conversational agent pipeline trained on synthetic data | |
CN106688034B (zh) | 具有情感内容的文字至语音转换 | |
JP2020154076A (ja) | 推論器、学習方法および学習プログラム | |
KR102375115B1 (ko) | 엔드-투-엔드 모델들에서 교차-언어 음성 인식을 위한 음소-기반 컨텍스트화 | |
CN114242033A (zh) | 语音合成方法、装置、设备、存储介质及程序产品 | |
JP7192882B2 (ja) | 発話リズム変換装置、モデル学習装置、それらの方法、およびプログラム | |
WO2023045186A1 (zh) | 意图识别方法、装置、电子设备和存储介质 | |
Baljekar et al. | An Investigation of Convolution Attention Based Models for Multilingual Speech Synthesis of Indian Languages. | |
JP2024511198A (ja) | シーケンスにわたって対照損失を用いる教師ありトレーニングおよび教師なしトレーニング | |
Nasr et al. | End-to-end speech recognition for arabic dialects | |
JP2022037862A (ja) | テキスト基盤の事前学習モデルを活用した縦断型音声言語理解知識を蒸留するための方法、システム、およびコンピュータ読み取り可能な記録媒体 | |
Tan et al. | Four-in-One: a joint approach to inverse text normalization, punctuation, capitalization, and disfluency for automatic speech recognition | |
Pakoci et al. | Language model optimization for a deep neural network based speech recognition system for Serbian | |
JP2021157145A (ja) | 推論器および推論器の学習方法 | |
WO2024069978A1 (ja) | 生成装置、学習装置、生成方法、学習方法、及びプログラム | |
WO2023129352A1 (en) | Using token level context to generate ssml tags | |
JP6625961B2 (ja) | 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム | |
JP7146038B2 (ja) | 音声認識システム及び方法 | |
JP7173339B2 (ja) | 発話評価装置、発話評価方法、およびプログラム | |
US20240071368A1 (en) | System and Method for Adapting Natural Language Understanding (NLU) Engines Optimized on Text to Audio Input | |
TWI829312B (zh) | 訓練一自動語音辨識系統之方法、電腦程式產品及電腦系統 | |
US20220310061A1 (en) | Regularizing Word Segmentation | |
JP6790791B2 (ja) | 音声対話装置および対話方法 | |
JP2021043272A (ja) | 推論器、推論プログラムおよび学習方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240206 |