JP6306528B2 - 音響モデル学習支援装置、音響モデル学習支援方法 - Google Patents
音響モデル学習支援装置、音響モデル学習支援方法 Download PDFInfo
- Publication number
- JP6306528B2 JP6306528B2 JP2015041467A JP2015041467A JP6306528B2 JP 6306528 B2 JP6306528 B2 JP 6306528B2 JP 2015041467 A JP2015041467 A JP 2015041467A JP 2015041467 A JP2015041467 A JP 2015041467A JP 6306528 B2 JP6306528 B2 JP 6306528B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- acoustic model
- data
- speech
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
以下では本発明の理解を容易にするため、まず本発明の基本的な考え方について説明する。その後、その考え方を実現する本発明の実施形態について説明する。
(要因2)通話音声の話者が複数存在するので(例えばオペレータと顧客との間の対話においては2人の話者)、話速や音声区間長などの音声特徴量の変動が大きい。
(要因3)コールセンタに着呼する音声は、不特定多数者からのものであるため、話者(特に顧客側の話者)の音声品質が話者毎に大きく異なる。
(要因4)コールセンタの録音には、呼出音や保留音などの大音量の信号が混在し、相対的に小さい話し声の音量が、著しく小さく録音されることがしばしばある。
図1は、本発明の実施形態1に係る音響モデル学習支援装置100の機能ブロック図である。音響モデル学習支援装置100は、音響モデルを学習することを支援する装置である。ここでいう音響モデルとは、音声の特徴量を入力することによりその音声の文字表現を識別するニューラルネットワークである。例えば音響モデルに対して「日立」と発話した音声から、一部分を切り出した特徴量を入力すると、切り出した箇所に応じて、その特徴量に対応する音素が「h」「i」「t」「a」「c」「h」「i」である確率が高くなるように、各音素の出力確率がニューラルネットワークの出力値として出力される。
サンプル音声入力部108は、サンプル音声データを取得する。ここでいうサンプル音声データとは、学習音声データと比較して音声品質が劣化したものをいう。例えばコールセンタにおけるオペレータと顧客との間の実際の対話を録音したデータを、サンプル音声データとして用いることができる。本ステップにおけるサンプル音声データは、どの程度劣化した音声を音響モデルに追加学習させるとよいかについての指標を与える役割を有する。詳細は後述する。
サンプル分析部109は、サンプル音声データを分析することによりその特徴量を取得する。特徴量の例については後述する。サンプル音声データの特徴量は、コールセンタにおいて実際にやり取りされる対話音声がどの程度劣化しているかの目安である。したがってその特徴量を分析することにより、どの程度劣化した音声を音響モデルに追加学習させればよいかを判断することができる。詳細は後述する。
劣化案提示部110は、サンプル分析部109が取得したサンプル音声データの特徴量の一覧を、学習音声データに対して反映させる劣化量の候補として提示する。提示インターフェースの具体例については図5で改めて説明する。
ユーザは、劣化案提示部110が提示する提示インターフェース上において、サンプル音声データのいずれの特徴量を学習音声データに対して反映するかを選択し、劣化方式選択部101はその選択を受け取る(S204)。劣化音声生成部102は、劣化方式選択部101が受け取った選択項目に対応する特徴量を、学習音声DB111が格納している学習音声データに対して反映することにより、学習音声データの音声品質を劣化させた劣化音声データを生成する(S205)。
学習効果計算部103は、ステップS205において生成された劣化音声データを用いて音響モデルの追加学習を実施することによる効果を、計算する。本ステップの詳細については図3〜図4を用いて後述する。
学習効果提示部104は、ステップS206において計算された学習効果を、提示インターフェースを介して提示する。本ステップの詳細については図5を用いて後述する。
ユーザは、ステップS207において提示される学習効果が十分であると判断する場合は、学習効果提示部104が提示する提示インターフェース上において、劣化音声データを用いて音響モデルの追加学習を実施するよう指示する。追加学習指示部105はその指示を受け取り、当該劣化音声データを用いて追加学習を実施するよう追加学習部106に対して指示する。
追加学習部106は、追加学習指示部105からの指示にしたがって、劣化音声データを用いて音響モデルの追加学習を実施する(S209)。ユーザは提示インターフェースを介して、追加学習が完了した音響モデルを送信するように音響モデル学習支援装置100に対してリクエストし、音響モデル出力部107はそのリクエストにしたがって音響モデル113から音響モデルを取得して送信する(S210)。
学習効果計算部103は、学習音声DB111が格納している学習音声データのうち、劣化音声生成部102が生成した劣化音声データと文字表現が同じものを取得する(S301)。学習効果計算部103は、学習音声データの特徴量を抽出し、音響モデル113が格納している音響モデルの入力層に対してその特徴量を入力する(S302)。
音響モデル(およびこれを用いる識別器)は、入力された特徴量を用いて、学習音声データの音素の文字表現を識別する。音響モデルを用いた識別処理の過程において、音響モデルの中間層はそれぞれ出力値を出力する。学習効果計算部103は、その中間層出力値を取得する。
学習効果計算部103は、劣化音声生成部102が生成した劣化音声データに対して、ステップS301〜S303と同様の処理を実施する。これにより、文字表現としては同一である2つの音声データ(学習音声データと劣化音声データ)それぞれについて、その特徴量を表す中間層出力が得られることになる。
学習効果計算部103は、ステップS303とS306においてそれぞれ取得した2つの中間層出力間の距離を計算する。この距離としては、例えば特徴量ベクトル間のユークリッド距離を用いることができるが、その他適当な手法により距離を計算してもよい。
ステップS307において計算した距離が所定閾値以上である場合(S308)、学習効果計算部103(または学習効果提示部104)はその劣化音声データを追加学習音声DB112に格納する(S309)。距離が閾値未満である場合(S308)、当該劣化音声データは音響モデルの追加学習の際に使用しないので、追加学習音声DB112には格納しない。追加学習音声DB112を設けることに代えて、例えば学習音声DB111が格納している学習音声データが追加学習に適しているか否かを示すフラグなどのフィールドを設けることにより、同様の動作を実現することもできる。
以上のように、本実施形態1に係る音響モデル学習支援装置100は、学習音声データを識別する過程において得られる中間層出力値と、劣化音声データを識別する過程において得られる中間層出力値との間の距離を計算し、この距離が大きい劣化音声データを用いて追加学習を実施する。これにより、劣化音声データのうち学習効果が大きいと想定されるものに絞って追加学習を実施することができるので、学習効率を高めることができる。
実施形態1においては、1つの学習音声データに対して図5の適用順序欄504に示す順序にしたがって劣化特徴量を反映することを説明した。このとき劣化音声生成部102は、同一の学習音声データから複数の劣化音声データを生成することもできる。例えば適用順序1位の特徴量を反映した第1劣化音声データと、適用順序2位の特徴量を反映した第2劣化音声データとを生成することができる。
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることもできる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の構成を追加・削除・置換することもできる。
Claims (10)
- 音声の特徴量を入力することにより前記音声の文字表現を識別するニューラルネットワークである音響モデルを学習することを支援する音響モデル学習支援装置であって、
前記音響モデルを記述した音響モデルデータを格納する記憶部、
前記音響モデルを学習するために用いる学習音声データの特徴量を変化させることにより変化音声データを生成する変化音声生成部、
前記音響モデルを用いて前記学習音声データを識別した結果得られた前記音響モデルの中間層出力値と、前記音響モデルを用いて前記変化音声データを識別した結果得られた前記音響モデルの中間層出力値との間の第1距離を算出する距離計算部、
前記第1距離が第1閾値以上である場合、前記変化音声データは前記音響モデルの追加学習を実施する際に用いるのに適した候補である旨を示すデータを出力する、学習効果提示部、
を備えることを特徴とする音響モデル学習支援装置。 - 前記音響モデル学習支援装置は、サンプル音声データの特徴量を分析するサンプル分析部を備え、
前記変化音声生成部は、前記サンプル分析部が取得した前記サンプル音声データの特徴量を前記学習音声データに対して反映することにより、前記学習音声データの特徴量を変化させる
ことを特徴とする請求項1記載の音響モデル学習支援装置。 - 前記距離計算部は、
前記音響モデルが前記学習音声データを識別した際に前記音響モデルの出力層の1つ前段の中間層出力値を取得するとともに、前記音響モデルが前記変化音声データを識別した際に前記出力層の1つ前段の中間層出力値を取得し、
取得した各前記中間層出力値間の距離を前記第1距離として算出する
ことを特徴とする請求項1記載の音響モデル学習支援装置。 - 前記変化音声生成部は、同一の前記学習音声データを用いて複数の前記変化音声データを生成し、
前記距離計算部は、前記音響モデルを用いて第1の前記変化音声データを識別した結果得られた前記音響モデルの中間層出力値と、前記音響モデルを用いて第2の前記変化音声データを識別した結果得られた前記音響モデルの中間層出力値との間の第2距離を算出し、
前記学習効果提示部は、前記第1の変化音声データについて算出した前記第1距離が前記第1閾値以上であるとともに、前記第2距離が第2閾値以上である場合に限り、前記第1の変化音声データは前記音響モデルの追加学習を実施する際に用いるのに適した候補である旨を示すデータを出力する
ことを特徴とする請求項1記載の音響モデル学習支援装置。 - 前記音響モデル学習支援装置は、前記サンプル分析部が取得した前記サンプル音声データの特徴量を提示するとともに、前記学習音声データに対して反映すべき前記サンプル音声データの特徴量を指定する、操作インターフェースを備え、
前記変化音声生成部は、前記操作インターフェースを介して指定された前記サンプル音声データの特徴量を前記変化音声データに対して反映する
ことを特徴とする請求項2記載の音響モデル学習支援装置。 - 前記距離計算部は、複数の前記学習音声データについて前記第1距離を計算し、
前記音響モデル学習支援装置は、前記第1距離が前記第1閾値以上である場合、各前記学習音声データについての前記第1距離の平均を提示する、学習効果提示インターフェースを備える
ことを特徴とする請求項1記載の音響モデル学習支援装置。 - 前記サンプル分析部は、
前記サンプル音声データの音量、
前記サンプル音声データのコーデック、
前記サンプル音声データの周波数、
前記サンプル音声データの話速、
前記サンプル音声データの音声区間長、
前記サンプル音声データの声道長、
のうち少なくともいずれかを前記サンプル音声データの特徴量として分析する
ことを特徴とする請求項2記載の音響モデル学習支援装置。 - 前記変化音声生成部は、
前記学習音声データの音量を変更する、
前記学習音声データのコーデックを変更する、
前記学習音声データの周波数を変更する、
前記学習音声データの話速を変更する、
前記学習音声データの音声区間長を変更する、
前記学習音声データの声道長を変更する、
のうち少なくともいずれかを実施することにより、前記学習音声データの特徴量を変化させる
ことを特徴とする請求項1記載の音響モデル学習支援装置。 - 前記音響モデル学習支援装置は、
前記変化音声データを用いて前記音響モデルの追加学習を実施するよう前記音響モデル学習支援装置に対して指示する学習指示インターフェース、
前記学習指示インターフェースが受け取った指示に基づき前記変化音声データを用いて前記音響モデルの追加学習を実施する追加学習部、
を備えることを特徴とする請求項1記載の音響モデル学習支援装置。 - 音声の特徴量を入力することにより前記音声の文字表現を識別するニューラルネットワークである音響モデルを学習することを支援する音響モデル学習支援方法であって、
前記音響モデルを記述した音響モデルデータを記憶部に格納するステップ、
前記音響モデルを学習するために用いる学習音声データの特徴量を変化させることにより変化音声データを生成する変化音声生成ステップ、
前記音響モデルを用いて前記学習音声データを識別した結果得られた前記音響モデルの中間層出力値と、前記音響モデルを用いて前記変化音声データを識別した結果得られた前記音響モデルの中間層出力値との間の第1距離を算出する距離計算ステップ、
前記第1距離が第1閾値以上である場合、前記変化音声データは前記音響モデルの追加学習を実施する際に用いるのに適した候補である旨を示すデータを出力する、学習効果提示ステップ、
を有することを特徴とする音響モデル学習支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041467A JP6306528B2 (ja) | 2015-03-03 | 2015-03-03 | 音響モデル学習支援装置、音響モデル学習支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041467A JP6306528B2 (ja) | 2015-03-03 | 2015-03-03 | 音響モデル学習支援装置、音響モデル学習支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016161823A JP2016161823A (ja) | 2016-09-05 |
JP6306528B2 true JP6306528B2 (ja) | 2018-04-04 |
Family
ID=56846917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015041467A Active JP6306528B2 (ja) | 2015-03-03 | 2015-03-03 | 音響モデル学習支援装置、音響モデル学習支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6306528B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7049974B2 (ja) * | 2018-10-29 | 2022-04-07 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7348945B2 (ja) * | 2019-03-14 | 2023-09-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、および、情報処理システム |
US20200349425A1 (en) * | 2019-04-30 | 2020-11-05 | Fujitsu Limited | Training time reduction in automatic data augmentation |
JP7298825B2 (ja) * | 2019-12-24 | 2023-06-27 | 株式会社 東京ウエルズ | 学習支援装置、学習装置、学習支援方法及び学習支援プログラム |
KR20210099988A (ko) | 2020-02-05 | 2021-08-13 | 삼성전자주식회사 | 뉴럴 네트워크의 메타 학습 방법 및 장치와 뉴럴 네트워크의 클래스 벡터 학습 방법 및 장치 |
WO2021234905A1 (ja) * | 2020-05-21 | 2021-11-25 | 日本電信電話株式会社 | 学習データ生成装置、モデル学習装置、学習データ生成方法、およびプログラム |
WO2021234904A1 (ja) * | 2020-05-21 | 2021-11-25 | 日本電信電話株式会社 | 学習データ生成装置、モデル学習装置、学習データ生成方法、およびプログラム |
KR20240001332A (ko) | 2021-07-07 | 2024-01-03 | 미쓰비시덴키 가부시키가이샤 | 데이터 처리 장치 및 데이터 처리 방법 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04295894A (ja) * | 1991-03-26 | 1992-10-20 | Sanyo Electric Co Ltd | 神経回路網モデルによる音声認識方法 |
JPH05181500A (ja) * | 1991-11-26 | 1993-07-23 | Sekisui Chem Co Ltd | 単語認識システム |
JP3322491B2 (ja) * | 1994-11-25 | 2002-09-09 | 三洋電機株式会社 | 音声認識装置 |
JP3322536B2 (ja) * | 1995-09-13 | 2002-09-09 | 三洋電機株式会社 | ニューラルネットワークの学習方法および音声認識装置 |
JP2005031258A (ja) * | 2003-07-09 | 2005-02-03 | Canon Inc | 認識モデル学習装置及び方法 |
-
2015
- 2015-03-03 JP JP2015041467A patent/JP6306528B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016161823A (ja) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6306528B2 (ja) | 音響モデル学習支援装置、音響モデル学習支援方法 | |
US10614803B2 (en) | Wake-on-voice method, terminal and storage medium | |
CN109767765A (zh) | 话术匹配方法及装置、存储介质、计算机设备 | |
WO2017166650A1 (zh) | 语音识别方法及装置 | |
CN110473525B (zh) | 获取语音训练样本的方法和装置 | |
CN111081280B (zh) | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 | |
JP7086521B2 (ja) | 情報処理方法および情報処理装置 | |
KR20140025361A (ko) | 위치-기반 대화 해석 | |
CN110136715B (zh) | 语音识别方法和装置 | |
US9099091B2 (en) | Method and apparatus of adaptive textual prediction of voice data | |
CN107680584B (zh) | 用于切分音频的方法和装置 | |
KR20040088368A (ko) | 스위칭 상태 공간 모델들을 갖는 변분 추론을 사용하는음성 인식 방법 | |
US10971149B2 (en) | Voice interaction system for interaction with a user by voice, voice interaction method, and program | |
US8868419B2 (en) | Generalizing text content summary from speech content | |
CN114663556A (zh) | 数据交互方法、装置、设备、存储介质以及程序产品 | |
JP2021101252A (ja) | 情報処理方法、情報処理装置およびプログラム | |
CN113658586B (zh) | 语音识别模型的训练方法、语音交互方法及装置 | |
US11037583B2 (en) | Detection of music segment in audio signal | |
WO2014176489A2 (en) | A system and method for supervised creation of personalized speech samples libraries in real-time for text-to-speech synthesis | |
CN112863496A (zh) | 一种语音端点检测方法以及装置 | |
JP2020134719A (ja) | 翻訳装置、翻訳方法、および翻訳プログラム | |
CN113658581B (zh) | 声学模型的训练、语音处理方法、装置、设备及存储介质 | |
CN114999440A (zh) | 虚拟形象生成方法、装置、设备、存储介质以及程序产品 | |
CN113763968A (zh) | 用于识别语音的方法、装置、设备、介质和产品 | |
CN113051426A (zh) | 音频信息分类方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180308 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6306528 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |