JP6625961B2 - 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム - Google Patents

発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム Download PDF

Info

Publication number
JP6625961B2
JP6625961B2 JP2016239050A JP2016239050A JP6625961B2 JP 6625961 B2 JP6625961 B2 JP 6625961B2 JP 2016239050 A JP2016239050 A JP 2016239050A JP 2016239050 A JP2016239050 A JP 2016239050A JP 6625961 B2 JP6625961 B2 JP 6625961B2
Authority
JP
Japan
Prior art keywords
acoustic model
pronunciation
pronunciation dictionary
cluster
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016239050A
Other languages
English (en)
Other versions
JP2018097045A (ja
Inventor
哲 小橋川
哲 小橋川
祐太 河内
祐太 河内
中澤 裕一
裕一 中澤
裕司 青野
裕司 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016239050A priority Critical patent/JP6625961B2/ja
Publication of JP2018097045A publication Critical patent/JP2018097045A/ja
Application granted granted Critical
Publication of JP6625961B2 publication Critical patent/JP6625961B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Description

この発明は、発音辞書及び音響モデルを生成するための技術及び音声認識技術に関する。
音響モデルの作成技術として、特許文献1に記載された技術が知られている(例えば、特許文献1参照。)。
特開2010-96899号公報
従来の音響モデルの作成において、日本人の英語等の非母国語の話者に音声認識を対応させるためには、発音誤りを考慮した書き起こしテキストを用意し、発音辞書を整備する必要がある。しかし、話者のスキルレベルに応じて、発音誤りの傾向が異なるため、スキルレベルを考慮しないで、発音辞書及び音響モデルを作ると、十分な精度が出ない可能性があった。
この発明は、従来よりも認識精度が高い発音辞書及び音響モデル発音辞書及び音響モデルを生成する発音辞書及び音響モデル生成装置、従来よりも認識精度が高い音声認識装置、方法及びプログラムを提供することを目的とする。
この発明の一態様による発音辞書及び音響モデル生成装置は、ある言語の非母国語の各話者の音声データ及び対応するテキストデータである学習データには、その各話者のその言語の習得度に応じたスキルレベルが与えられているとして、上記学習データをスキルレベルに基づいてクラスタリングすることにより、N個の学習クラスタi(i=1,…,N)を生成するデータクラスタリング部と、発音誤り候補パタンのエントリを、所定の発音辞書のエントリに追加することにより追加発音辞書iを生成し、上記学習クラスタiの音声データ及び所定の音響モデルの下で上記学習クラスタiのテキストデータを上記追加発音辞書iの各エントリで変換した読みが尤もらしい上記追加発音辞書iの中のエントリを残すことによりクラスタ発音辞書iを生成する発音獲得部と、上記学習クラスタiのテキストデータを上記クラスタ発音辞書iで変換した読み及び学習クラスタiの音声データを用いて音響モデルを学習することによりクラスタ音響モデルiを生成する音響モデル学習部とを含み、生成された更新後発音辞書iを所定の発音辞書とし、クラスタ音響モデルiを所定の音響モデルとする発音獲得部及びモデル学習部の処理を繰り返すことにより、クラスタ発音辞書i及びクラスタ音響モデルiを更新する処理を、i=1,…,Nのそれぞれについて行う更新部と、更新されたクラスタ発音辞書i及びクラスタ音響モデルiを統合することにより、統合発音辞書及び統合音響モデルを生成する統合部と、を備えている。
話者のスキルレベルを考慮することで、従来よりも認識精度が高い発音辞書及び音響モデルを生成することができる。また、従来よりも精度が高い音声認識を行うことができる。
発音辞書及び音響モデル生成装置及び音声認識装置の例を説明するためのブロック図。 発音辞書及び音響モデル生成方法の例を説明するための流れ図。 音声認識方法の例を説明するための流れ図。
以下、図面を参照して、この発明の実施形態について説明する。
[発音辞書及び音響モデル生成装置1]
発音辞書及び音響モデル生成装置1は、図1に示すように、データクラスタリング部11、更新部12及び統合部13を例えば備えている。
発音辞書及び音響モデル生成方法は、発音辞書及び音響モデル生成装置1の各部が、図2及び以下に説明するステップS11からステップS13の処理を行うことにより例えば実現される。
<データクラスタリング部11>
データクラスタリング部11は、学習データをスキルレベルに基づいてクラスタリングすることにより、N個の学習クラスタi(i=1,…,N)を生成する(ステップS11)。生成されたN個の学習クラスタiは、更新部12に出力される。Nは、所定の正の整数(例えば、6から10等の整数〜10等)である。
学習データは、音声データと、対応した発声内容を記述したテキストデータとを含んでいる。テキストデータは、話者がそもそも発声しようとした文章を想定する。学習データには、その学習データに係る話者のスキルレベルが与えられているものとする。スキルレベルは、話者のネイティブレベル(当該言語に対するテストの点数等)としても良いし、話者の出身地等、話者の発音に影響する要素を数値化したものであっても良い。学習データは、話者毎に元々分割されていても良い。
このように、ある言語の各話者の音声データ及び対応するテキストデータである学習データには、その各話者のその言語の習得度に応じたスキルレベルが与えられているとする。
<更新部12>
更新部12は、発音獲得部121及び音響モデル学習部122を備えている。更新部12は、以下に説明する発音獲得部121及び音響モデル学習部122の処理を繰り返すことにより、クラスタ発音辞書i及びクラスタ音響モデルiを更新する処理を、i=1,…,Nのそれぞれについて行う。更新は、例えば所定の回数だけ行われる。所定の回数は例えば10回である。更新は、クラスタ発音辞書i及びクラスタ音響モデルiが所定の範囲内に収束するまで行われてもよい。また、所定の回数という閾値と併用して、獲得される発音が変化しなくなる収束段階で止めても構わない。
最終的に更新されたクラスタ発音辞書i及びクラスタ音響モデルiは、統合部13に出力される。
発音獲得部121は、発音誤り候補パタンのエントリを、所定の発音辞書のエントリに追加することにより追加発音辞書iを生成し、学習クラスタiの音声データ及び所定の音響モデルの下で学習クラスタiのテキストデータを追加発音辞書iの各エントリで変換した読みが尤もらしい追加発音辞書iの中のエントリを残すことにより、クラスタ発音辞書iを生成する(ステップS121)。生成されたクラスタ発音辞書iは、音響モデル学習部122に出力される。
発音辞書とは、単語等のテキストデータの構成単位とその構成単位に対応する読みとの組であるエントリの集合である。読みは、例えば音素により表される。
発音誤り候補パタンとは、誤り易い発音誤りに対応する、単語等のテキストデータの構成単位とその構成単位に対応する読みとの組であるエントリである。発音誤り候補パタンは、l/rの誤り、音素の脱落/挿入等の非母国語の話者が起こしやすい発音の誤りを考慮して定められる。
例えば、「Rice」という単語とrの発音を含む読みとの組がエントリの1つとして発音辞書に登録されているとする。ここで、日本人等の英語の話者は、「Rice」のrの発音を正しくすることが難しいため、rではなくlの発音をしてしまうことが多い。このため、l/rの誤りという誤り易い発音誤りに対応して、「Rice」という単語とlの発音を含む読みとの組が発音誤り候補パタンのエントリとして、発音辞書iに追加される。
所定の発音辞書は、最初の発音獲得部121による1回目の処理を行う場合には、予め定められた発音辞書であるベース発音辞書であり、kを2以上の整数として最初の発音獲得部121によるk回目以降の一番初めの処理を行う場合には、発音獲得部121によるk−1回目の処理のより生成されたクラスタ発音辞書iである。
所定の音響モデルは、最初の発音獲得部121による1回目の処理を行う場合には、予め定められた音響モデルであるベース音響モデルであり、kを2以上の整数として最初の発音獲得部121によるk回目以降の一番初めの処理を行う場合には、音響モデル学習部122によるk−1回目の処理のより生成された音響モデルiである。
尤もらしいとは、言い換えれば尤度又は事後確率が高いということである。尤もらしいエントリを残すために、例えば、尤度又は事後確率が所定の閾値以上のエントリを残してもよいし、Mを所定の正の整数として尤度又は事後確率が高い上位M個のエントリを残してもよい。例えば、M=1とすることで、最高尤度のエントリのみを残すこととなる。
例えば、「Rice」という単語とlの発音を含む読みとの組が発音誤り候補パタンのエントリとして発音辞書iに追加されており、かつ、M=1の場合には、学習クラスタiの音声データ及び所定の音響モデルの下で、rの発音を含む読みのエントリと、lの発音を含む読みのエントリとのうち尤もらしい、言い換えれば尤度又は事後確率が高いエントリが発音辞書iに残され、そうでない方のエントリは発音辞書iから削除される。例えば、M=1の場合は、発音誤りパタンとして許容する範囲が少なく、M≧2の場合は話者毎に大きく異なる様々な発音誤りパタンに対応できる。
このように、発音誤り候補パタンのエントリを発音辞書に追加するという手法により発話誤りを考慮することにより、非母国語の話者の書き起こすべき量が少なくなるため、音響モデル、発音辞書を整備するコストを大幅に削減できる。さらに、学習に使うべきデータ量を減らせるため、学習時間も少なくなる。
音響モデル学習部122は、学習クラスタiのテキストデータをクラスタ発音辞書iで変換したテキストデータ及び学習クラスタiの音声データを用いて音響モデルを学習することによりクラスタ音響モデルiを生成する(ステップS122)。
<統合部13>
統合部13は、更新されたクラスタ発音辞書i及びクラスタ音響モデルiを統合することにより、統合発音辞書及び統合音響モデルを生成する(ステップS13)。生成された統合発音辞書及び統合音響モデルは、音声認識装置2の記憶部21に記憶される。
統合部13は、例えば、スキルレベル毎の音響モデル/辞書が読み込める形式でまとめる。
なお、統合部13は、クラスタ発音辞書iのみを複数のものを統合してもよい。この場合、音響モデルは全学習データで学習し直すことにより、統合音響モデルを生成する。
[音声認識装置2]
音声認識装置2は、記憶部21及び音声認識部22を例えば備えている。音声認識方法は、音声認識部22がステップS21の処理を行うことにより実現される。
<記憶部21>
記憶部21には、発音辞書及び音響モデル生成装置1により生成された統合発音辞書及び統合音響モデルが記憶されている。
<音声認識部22>
音声認識部22は、記憶部21から読み込んだ統合された発音辞書及び統合音響モデルを用いて、入力された音声データについての音声認識を行うことにより、入力音声をテキストに変換する(ステップS21)。
入力音声には、事前にその言語の話者のスキルレベルが対応付けられている。例えば、音声認識部22は、入力音声に対応するスキルレベルのクラスタ発音辞書及びクラスタ音響モデルを用いて、音声認識を行う。
なお、音声認識部22は、複数のクラスタ音響モデル・クラスタ発音辞書を用いて、最大尤度の認識結果を出力してもよい。すなわち、音声認識部22は、各スキルレベルのクラスタ発音辞書及びクラスタ音響モデルを用いて音声認識を行い、各スキルレベルに対応する音声認識結果を得て、各スキルレベルに対応する音声認識結果の中で最大尤度の音声認識結果を出力してもよい。
[変形例1]
データクラスタリング部11は、各学習データが、予め定められた各スキルレベルに対応する発話誤りパタンのどれに尤も当てはまるかに基づいて、その各学習データのスキルレベルを推定し、その推定されたスキルレベルに基づいてクラスタリング処理を行ってもよい。
より詳細には、データクラスタリング部11は、各学習データの音声データ及び所定の音響モデルの下で、その各学習データのテキストデータの各構成単位を発話誤りパタンで変換した読みが最も尤もらしい発話誤りパタンを見つけ、その各構成単位にその見つかった発話誤りパタンに対応するスキルレベルを割り当てる。そして、学習データのテキストデータの各構成単位のスキルレベルの中で、最も多いスキルレベルをその学習データのスキルレベルとする。
このように、データクラスタリング部11は、入力された発音誤りパタンをスキルレベル分けして、考慮するパタン数が異なる発音誤りパタン候補リストを行い、学習データに対して最適となる発音誤りパタンを選定。そして、最適となる発音誤り数(割合)に応じて、スキルレベルを設定してもよい。
このように、データクラスタリング部11が、スキルレベルを推定及び設定することにより、学習データに予めスキルレベルを付与する手間を省くことができる。
[変形例2]
更新部12は、スキルレベル毎の学習データiの量を減らしてもよい。これにより、学習時間を減らすことができる。
例えば、更新部12は、クラスタリングにより生成された学習クラスタiに含まれるデータをランダムに選定する。更新部12は、クラスタリングにより生成された学習クラスタiに含まれるデータを、各学習クラスタiの話者数が一定数又は一定数以下となるように減らしてもよい。ただし、学習クラスタi毎で考慮するべき発音誤りパタンが全て含まれるテキストを選定する必要がある。
変形例2は、非ネイティブ話者の発話誤りが獲得できれば十分であるため、スキルレベル毎の学習データiの量はそれほど多くなくてもよく、全学習データを利用しなくてもよいという考えに基づくものである。
[変形例3]
データクラスタリング部11は、学習データのスキルレベルを母国語の音響モデルと非母国語の音響モデルのどちらに近いかで判定し、その判定されたされたスキルレベルに基づいて学習データのクラスタリング処理を行ってもよい。
例えば、データクラスタリング部11は、各学習データの音声データの下で、母国語の音響モデル及び非母国語の音響モデルのそれぞれを用いて、その各学習データのテキストデータの各構成単位を所定の発音辞書で変換した読みの尤もらしさを計算し、その各構成単位には母国語の音響モデル及び非母国語の音響モデルのどちらがより尤もらしいかを決定する。そして、学習データのテキストデータの中で、非母国語の音響モデルが割り当てられた構成単位の割合をその学習データのスキルレベルとする。
このように、母国語/非母国語音響モデルで尤度計算を行い、尤度が高くなった学習データの非母国語音響モデルが選定された割合をスキルレベルとしてもよい。
このように、データクラスタリング部11が、スキルレベルを判定及び設定することにより、学習データに予めスキルレベルを付与する手間を省くことができる。
なお,スキルレベルの判定に音響モデルを用いる事で、最終的に生成される音響モデルと整合性が取れるため、精度の向上が期待できる。
[変形例4]
発音獲得部121による1回目の処理を行う場合に用いる、予め定められた音響モデルであるベース音響モデルは、母国語モデルを元モデルとして構築されたものであってもよい。例えば、ベースとなる音響モデルを母国語モデルとし、非母国語考慮音素変換テーブルを用意して、母国語辞書の音素情報を非母国語に変換することにより、構築された音響モデルをベース音響モデルとする。
元モデルとして、母国語モデルを使う事で、スキルレベルが低く発音が母国語に近い話者の発音獲得の収束を早める事が期待できる。ここで、非母国語考慮音素変換テーブルは、非母国語の音素と、母国語話者の音素で、類似している音素関係対を持つ情報である。例えば、日本語と英語の場合は「あ」の音素「a_jp」と、英語の「ae」の音素「ae_en」等が相当する。
[変形例5]
発音獲得部121による1回目の処理を行う場合に用いる、予め定められた音響モデルであるベース音響モデルとして、予め定められた母国語音響モデル、予め定められた非母国語音響モデルの両方を用いてもよい。この時の母国語音響モデルは、変形例4と同様音素情報を非母国語に変換したものを用いる。
母国語音響モデル、非母国語音響モデルの両方を用いる事で、スキルレベルが大きく異なる話者を包含する事ができる。発音辞書としては、母国語の音素体系・音響モデル、非母国語の音素体系・音響モデルを併用する事で、発音が母国語に近い話者と、非母国語に近い話者の両方の精度を同時に高める事が可能となる。
[プログラム及び記録媒体]
発音辞書及び音響モデル生成装置1又は音声認識装置2における各処理をコンピュータによって実現する場合、発音辞書及び音響モデル生成装置1又は音声認識装置2が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、発音辞書及び音響モデル生成装置1又は音声認識装置2の処理がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、各処理手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
[変形例]
その他、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
1 発音辞書及び音響モデル生成装置
11 データクラスタリング部
12 更新部
121 発音獲得部
122 音響モデル学習部
13 統合部
2 音声認識装置
21 記憶部
22 音声認識部

Claims (5)

  1. ある言語の非母国語の各話者の音声データ及び対応するテキストデータである学習データには、その各話者のその言語の習得度に応じたスキルレベルが与えられているとして、上記学習データをスキルレベルに基づいてクラスタリングすることにより、N個の学習クラスタi(i=1,…,N)を生成するデータクラスタリング部と、
    発音誤り候補パタンのエントリを、所定の発音辞書のエントリに追加することにより追加発音辞書iを生成し、上記学習クラスタiの音声データ及び所定の音響モデルの下で上記学習クラスタiのテキストデータを上記追加発音辞書iの各エントリで変換した読みが尤もらしい上記追加発音辞書iの中のエントリを残すことによりクラスタ発音辞書iを生成する発音獲得部と、上記学習クラスタiのテキストデータを上記クラスタ発音辞書iで変換した読み及び上記学習クラスタiの音声データを用いて音響モデルを学習することによりクラスタ音響モデルiを生成する音響モデル学習部とを含み、上記生成された更新後発音辞書iを上記所定の発音辞書とし、上記クラスタ音響モデルiを上記所定の音響モデルとする上記発音獲得部及び上記モデル学習部の処理を繰り返すことにより、クラスタ発音辞書i及びクラスタ音響モデルiを更新する処理を、i=1,…,Nのそれぞれについて行う更新部と、
    上記更新されたクラスタ発音辞書i及びクラスタ音響モデルiを統合することにより、統合発音辞書及び統合音響モデルを生成する統合部と、
    を含む発音辞書及び音響モデル生成装置。
  2. 請求項1の発音辞書及び音響モデル生成装置で生成された上記統合発音辞書及び上記統合音響モデルを用いて、音声認識を行う音声認識部、
    を含む音声認識装置。
  3. データクラスタリング部が、ある言語の各話者の音声データ及び対応するテキストデータである学習データには、その各話者のその言語の習得度に応じたスキルレベルが与えられているとして、上記学習データをスキルレベルに基づいてクラスタリングすることにより、N個の学習クラスタi(i=1,…,N)を生成するデータクラスタリングステップと、
    発音獲得部が、発音誤り候補パタンのエントリを、所定の発音辞書のエントリに追加することにより追加発音辞書iを生成し、上記学習クラスタiの音声データ及び所定の音響モデルの下で上記学習クラスタiのテキストデータを上記追加発音辞書iの各エントリで変換した読みが尤もらしい上記追加発音辞書iの中のエントリを残すことにより、クラスタ発音辞書iを生成する発音獲得ステップと、音響モデル学習部が、上記学習クラスタiのテキストデータを上記クラスタ発音辞書iで変換したテキストデータ及び上記学習クラスタiの音声データを用いて音響モデルを学習することによりクラスタ音響モデルiを生成する音響モデル学習ステップとを含み、更新部が、上記生成された更新後発音辞書iを上記所定の発音辞書とし、上記クラスタ音響モデルiを上記所定の音響モデルとする上記発音獲得ステップ及び上記モデル学習ステップの処理を繰り返すことにより、クラスタ発音辞書i及びクラスタ音響モデルiを更新する処理を、i=1,…,Nのそれぞれについて行う更新ステップと、
    統合部が、上記更新されたクラスタ発音辞書i及びクラスタ音響モデルiを統合することにより、統合発音辞書及び統合音響モデルを生成する統合ステップと、
    を含む発音辞書及び音響モデル生成方法。
  4. 音声認識部が、請求項1の発音辞書及び音響モデル生成装置で生成された上記統合発音辞書及び上記統合音響モデルを用いて、音声認識を行う音声認識ステップ、
    を含む音声認識方法。
  5. 請求項1の発音辞書及び音響モデル生成装置又は請求項2の音声認識装置の各部としてコンピュータを機能させるためのプログラム。
JP2016239050A 2016-12-09 2016-12-09 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム Active JP6625961B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016239050A JP6625961B2 (ja) 2016-12-09 2016-12-09 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016239050A JP6625961B2 (ja) 2016-12-09 2016-12-09 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018097045A JP2018097045A (ja) 2018-06-21
JP6625961B2 true JP6625961B2 (ja) 2019-12-25

Family

ID=62632361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239050A Active JP6625961B2 (ja) 2016-12-09 2016-12-09 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6625961B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102333029B1 (ko) * 2020-03-03 2021-12-01 주식회사 셀바스에이아이 발음 평가 방법 및 이를 이용한 디바이스

Also Published As

Publication number Publication date
JP2018097045A (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
CN113439301B (zh) 用于机器学习的方法和系统
AU2019347734B2 (en) Conversational agent pipeline trained on synthetic data
JP5413622B2 (ja) 言語モデル作成装置、言語モデル作成方法、およびプログラム
US8731926B2 (en) Spoken term detection apparatus, method, program, and storage medium
JP6556575B2 (ja) 音声処理装置、音声処理方法及び音声処理プログラム
WO2014183373A1 (en) Systems and methods for voice identification
WO2019065263A1 (ja) 発音誤り検出装置、発音誤り検出方法、プログラム
JP2020154076A (ja) 推論器、学習方法および学習プログラム
CN111462748A (zh) 语音识别处理方法、装置、电子设备及存储介质
KR20160098910A (ko) 음성 인식 데이터 베이스 확장 방법 및 장치
JP6625961B2 (ja) 発音辞書及び音響モデル生成装置、音声認識装置、方法及びプログラム
JP2021131514A (ja) データ生成装置、データ生成方法およびプログラム
JP2015060210A (ja) データ収集装置、音声対話装置、方法およびプログラム
WO2019235191A1 (ja) モデル学習装置、方法及びプログラム
JP2013182261A (ja) 適応化装置、音声認識装置、およびそのプログラム
JP2017191278A (ja) 音素誤り獲得装置、辞書追加装置、音声認識装置、音素誤り獲得方法、音声認識方法、およびプログラム
KR102299269B1 (ko) 음성 및 스크립트를 정렬하여 음성 데이터베이스를 구축하는 방법 및 장치
JP6879521B1 (ja) 多言語音声認識およびテーマ−意義素解析方法および装置
JP2015161927A (ja) 音響モデル生成装置、音響モデルの生産方法、およびプログラム
Réveil et al. Improving proper name recognition by means of automatically learned pronunciation variants
JP6997993B2 (ja) 語学学習支援装置、その方法、およびプログラム
JP2014215578A (ja) 音響モデル選択装置とその方法とプログラム
KR102217621B1 (ko) 사용자 발화의 오류를 교정하는 방법 및 장치
JP6903613B2 (ja) 音声認識装置、音声認識方法及びプログラム
JP4282609B2 (ja) 基本周波数パターン生成装置、基本周波数パターン生成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191128

R150 Certificate of patent or registration of utility model

Ref document number: 6625961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150