JP2014153479A - 診断システム、診断方法及びプログラム - Google Patents

診断システム、診断方法及びプログラム Download PDF

Info

Publication number
JP2014153479A
JP2014153479A JP2013021709A JP2013021709A JP2014153479A JP 2014153479 A JP2014153479 A JP 2014153479A JP 2013021709 A JP2013021709 A JP 2013021709A JP 2013021709 A JP2013021709 A JP 2013021709A JP 2014153479 A JP2014153479 A JP 2014153479A
Authority
JP
Japan
Prior art keywords
voice
diagnosis
unit
character information
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013021709A
Other languages
English (en)
Inventor
Yoshio Kanda
嘉男 神田
Eiji Nomura
英司 野村
Yutaka Kunida
豊 國田
Shinya Ishihara
晋也 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Nippon Telegraph and Telephone East Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Nippon Telegraph and Telephone East Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Nippon Telegraph and Telephone East Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013021709A priority Critical patent/JP2014153479A/ja
Publication of JP2014153479A publication Critical patent/JP2014153479A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

【課題】ユーザに対し発声の正確さの程度や流暢さの程度を提示すること。
【解決手段】ユーザの発音による音声の内容を表す文字情報を生成し、予め定められた診断条件と文字情報とに基づいて、音声の正確さの程度又は流暢さの程度を診断する。
【選択図】図3

Description

本発明は、音声認識技術を用いた発声の診断技術に関する。
近年、音声認識技術の実用化が進み、音声から文字への自動変換や語学教育における発音チェックの技術を利用した製品が利用されている。例えば、コールセンタにおけるオペレータの電話応対の音声を文字に変換し、予め定められた文字情報(例えば“お待たせ”、“お願い”等)に基づいてオペレータの電話応対スキルを評価する技術が特許文献1に開示されている。
特開2006−135542号公報
しかしながら、音声認識技術において、文字情報のみに基づく評価では、文章の朗読等で要求される音声の正確さや流暢さについて定量的に評価することができないという問題があった。
上記事情に鑑み、本発明は、ユーザに対し発声の正確さの程度や流暢さの程度を提示可能な技術の提供を目的とする。
本発明の一態様は、ユーザの発音による音声の内容を表す文字情報を生成する音声認識部と、予め定められた診断条件と前記文字情報とに基づいて、前記音声の正確さの程度又は流暢さの程度を診断する音声診断部と、を備える診断システムである。
本発明の一態様は、上記の診断システムであって、前記音声診断部は、話速度、正答率、又はフィラーについて音声診断を行う。
本発明の一態様は、上記の診断システムであって、発音の際に前記ユーザに提示される提示文字情報を予め記憶する記憶部をさらに備え、前記音声診断部は、前記記憶部に記憶される前記提示文字情報と、前記音声認識部によって生成された前記文字情報と、を比較することによって診断を行う。
本発明の一態様は、コンピュータが、ユーザの発音による音声の内容を表す文字情報を生成する音声認識ステップと、コンピュータが、予め定められた診断条件と前記文字情報とに基づいて、前記音声の正確さの程度又は流暢さの程度を診断する音声診断ステップと、を有する診断方法である。
本発明の一態様は、ユーザの発音による音声の内容を表す文字情報を生成する音声認識ステップと、予め定められた診断条件と前記文字情報とに基づいて、前記音声の正確さの程度又は流暢さの程度を診断する音声診断ステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、ユーザに対し発声の正確さの程度や流暢さの程度を提示することが可能となる。
本発明の一実施形態に係る診断システム1の構成例を示した図である。 本発明の一実施形態における端末装置2の機能構成を示す概略ブロック図である。 本発明の一実施形態における音声認識システム3の機能構成を示す概略ブロック図である。 端末装置2の画面表示例を示す図である。 音声認識システム3における診断結果の画面表示例を示した図である。 診断システム1の処理の流れを示すシーケンス図である。
以下、本発明による一実施形態に係る音声認識システムについて、図面を参照して説明する。
図1は、本発明の一実施形態に係る診断システム1の構成例を示した図である。
診断システム1は、端末装置2、音声認識システム3、通信ネットワーク4を備える。端末装置2及び音声認識システム3は、通信ネットワーク4を介して通信可能に接続されている。端末装置2は、ユーザ6によって使用される。
図2は、本発明の一実施形態における端末装置2の機能構成を示す概略ブロック図である。端末装置2は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、端末制御プログラムを実行する。端末装置2は、端末制御プログラムの実行により、音声入力部21、信号処理部22、送受信部23、表示部24を備える装置として機能する。なお、端末装置2の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。端末制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。端末制御プログラムは、電気通信回線を介して送受信されても良い。
端末装置2は、例えばパーソナルコンピュータ、タブレット装置、スマートフォン、ノートパソコン、ワークステーション、テレビ受像機、テレビ電話装置等の情報処理装置を用いて構成される。
音声入力部21は、ユーザ6の発話内容を端末装置2に入力する。具体的には、音声入力部21は、ユーザ6が発話することによって生じた音波を受け、音波に応じたアナログ信号を生成する。音声入力部21は、生成されたアナログ信号を信号処理部22に出力する。
信号処理部22は、音声入力部21によって生成されたアナログ信号を、デジタル信号の音声データに変換する。
送受信部23は、信号処理部22によって生成された音声データを、音声認識システム3に送信する。また、送受信部23は、音声認識システム3から診断結果データを受信する。
表示部24は、音声認識システム3から受信された診断結果データを表示する。
図3は、本発明の一実施形態における音声認識システム3の機能構成を示す概略ブロック図である。音声認識システム3は、1台又は複数台の情報処理装置によって構成される。例えば、音声認識システム3が一台の情報処理装置で構成される場合、情報処理装置は、バスで接続されたCPUやメモリや補助記憶装置などを備え、音声認識プログラムを実行する。音声認識プログラムの実行によって、情報処理装置は、受信部31、音声辞書記憶部32、音声認識部33、音声診断記憶部34、音声診断部35、送信部36を備える装置として機能する。なお、音声認識システム3の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。また、音声認識システム3は、専用のハードウェアによって実現されても良い。音声認識プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。音声認識プログラムは電気通信回線を介して送受信されても良い。
受信部31は、端末装置2からデジタル信号に変換された音声データ(音声データ)を、通信ネットワーク4を介して受信する。
音声辞書記憶部32は、音響モデル、単語辞書、及び言語モデルを記憶する。音響モデルは、音素や音節の周波数パターンの情報を表す。単語辞書は、語彙と各語彙に含まれる単語の発音の情報とを表す。言語モデルは、単語のつながりを規定する文法の情報を表す。これらの情報は、音声データとのマッチングに用いられる。
音声認識部33は、音声辞書記憶部32が記憶する音響モデルと単語辞書と言語モデルとに基づき、音声データから文字や単語のつながりを認識することにより、音声データを文字データに変換する。
音声診断記憶部34は、音声データの正確さと流暢さとを診断するための判定基準データを記憶する。また、音声診断記憶部34は、音声診断においてユーザに提供する台本データを記憶する。
音声診断部35は、音声診断記憶部34が記憶する判定基準データに基づき、音声データに対して判定を行う。音声診断部35は、例えば、話す速度(以下、「話速度」という。)、正答率、フィラー(例えば、“えーと”等の間投詞)等の項目について音声データを診断する。いいかえれば、音声診断部35は、音声の正確さと流暢さとを診断する。
送信部36は、音声診断部35による診断結果を表すデータ(診断結果データ)を端末装置2に送信する。
次に、音声認識部33による音声認識の基本原理と処理の内容について説明する。
音声認識部33は、まず、音声辞書記憶部32が記憶する音響モデルに基づき、音声データを音素や音節の情報に変換する。具体的には、音声認識部33は、音声データに基づいて周波数パターンを解析し、音響モデルが有する音素や音節の周波数パターンと音声データの周波数パターンとのマッチングにより、音素や音節の情報を生成する。
具体的な音声では、例えば、「反対(ハンタイ)」(ha/ng/ta/i)という音声データであれば、第1音節「ha」、第2音節「ng」、第3音節「ta」、第4音節「i」となる。ここに含まれる音素は、[h][a][ng][t][a][i]の6つとなる。また、音声認識部33は、音声データから音韻論上の単位であるモーラの数を算出する。
モーラとは、音声の音韻的な時間の長さを表す単位である。1モーラは日本語の場合、仮名文字単位に相当し、1つの子音音素と1つの短母音音素とを合わせたものと等しい長さの音素結合である。ただし、長母音(例えば“ー”)、促音(例えば“ッ”)などは1モーラとなる。例えば、「ハンタイ」という音声であれば、[ハ][ン][タ][イ]の4つからなる4モーラとして数えられる。
次に、音声認識部33は、単語辞書と言語モデルとに基づき、音素や音節からなる音声データを文字情報に変換する。単語辞書は、発音情報を含む語彙集である。言語モデルは、単語間のつながりを構文の制約として定める情報である。
「ミカンヲサンコクダサイ(mi/ka/n/o/sa/n/ko/ku/da/sa/i)」という音素や音節からなる音声データに対する処理を具体例として説明する。音声認識部33は、語彙集(例えば、「みかん」、「を」、「3」、「個」、「ください」)と、語彙のカテゴリ(例えば、果物名、助詞、数量、数量単位、依頼表現)から規定される構文{例えば、(果物名)+(助詞)+(数量)+(数量単位)+(依頼表現)}とを用いて、音声データと、語彙集及び構文との照合を行う。音声認識部33は、照合の結果、「みかんを3個ください」という文字情報を認識結果として出力する。
なお、音声認識部33は、音声データを文字情報に変換した後も、音声データが再生される時間のタイミングと文字情報とを同期させ、音声認識システム3の記憶手段に音声データが再生される時間情報を記憶する。
次に、音声診断部35の処理の詳細について説明する。
音声診断部35が診断する項目は、例えば、1分あたりのモーラ数による話速度、予め記憶された台本に基づく音声データから変換された文字情報の正答率、診断対象の音声に含まれるフィラーの回数である。
(話速度の診断)
音声診断部35は、音声認識部33が算出したモーラ数と、音声データの再生時間と,に基づいて1分あたりの音声データに含まれるモーラ数を算出する。なお、単位時間は1分に限らず任意に設定されるようにしてもよい。音声診断部35は、単位時間当たりのモーラ数を話速度の診断結果として出力する。
(正答率の診断)
上述したように、音声診断記憶部34は、ユーザに音声を入力させる際に音読させる台本データを記憶する。台本データは、判定基準となる音声データと文字情報とを含む。正答率の診断が行われる場合、ユーザ6が操作する端末装置2の表示部24には、音声診断記憶部34に記憶されている台本データと同じ内容の文字情報が表示される。端末装置2は、台本データと同じ内容の文字情報を予め記憶していても良いし、診断が行われる度に音声認識システム3から通信ネットワーク4を介して受信しても良い。ユーザ6は、表示部24に表示された文字情報を音読する。ユーザ6による音読の音声データが音声認識システム3に入力される。
音声診断部35は、ユーザが音読した音声に基づく文字情報と、予め音声診断記憶部34に記憶された判定基準となる文字情報とを比較する。音声診断部35は、比較を行うことによって、ユーザの音声に基づく文字情報において判定基準の文字情報と異なる文字及び単語を誤りとして抽出する。
音声診断部35は、文字情報を文法的に意味を有する最小の文字または単語で区切って分割することによって、各文字又は単語を比較する。また、ユーザの音声に基づく文字情報に、判定基準となる文字情報に含まれない文字または単語が含まれる場合にも、これらの文字や単語を誤りとしてカウントする。
音声診断部35は、誤りとして抽出された文字の数又は単語の数の合計値を、判定基準となる文字情報において分割された文字又は単語の総数に対する百分率として算出する。算出された百分率が誤答率であり、100から誤答率を引いた値が正答率である。音声診断部35は、正答率や誤答率の値を診断結果として出力する。
(フィラーの診断)
音声診断部35は、1つの台本の音読におけるフィラーの出現回数を診断する。フィラーの判定処理は、音声認識部33によって行われても良いし、音声診断部35によって行われても良い。
まず、音声認識部33がフィラーを判定する処理について説明する。音声認識部33は、音響モデルを用いて行う周波数パターンとのマッチングにおいて、例えば、“エ”や“ア”が1秒以上継続する音に対し、単語辞書と言語モデルとに基づく照合において、フィラーであると認識する。この場合、音声診断部35は、音声認識部33によってフィラーと認識された音節を1つのフィラーであると判定し、判定結果に基づいてフィラーの出現回数を診断する。
二つ目は、音声認識部33によって生成された文字情報に基づいて音声診断部35がフィラーを判定する方法である。音声診断部35は、音声認識部33によって生成された文字情報に基づいて、予めフィラーとして定められた“えー”、“あの”、“その”、“えーと”等の文字を探索し、検知された文字を1つのフィラーと判定しても良い。この場合、音声診断部35は、検知された回数をフィラーの出現回数として診断する。
音声診断部35は、上述のように判定されたフィラーの数をカウントし、1つの台本あたりの回数を診断する。この診断結果は音声の流暢さの指標となりうる。
図4は、端末装置2の画面表示例を示す図である。図4における端末装置2の表示部24には、台本の内容が表示されている。上述したように、音声認識システム3によって正答率の診断が行われる場合、ユーザ6が操作する端末装置2の表示部24には、音声診断記憶部34に記憶されている台本データと同じ内容の文字情報が表示される。図4に示されている「台風10号は1日午前、・・・・警戒するよう呼びかけた。」という一連の文字列が台本データの文字情報である。ユーザ6は、表示部24に表示された文字情報を音読する。端末装置2の音声入力部21は、ユーザ6の音読による音声を端末装置2に入力する。入力された音声は、信号処理部22によって音声データに変換され、送受信部23によって音声認識システム3に送信される。
図5は、音声認識システム3における診断結果の画面表示例を示した図である。
端末装置2は、音声認識システム3から診断結果データを受信すると、表示部24の画面に診断結果の内容を表示する。
図5に示す例では、話速度(話速)、正答率、及びフィラーの項目毎の診断結果が表示部24の左側に表示されている。また、表示部24の右側には、入力音声に基づき文字情報に変換された結果が“<音声認識結果>”の題とともに表示されている。
なお、文字情報に変換されて表示される“<音声認識結果>”においては、判断基準となる台本の文字情報と異なっている箇所や、“あー”のようなフィラーが認識された箇所を、他の文字とは異なる態様で表示してもよい。異なる態様の具体例としては、ハイライトで表示する態様、異なる文字色で表示する態様、異なるフォントで表示する態様、異なる文字サイズで表示する態様などがある。このように表示されることにより、ユーザは、音声認識システム3において台本と異なっていると判定された箇所を容易に確認することができる。
図6は、診断システム1の処理の流れを示すシーケンス図である。
端末装置2の音声入力部21は、ユーザ6が発する音声をアナログ信号に変換することによって入力する(ステップS101)。端末装置2の信号処理部22は、入力されたアナログ信号をデジタル信号に変換し、音声データを生成する(ステップS102)。端末装置2の送受信部23は、音声データを音声認識システム3に送信する(ステップS103)。
音声認識システム3の受信部31は、端末装置2の送受信部23から音声データを受信する(ステップS104)。音声認識システム3の音声認識部33は、音声データを文字情報に変換する等の音声認識処理を行う(ステップS105)。音声認識システム3の音声認識部33は、音声認識システム3が備える不図示の記憶装置に音声データの認識結果を記録する(ステップS106)。なお、音声データの認識結果には、文字情報に加え、時間情報やモーラ数等の情報も含まれる。
音声認識システム3の音声診断部35は、音声認識部33による認識結果に基づき、話速度やフィラー等、正確さや流暢さの指標となる項目を診断する(ステップS107)。音声認識システム3の送信部36は、端末装置2に対し、音声の診断結果を表す診断結果データを送信する(ステップS108)。
端末装置2の送受信部23は、音声認識システム3から診断結果データを受信する(ステップS109)。端末装置2の表示部24は、受信された診断結果データに基づき診断結果の内容を表示する(ステップS110)。
以上のように構成された本実施形態の診断システム1によれば、ユーザに対し発声の正確さの程度や流暢さの程度を提示することが可能となる。頼具体的には、音声辞書に基づいて音声認識を行う音声認識部と、予め定められた診断条件に基づいて音声の正確さの程度と流暢さの程度とを診断する音声診断部とを備えることにより、ユーザに対し、発声の正確さの程度と流暢さの程度を確認させることができる。
発声の正確さの程度や流暢さの程度は、図5に示されるように数値や図柄を用いて表される。そのため、ユーザは発声の正確さの程度や流暢さの程度について、直感的に善し悪しを判断することが可能となる。
また、表示部24には、音声認識システム3における認識結果も表示される。特に、台本の文字情報と異なっている箇所や、“あー”のようなフィラーが認識された箇所については、他の文字とは異なる態様で表示される。そのため、ユーザは自身の発声において特に注意すべき箇所を容易に判断することが可能となる。
<変形例>
上述した説明では、端末装置2と音声認識システム3とは異なる装置として構成されているが、一体的に構成されても良い。例えば、端末装置2は、音声辞書記憶部32、音声認識部33、音声診断記憶部34及び音声診断部35を備えるように構成されても良い。このように構成された場合、端末装置2は、通信ネットワーク4に接続できない環境においても、入力された音声について診断結果を表示することが可能となる。また、端末装置2は、音声辞書記憶部32及び音声認識部33を備えても良い。この場合、端末装置2の送受信部23は、通信ネットワーク4を介して音声認識結果を音声認識システム3へ送信する。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…診断システム, 2…端末装置, 3…音声認識システム, 4…通信ネットワーク, 6…ユーザ, 21…音声入力部, 22…信号処理部, 23…送受信部, 24…表示部, 31…受信部, 32…音声辞書記憶部, 33…音声認識部, 34…音声診断記憶部, 35…音声診断部, 36…送信部

Claims (5)

  1. ユーザの発音による音声の内容を表す文字情報を生成する音声認識部と、
    予め定められた診断条件と前記文字情報とに基づいて、前記音声の正確さの程度又は流暢さの程度を診断する音声診断部と、
    を備える診断システム。
  2. 前記音声診断部は、話速度、正答率、又はフィラーについて音声診断を行う
    請求項1に記載の診断システム。
  3. 発音の際に前記ユーザに提示される提示文字情報を予め記憶する記憶部をさらに備え、
    前記音声診断部は、前記記憶部に記憶される前記提示文字情報と、前記音声認識部によって生成された前記文字情報と、を比較することによって診断を行う請求項1又は2に記載の診断システム。
  4. コンピュータが、ユーザの発音による音声の内容を表す文字情報を生成する音声認識ステップと、
    コンピュータが、予め定められた診断条件と前記文字情報とに基づいて、前記音声の正確さの程度又は流暢さの程度を診断する音声診断ステップと、
    を有する診断方法。
  5. ユーザの発音による音声の内容を表す文字情報を生成する音声認識ステップと、
    予め定められた診断条件と前記文字情報とに基づいて、前記音声の正確さの程度又は流暢さの程度を診断する音声診断ステップと、
    をコンピュータに実行させるためのプログラム。
JP2013021709A 2013-02-06 2013-02-06 診断システム、診断方法及びプログラム Pending JP2014153479A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013021709A JP2014153479A (ja) 2013-02-06 2013-02-06 診断システム、診断方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013021709A JP2014153479A (ja) 2013-02-06 2013-02-06 診断システム、診断方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014153479A true JP2014153479A (ja) 2014-08-25

Family

ID=51575413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013021709A Pending JP2014153479A (ja) 2013-02-06 2013-02-06 診断システム、診断方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014153479A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163342A (ja) * 2017-03-24 2018-10-18 株式会社Nttドコモ 音声認識結果比較システム
TWI679632B (zh) * 2018-05-09 2019-12-11 和碩聯合科技股份有限公司 語音偵測方法以及語音偵測裝置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164656A (ja) * 2003-11-28 2005-06-23 Mitsubishi Electric Corp 音声認識装置及び音声認識プログラム
JP2008262120A (ja) * 2007-04-13 2008-10-30 Nippon Hoso Kyokai <Nhk> 発話評価装置及び発話評価プログラム
JP2010139826A (ja) * 2008-12-12 2010-06-24 Toyota Motor Corp 音声認識システム
JP2011170622A (ja) * 2010-02-18 2011-09-01 Nec Corp コンテンツ提供システム、コンテンツ提供方法、およびコンテンツ提供プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164656A (ja) * 2003-11-28 2005-06-23 Mitsubishi Electric Corp 音声認識装置及び音声認識プログラム
JP2008262120A (ja) * 2007-04-13 2008-10-30 Nippon Hoso Kyokai <Nhk> 発話評価装置及び発話評価プログラム
JP2010139826A (ja) * 2008-12-12 2010-06-24 Toyota Motor Corp 音声認識システム
JP2011170622A (ja) * 2010-02-18 2011-09-01 Nec Corp コンテンツ提供システム、コンテンツ提供方法、およびコンテンツ提供プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163342A (ja) * 2017-03-24 2018-10-18 株式会社Nttドコモ 音声認識結果比較システム
JP7049880B2 (ja) 2017-03-24 2022-04-07 株式会社Nttドコモ 音声認識結果比較システム
TWI679632B (zh) * 2018-05-09 2019-12-11 和碩聯合科技股份有限公司 語音偵測方法以及語音偵測裝置

Similar Documents

Publication Publication Date Title
US11756537B2 (en) Automated assistants that accommodate multiple age groups and/or vocabulary levels
CN104252864B (zh) 实时语音分析方法和系统
US20180190269A1 (en) Pronunciation guided by automatic speech recognition
US8744856B1 (en) Computer implemented system and method and computer program product for evaluating pronunciation of phonemes in a language
US9177558B2 (en) Systems and methods for assessment of non-native spontaneous speech
CN106575502B (zh) 用于在合成语音中提供非词汇线索的系统和方法
US8306822B2 (en) Automatic reading tutoring using dynamically built language model
CN110600033B (zh) 学习情况的评估方法、装置、存储介质及电子设备
CN101551947A (zh) 辅助口语语言学习的计算机系统
CN101346758A (zh) 感情识别装置
JP2000501847A (ja) 教育及び試験における適応対話の音声信号から複合情報を得る方法及び装置
KR20160122542A (ko) 발음 유사도 측정 방법 및 장치
Pallett Performance assessment of automatic speech recognizers
CN107909995B (zh) 语音交互方法和装置
KR102225435B1 (ko) Stt 기반 언어구사 학습-훈련 시스템
US9087512B2 (en) Speech synthesis method and apparatus for electronic system
KR101992370B1 (ko) 말하기 학습방법 및 학습시스템
JP2014153479A (ja) 診断システム、診断方法及びプログラム
TWI603259B (zh) 動畫顯示系統及嘴型動畫顯示方法
KR20170056253A (ko) 영어 발음 평가 방법 및 시스템
KR100979561B1 (ko) 대화형 언어 학습 장치
Lacerda On the emergence of early linguistic functions: A biological and interactional perspective
KR20090081046A (ko) 인터넷을 이용한 언어 학습 시스템 및 방법
TWI768412B (zh) 發音教學方法
JP2017530425A (ja) 指定言語でのユーザの発話の改善を支援するための方法およびシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170519

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170529

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170616

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180628