JP2020095176A - 語学学習用装置および語学学習用プログラム - Google Patents

語学学習用装置および語学学習用プログラム Download PDF

Info

Publication number
JP2020095176A
JP2020095176A JP2018233475A JP2018233475A JP2020095176A JP 2020095176 A JP2020095176 A JP 2020095176A JP 2018233475 A JP2018233475 A JP 2018233475A JP 2018233475 A JP2018233475 A JP 2018233475A JP 2020095176 A JP2020095176 A JP 2020095176A
Authority
JP
Japan
Prior art keywords
phoneme
data
language
user
language learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018233475A
Other languages
English (en)
Other versions
JP7195593B2 (ja
Inventor
木村 光成
Mitsunari Kimura
光成 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ECC CO Ltd
Original Assignee
ECC CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ECC CO Ltd filed Critical ECC CO Ltd
Priority to JP2018233475A priority Critical patent/JP7195593B2/ja
Publication of JP2020095176A publication Critical patent/JP2020095176A/ja
Application granted granted Critical
Publication of JP7195593B2 publication Critical patent/JP7195593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】習得途上の語学学習者の音声を正確に認識できる語学学習用装置を提供する。【解決手段】第1言語を母国語とするユーザが第2言語を学習するための語学学習用装置1であって、前記ユーザが発した音声を音素データに変換する音素変換部31と、前記第2言語の文字データと音素データとが対応付けられた辞書データDを検索して、音素変換部31によって変換された音素データを前記第2言語の文字データに変換する文字変換部32とを備え、音素変換部31が変換可能な音素データには、前記第1言語のネイティブスピーカーが使用する第1音素と、前記第2言語のネイティブスピーカーが使用する第2音素とが含まれ、辞書データDでは、1つの文字データに、前記第1音素のみからなる音素データ、前記第2音素のみからなる音素データ、および、前記第1音素と前記第2音素との両方を含む音素データが対応付けられている。【選択図】図1

Description

本発明は、第1言語(例えば日本語)を母国語とするユーザが第2言語(例えば英語)を学習するための語学学習用装置および語学学習用プログラムに関する。
外国語会話を習得するためには、多くの対話練習が必要となる。近年、英会話講師との会話を通じた対話練習に代わる手段として、コンピュータを用いた語学学習システムが開発されている。
このような語学学習システムにおいて、コンピュータは母語ではない音声を認識する必要がある。たとえば、日本人が英語を学習するための語学学習システムでは、コンピュータは、日本語音素の英語(いわゆるジャパニーズイングリッシュ)を認識する必要がある。これに対し、特許文献1では、男女30人の日本人がそれぞれ8時間かけて録音した「日本人発音モデル」をベースに、日本人特有の発音(音素の組み合わせ)を認識できる技術が開示されている。
特開2012−215645号公報
学習者は、対話練習を重ねることで、段階的に学習対象言語の音素が含まれた発話をすることができるようになる。例えば、日本人の初心者の英語発話は、英語を母語とする者の音素(英語音素)が少なく、日本語音素が多く含まれるが、習熟度が上がると英語音素が増加する傾向にある。しかし、英語を母語としない学習者が完全に、英語音素で発話することは困難であり、また、音素により、英語音素に近い発音の習得がしやすい音、しにくい音が異なるため、英語音素と日本語音素が混在した形となる。そのような学習者の音声をコンピュータによって正確に認識することは、特許文献1に記載の技術では困難である。
本発明は、上記問題を解決するためになされたものであって、習得途上の語学学習者の音声を認識できる語学学習用装置を提供することを課題とする。
本発明に係る語学学習用装置は、第1言語を母国語とするユーザが第2言語を学習するための語学学習用装置であって、前記ユーザが発した音声を音素データに変換する音素変換部と、前記第2言語の文字データと音素データとが対応付けられた辞書データを検索して、前記音素変換部によって変換された音素データを前記第2言語の文字データに変換する文字変換部とを備え、前記音素変換部が変換可能な音素データには、前記第1言語のネイティブスピーカーが使用する第1音素と、前記第2言語のネイティブスピーカーが使用する第2音素とが含まれ、前記辞書データでは、1つの文字データに、前記第1音素のみからなる音素データ、前記第2音素のみからなる音素データ、および、前記第1音素と前記第2音素との両方を含む音素データが対応付けられていることを特徴とする。
本発明に係る語学学習用装置は、前記文字変換部による前記辞書データの検索範囲を制限する検索範囲制限部をさらに備えることが好ましい。
本発明に係る語学学習用装置では、前記検索範囲制限部は、前記ユーザの前記第1言語の習熟度に応じて前記検索範囲を決定してもよい。
本発明に係る語学学習用装置では、前記検索範囲制限部は、前記ユーザが会話を行う場面に応じて前記検索範囲を決定してもよい。
本発明に係る語学学習用装置では、前記検索範囲制限部は、前記ユーザの発話傾向に応じて前記検索範囲を決定してもよい。
本発明に係る語学学習用プログラムは、上記いずれかの語学学習用装置の各部としてコンピュータを機能させる。
本発明によれば、習得途上の語学学習者の音声を認識することができる。
本発明の一実施形態に係る語学学習用装置の構成を示すブロック図である。 音素変換部の作成方法を説明するための図である。 辞書データの一部を示す図である。 辞書データの一部を示す図である。 辞書データの一部を示す図である。
以下、本発明の実施形態について添付図面を参照して説明する。なお、本発明は、下記の実施形態に限定されるものではない。
(全体構成)
図1は、本発明の一実施形態に係る語学学習用装置1の構成を示すブロック図である。語学学習用装置1は、スマートフォンや汎用のパーソナルコンピュータによって構成することができる。本実施形態では、語学学習用装置1はスマートフォンによって構成されるものとする。
語学学習用装置1は、第1言語を母国語とするユーザが第2言語を学習するために用いられる。本実施形態では、第1言語は日本語であり、第2言語は英語であるが、本発明はこれに限定されない。
図1に示すように、語学学習用装置1は、ストレージ2、制御部3、表示部4、入力部5、マイク6およびスピーカ7を主に備えている。
ストレージ2は、語学学習用装置1の演算処理に用いられる各種プログラムやデータを格納する部材であり、例えばフラッシュメモリで構成することができる。
制御部3は、語学学習用装置1のCPU(図示せず)が、ストレージ2に格納された語学学習用プログラム(アプリケーション)をメインメモリ(図示せず)に読み出して実行することにより実現される機能ブロックである。語学学習用プログラムは、ネットワークを介して語学学習用装置1にインストールしてもよい。あるいは、語学学習用プログラムを記録したSDカード等の、コンピュータ読み取り可能な非一時的な有体の記録媒体を語学学習用装置1に読み取らせることにより、語学学習用プログラムを語学学習用装置1にインストールしてもよい。
制御部3は、音素変換部31、文字変換部32、判定部33、フィードバック部34および検索範囲制限部35を主に備えている。これらの機能ブロックの機能については、後述する。
表示部4は、例えば液晶ディスプレイで構成することができる。入力部5は、ユーザからの操作の入力を受け付ける装置であり、例えばタッチパネルで構成することができる。マイク6およびスピーカ7は、語学学習用装置1に内蔵されてもよいし、外付けであってもよい。
(制御部)
続いて、制御部3の機能について説明する。
音素変換部31は、ユーザが発した音声を音素データに変換する機能ブロックである。本実施形態では、ユーザが発した音声は、マイク6においてアナログ音声信号に変換され、さらに図示しないAD変換器によってデジタル音声信号に変換され、音素変換部31に入力される。音素変換部31は、機械学習された学習済みモデルによって実現されており、デジタル音声信号を分節して、分節された各音声信号を音素データに変換する。
音素は、言語の変種や音韻理論によって多少の差異が存在するが、一般には、日本語には24の音素(5母音+16子音+3特殊音素)があり、英語には44の音素(20母音+24子音)がある。機械学習にあたっては、日本語音素(第1音素)については、複数の日本人から英語訛りのない音声データを採取し、英語音素(第2音素)については、複数の英語のネイティブスピーカーから音声データを採取し、図2に示すように、各音素と音声波形とを対応付けた学習用データセットを作成する。この学習用データセットに基づき、例えばディープラーニングなどの機械学習を行うことにより音素変換部31を作成する。
これにより、音素変換部31は、ユーザが発した音声を、日本語音素と、英語音素とを含む音素データに変換可能となる。すなわち、音素変換部31が変換可能な音素データには、日本語音素と英語音素とが含まれ、音素変換部31は、日本語音素と英語音素とを区別してユーザが発した音声を音素データに変換する。例えば、「apple」という単語の「a」の部分について、英語のネイティブスピーカーの発音に対しては、発音記号
Figure 2020095176
に相当する英語音素(アとエの中間程度の音素)に変換され、日本語のネイティブスピーカーの発音に対しては、「a」(ア)に相当する日本語音素に変換される。
なお、以下の説明では、便宜上、英語音素を大文字で表記し、日本語音素を小文字で表記する。例えば、「apple」における「a」の音素について、アとエの中間程度の音素に対応する英語音素を「A」と表記し、日本語音素は「a」と表記する。
文字変換部32は、英語の文字データと音素データとが対応付けられた辞書データDを検索して、音素変換部31によって変換された音素データを英語の文字データに変換する機能ブロックである。図1に示すように、辞書データDは、ストレージ2に格納されているが、語学学習用装置1と通信可能に接続された他の装置(サーバなど)に格納されてもよい。通常の辞書データとは異なり、辞書データDでは、1つの文字データに、日本語音素(第1音素)のみからなる音素データ、英語音素(第2音素)のみからなる音素データ、および、日本語音素と英語音素との両方を含む音素データ(以下、混合音素データと称する)が対応付けられている。
例えば、図3に示すように、「cake」という単語には、英語音素のみからなる音素データ(KEYK)、日本語音素のみからなる音素データ(ke:ki)、および、混合音素データ(KEYku)が対応付けられている。また、「rice」という単語には、英語音素のみからなる音素データ(RAIS)、日本語音素のみからなる音素データ(raisu)および、混合音素データ(raiS)が対応付けられている。
なお、図3に示す例では、混合音素データは1つのみであるが、複数であってもよい。一般には、単語の文字数が多くなるほど、日本語音素と英語音素との組み合わせが多くなるが、語学学習者の発音は、音素毎に、発音しやすいもの、発音しにくいものがあり、習熟度や、発話者の意識状態により、英語音素の出現率は変化する。単語単位で見た場合、日本人の英語発話に関しては、習熟度にも影響するが、単語ごとに日本語音素と英語音素とが混ざり合うパターンは限定されている。そのため、含まれる音素内容によるが、混合音素データは、理論上の全てのパターンを用意する必要はなく、発音されやすい1〜数パターンを用意すればよい。これにより、文字数による影響をさほど受けずに辞書データDのデータ量を少なくすることができる。
辞書データDをこのように構成することで、文字変換部32は、音素変換部31から入力された音素データに、日本語音素と英語音素との両方が入り混じっていた場合であっても、混合音素データから該当するものを選択することにより、音素データを文字データに変換することができる。そのため、英語のネイティブスピーカーの発音、および、英語学習の初心者の発音だけでなく、英語音素と日本語音素が混在した習得途上の語学学習者の音声も、正確に認識することができる。
判定部33は、ユーザの発話内容および発音が適切か否かを判定する機能ブロックである。具体的には、判定部33は、文字変換部32によって変換された文字データから、英語の文章を構築し、構築された文章からユーザの発話内容の適否を判定する。また、判定部33は、文字変換部32による辞書データDの検索処理に基づき、ユーザの発音の習熟度を判定する。より具体的には、判定部33は、ユーザが発した単語ごとに、文字変換部32が日本語音素のみからなる音素データ、英語音素のみからなる音素データ、および、混合音素データのいずれを選択して文字データに変換したかに基づき、ユーザの発音が英語寄り(ネイティブスピーカー)か、日本語寄り(初心者)か、それらの中間(中上級者)かを判定する。
フィードバック部34は、ユーザの発話が適切でないと判定された場合に、その旨をユーザにフィードバックする機能ブロックである。例えば、ユーザが、語学学習用アプリケーションにおいて仮想のキャラクターと対話練習をしている場合、判定部33が、ユーザの発話に誤った単語や文章が含まれていると判定すると、フィードバック部34は、誤った発話に対して、対話キャラクターが、意味が分からない、または、異なる意味として認識したように振舞うように表示部4に表示する。さらに、フィードバック部34は、ユーザの発話が適切でないと判定された場合、ユーザの習熟度を示す習熟度スコアを減点する。
また、判定部33は、シチュエーションや対話の相手などに応じて、ユーザの言葉遣いが適切であるかを判定し、言葉遣いが誤りではないが不適切な場合も、ユーザの発話が適切でないと判定するようにしてもよい。その場合、対話が不適切であることをユーザが理解できるように、フィードバック部34は、キャラクターがマイナスの印象を受けたように振る舞うように表示する。
例えば、どうしたのか相手に確認したい場合の発話として、下記のa)およびb)が考えられる。
a) What's your problem?
b) What's wrong? / What happened? / What's the problem?
a)およびb)は、どちらも意味は通じるが、a)は相手の心境的な問題となり、乱暴な表現で相手には強い不快感を与える。一方、b)は事実のみを確認する通常のやり取りである。そのため、ユーザがa)を発話した場合、フィードバック部34は、キャラクターがマイナスの印象を受けたように振る舞うように表示するとともに、ユーザの習熟度スコアを減点する。
また、安倍首相を知っていることを伝える場合の発話として、下記のc)およびd)が考えられる。
c) I know Prime Minister Abe.
d) I know of Prime Minister Abe.
c)およびd)は、どちらも意味は通じるが、c)は、個人的に知っている意味となり、d)は情報として知っている意味となる。
このような対話の適否は相手との関係に依存するが、ユーザが安倍首相と友人関係などではなく、一方的に知っている相手であるにもかかわらずc)を発話した場合は、相手に誤解を与えることとなるため、フィードバック部34は、キャラクターが想定外の印象を受けたように振る舞うように表示するとともに、ユーザの習熟度スコアを減点する。
また、上記の例において、ユーザがa)またはc)を発話した場合、フィードバック部34は、ユーザの発話が不適切である理由をキャラクターなどに解説させるようにしてもよい。
判定部33およびフィードバック部34にこのような機能を持たせることにより、文法的に間違いではないが、ニュアンスが異なったり、シチュエーションによっては相手を不快にさせたりする発話を是正することができる。
検索範囲制限部35は、文字変換部32による辞書データDの検索範囲を制限する機能ブロックである。辞書データDの検索範囲を制限することにより、文字変換部32による検索処理量を減らすことができるため、文字変換の速度を向上させることができる。
本実施形態では、検索範囲制限部35は、ユーザの英語の習熟度、ユーザが会話を行う場面、および、ユーザの発話傾向の少なくともいずれかに応じて、辞書データDの検索範囲を決定する。この機能を実現するため、検索範囲制限部35は、習熟度把握部351と、場面特定部352と、発話傾向把握部353とを備えている。
習熟度把握部351は、ユーザの英語の習熟度を把握する機能ブロックである。習熟度把握部351は、判定部33の判定結果に応じて、上述の習熟度スコアを更新し、習熟度スコアに基づき、ユーザの英語の習熟度を把握する。
場面特定部352は、ユーザと仮想のキャラクターとの対話の背景となっている場面を特定する機能ブロックである。本実施形態では、ユーザは対話練習に先立って、対話練習の背景となる所望の場面を選択することができ、場面特定部352は、ユーザの選択操作に基づいて、対話の背景となっている場面を特定する。
あるいは、場面特定部352は、対話の流れに沿って場面を特定してもよい。例えば、ユーザおよびキャラクターが用いた用語に、話題に関するキーワードが含まれているか否かに基づいて、場面を特定してもよい。
発話傾向把握部353は、ユーザが用いる頻度の高い頻出用語を把握する機能ブロックである。本実施形態では、発話傾向把握部353は、これまでのユーザの対話練習の記録に基づき頻出用語を把握している。
また、辞書データDは、会話の場面(会話シーン、シチュエーション)に基づいて分類された複数の小辞書から構成されている。図3〜図5はそれぞれ、小辞書の一例を示している。図3に示す小辞書D1では、主に食事の場面に用いられる用語とその音素とが対応付けられている。図4に示す小辞書D2では、主に動植物に関する会話に用いられる用語とその音素とが対応付けられている。図5に示す小辞書D3では、特定の場面に限定されない、あらゆる会話に用いられる用語とその音素とが対応付けられている(以下、汎用小辞書D3とも称する)。
なお、本実施形態における小辞書の分類方法は一例であり、特に限定されない。例えば、ユーザの習得レベルやユーザの使用頻度に応じて小辞書を分類してもよい。
検索範囲制限部35は、辞書データDにおける複数の小辞書から、検索に用いる小辞書を選択することにより、文字変換部32による辞書データDの検索範囲を決定する。例えば、ユーザの習熟度が低く、会話を行う場面が食事の場面である場合、検索範囲制限部35は、食事の場面に対応する小辞書D1および汎用小辞書D3を選択して、これらの小辞書D1,D3のみを検索範囲として決定する。
これにより、例えば図4に示す小辞書D2の「lice」(louse(蛆)の複数形)は、検索対象から除外されるため、文字変換部32の検索処理量が軽減される。なお、ユーザの発話の音素が「rice」よりも「lice」に近い場合であっても、文字変換部32は、「rice」に変換することになるが、「lice」は、食事の場面で使用される可能性は低く、上級者向けの単語であるため、初心者が用いることはほとんどない。また、一般に初心者は、「l(エル)」の発音よりも「r」の発音を苦手とするため、辞書データDの検索範囲を制限しない場合、初心者が「rice」を意図して発話しても「lice」に変換されてしまう可能性が高くなるが、本実施形態では、このような意図しない変換を防止することができる。
一方、ユーザの習熟度が高い場合は、検索範囲制限部35は、辞書データDからより多くの小辞書を選択して、選択した小辞書を検索範囲として決定する。
また、場面特定部352が対話の流れに沿って場面を特定する場合、検索範囲制限部35は、発話単位ごとに、検索範囲となる小辞書を選択してもよい。これにより例えば、同じシチュエーション内では起こりえるが、質問に対しては起こりえない発話を誤認識することを防止でき、意図した文字データへ変換する精度を向上できる。
また、ユーザの発話傾向に応じて検索範囲を制限する場合、ユーザの使用頻度に応じて小辞書を分類しておき、使用頻度の高い用語からなる小辞書を優先的に検索対象としてもよい。
また、辞書データDは、文字データへの変換対象としない音素データを含んでもよい。例えば、ユーザの母語での独り言やフィラー(「ええっと」、「なんだっけ?」など)に対応する音素データ(eetto、nanndakke)を辞書データDに含めることにより、文字変換部32は、そのような音素が入力された場合であっても、文字データには変換しない。これにより、発話の可能性の高い発話内容のみを認識対象とすることができる。
(付記事項)
本発明は上記の実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施形態に開示された技術的手段を適宜組み合わせて得られる形態も本発明の技術的範囲に含まれる。
例えば、上記の実施形態では、制御部3の全ての機能を語学学習用装置1のCPUによって実現していたが、制御部3の機能の一部をサーバなどの他の装置によって実現してもよい。この場合、本発明に係る語学学習用装置は、サーバと協働したシステムとして提供される。
また、上記の実施形態では、辞書データにおいて音素データと対応付けられている「1つの文字データ」は、原則として1つの単語であるが、本発明はこれに限定されない。例えば、図5に示す小辞書D3における「have you」のように複数の単語からなる語句や、1つの単語において音素を構成する単位も、特許請求の範囲に記載の「1つの文字データ」の範疇に含まれる。
1 語学学習用装置
2 ストレージ
3 制御部
4 表示部
5 入力部
6 マイク
7 スピーカ
31 音素変換部
32 文字変換部
33 判定部
34 フィードバック部
35 検索範囲制限部
351 習熟度把握部
352 場面特定部
353 発話傾向把握部
D 辞書データ
D1 小辞書
D2 小辞書
D3 小辞書

Claims (6)

  1. 第1言語を母国語とするユーザが第2言語を学習するための語学学習用装置であって、
    前記ユーザが発した音声を音素データに変換する音素変換部と、
    前記第2言語の文字データと音素データとが対応付けられた辞書データを検索して、前記音素変換部によって変換された音素データを前記第2言語の文字データに変換する文字変換部とを備え、
    前記音素変換部が変換可能な音素データには、前記第1言語のネイティブスピーカーが使用する第1音素と、前記第2言語のネイティブスピーカーが使用する第2音素とが含まれ、
    前記辞書データでは、1つの文字データに、前記第1音素のみからなる音素データ、前記第2音素のみからなる音素データ、および、前記第1音素と前記第2音素との両方を含む音素データが対応付けられていることを特徴とする、語学学習用装置。
  2. 前記文字変換部による前記辞書データの検索範囲を制限する検索範囲制限部をさらに備えることを特徴とする、請求項1に記載の語学学習用装置。
  3. 前記検索範囲制限部は、前記ユーザの前記第1言語の習熟度に応じて前記検索範囲を決定することを特徴とする、請求項2に記載の語学学習用装置。
  4. 前記検索範囲制限部は、前記ユーザが会話を行う場面に応じて前記検索範囲を決定することを特徴とする、請求項2または3に記載の語学学習用装置。
  5. 前記検索範囲制限部は、前記ユーザの発話傾向に応じて前記検索範囲を決定することを特徴とする、請求項2から4のいずれかに記載の語学学習用装置。
  6. 請求項1〜5のいずれかに記載の語学学習用装置の各部としてコンピュータを機能させる語学学習用プログラム。
JP2018233475A 2018-12-13 2018-12-13 語学学習用装置および語学学習用プログラム Active JP7195593B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018233475A JP7195593B2 (ja) 2018-12-13 2018-12-13 語学学習用装置および語学学習用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018233475A JP7195593B2 (ja) 2018-12-13 2018-12-13 語学学習用装置および語学学習用プログラム

Publications (2)

Publication Number Publication Date
JP2020095176A true JP2020095176A (ja) 2020-06-18
JP7195593B2 JP7195593B2 (ja) 2022-12-26

Family

ID=71084914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018233475A Active JP7195593B2 (ja) 2018-12-13 2018-12-13 語学学習用装置および語学学習用プログラム

Country Status (1)

Country Link
JP (1) JP7195593B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5487671A (en) * 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
JP2005099376A (ja) * 2003-09-24 2005-04-14 Canon Inc 音声認識方法および装置
JP2010169973A (ja) * 2009-01-23 2010-08-05 Hitachi Ltd 外国語学習支援システム、及びプログラム
JP2012215645A (ja) * 2011-03-31 2012-11-08 Speakglobal Ltd コンピュータを利用した外国語会話練習システム
JP2015184285A (ja) * 2014-03-20 2015-10-22 カシオ計算機株式会社 表示制御装置及びプログラム
US20180190269A1 (en) * 2016-12-29 2018-07-05 Soundhound, Inc. Pronunciation guided by automatic speech recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5487671A (en) * 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
JP2005099376A (ja) * 2003-09-24 2005-04-14 Canon Inc 音声認識方法および装置
JP2010169973A (ja) * 2009-01-23 2010-08-05 Hitachi Ltd 外国語学習支援システム、及びプログラム
JP2012215645A (ja) * 2011-03-31 2012-11-08 Speakglobal Ltd コンピュータを利用した外国語会話練習システム
JP2015184285A (ja) * 2014-03-20 2015-10-22 カシオ計算機株式会社 表示制御装置及びプログラム
US20180190269A1 (en) * 2016-12-29 2018-07-05 Soundhound, Inc. Pronunciation guided by automatic speech recognition

Also Published As

Publication number Publication date
JP7195593B2 (ja) 2022-12-26

Similar Documents

Publication Publication Date Title
US6424935B1 (en) Two-way speech recognition and dialect system
CN101346758B (zh) 感情识别装置
US9548052B2 (en) Ebook interaction using speech recognition
CN108431883B (zh) 语言学习系统以及语言学习程序
JP2005321817A (ja) 教育及び試験における適応対話の音声信号から複合情報を得る方法及び装置
US11810471B2 (en) Computer implemented method and apparatus for recognition of speech patterns and feedback
CN109817244B (zh) 口语评测方法、装置、设备和存储介质
JP5105943B2 (ja) 発話評価装置及び発話評価プログラム
US11935523B2 (en) Detection of correctness of pronunciation
JP7166580B2 (ja) 言語学習方法
KR20170057623A (ko) 언어장애인을 위한 다언어 어휘의 발음 합성 및 문자화 장치
Wang et al. Relative contribution of vowel quality and duration to native language identification in foreign-accented English
Kabashima et al. Dnn-based scoring of language learners’ proficiency using learners’ shadowings and native listeners’ responsive shadowings
JP7376071B2 (ja) コンピュータプログラム、発音学習支援方法及び発音学習支援装置
Vidal et al. EpaDB: A Database for Development of Pronunciation Assessment Systems.
JP7195593B2 (ja) 語学学習用装置および語学学習用プログラム
EP3718107B1 (en) Speech signal processing and evaluation
Tu et al. Error patterns of Mandarin disyllabic tones by Japanese learners
CN113452871A (zh) 用于从视频自动生成课程的系统和方法
US20190189026A1 (en) Systems and Methods for Automatically Integrating a Machine Learning Component to Improve a Spoken Language Skill of a Speaker
Kaland et al. How f0 and Phrase Position Affect Papuan Malay Word Identification.
JP7039637B2 (ja) 情報処理装置、情報処理方法、情報処理システム、情報処理プログラム
JP7060857B2 (ja) 語学習得装置及び語学習得プログラム
JP2023144953A (ja) 発話評価装置及びプログラム
CN112951208B (zh) 语音识别的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7195593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150