JP2015026057A - インタラクティブキャラクター基盤の外国語学習装置及び方法 - Google Patents

インタラクティブキャラクター基盤の外国語学習装置及び方法 Download PDF

Info

Publication number
JP2015026057A
JP2015026057A JP2014064369A JP2014064369A JP2015026057A JP 2015026057 A JP2015026057 A JP 2015026057A JP 2014064369 A JP2014064369 A JP 2014064369A JP 2014064369 A JP2014064369 A JP 2014064369A JP 2015026057 A JP2015026057 A JP 2015026057A
Authority
JP
Japan
Prior art keywords
language
speech recognition
text
recognition result
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014064369A
Other languages
English (en)
Inventor
イ−ソク チャン
I-Seok Chan
イ−ソク チャン
ユン−グン イ
Yun-Gun Lee
ユン−グン イ
ヒュン−ペ チョン
Hyun-Bae Chon
ヒュン−ペ チョン
ユ−リ オ
Yu Li Oh
ユ−リ オ
ユン キョン イ
Yun-Kyung Lee
ユン キョン イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2015026057A publication Critical patent/JP2015026057A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

【課題】外国語学習装置及び方法を提供する。
【解決手段】生活言語及び学習対象言語のうちの一つにより学習者が発話する音声入力を受信し、合成音及び学習評価結果のうちの少なくとも一つを出力する入出力部100と、音声認識を行い、音声認識結果テキストを出力する音声認識部200と、音声認識結果テキストを受信し、誤りを訂正して類似文章を生成する文章分析及び訂正部300と、訂正された音声認識結果テキストの言語と出力言語が異なる場合、音声認識結果テキストを出力言語に自動翻訳し自動翻訳テキストを生成する多国語自動翻訳モジュール500と、訂正された音声認識結果テキスト及び自動翻訳テキストのうちの一つを受信し、対応する音声を既に設定されたインタラクティブキャラクターの特性に応じて合成し、出力する多国語音声合成モジュール800と、学習者の言語使用能力を評価し、評価結果を入出力部に出力する学習評価部400と、を含む。
【選択図】図1

Description

本発明は、外国語学習装置及び方法に関し、特にインタラクティブキャラクターを介してユーザの母国語発話を音声認識し、翻訳して外国語発声音を出力するだけでなく、ユーザの外国語発話を音声認識して誤り訂正及び発音/言語評価をユーザにフィードバックできるインタラクティブキャラクター基盤の外国語学習装置及び方法に関する。
現代社会において外国語活用能力は非常に重要である。既存の外国語学習は、主にリーディング、ライティングに重点を置いたが、現在は、リスニング及びスピーキングが外国語学習において大きな比重を占めている。
特に、発話は、通常学習者が外国語を学習する際に、最も難しいとされている領域であって、大部分の学習者は、外国語スのピーキング学習の初期に発話をためらう段階である無声期間(silent period)と、学習言語の規則を習得しながら外国語発話を行う実験的生成期間(production period)とを有する。外国語スピーキング学習において、無声期間と実験的生成期間は、学習者が最も苦しがっている期間であって、この期間にスピーキング学習を円滑に行うことができれば、学習者の外国語スピーキング能力は短期間に大きく向上することができる。
このため、学習者が拒否感なしで、容易かつ慣れた方式で、無声期間及び実験的生成期間に外国語学習を行うことができる外国語学習装置及び外国語学習方法が要求されている。
特開2001−338077号公報
本発明の目的は、ユーザの母国語及び外国語発話を音声認識して翻訳された音声を出力でき、また誤りや発音を訂正して学習者にフィードバックできるインタラクティブキャラクター基盤の外国語学習装置を提供することにある。
本発明の他の目的は、インタラクティブキャラクター基盤の外国語学習方法を提供することにある。
上記目的を達成するために、本発明の一例に係る外国語学習装置は、学習者が普段使用する言語に既に設定された生活言語及び学習対象言語のうちの一つにより上記学習者が発話する音声入力を受信し、合成音及び学習評価結果のうちの少なくとも一つを出力する入出力部と、上記音声入力の印加を受けて音声認識を行い、音声認識結果テキストを出力する音声認識部と、上記音声認識結果テキストを受信し、上記音声認識結果テキストの誤りを訂正し、類似文章を生成する文章分析及び訂正部と、文章分析及び訂正部にて誤りの訂正された上記音声認識結果テキストの言語と出力言語とが互いに異なる場合、上記音声認識結果テキストを上記出力言語に対応して自動翻訳し、自動翻訳テキストを生成する多国語自動翻訳モジュールと、誤りの訂正された上記音声認識結果テキスト及び上記自動翻訳テキストのうちの少なくとも一つを受信し、受信された上記テキストに対応する音声を既に設定されたインタラクティブキャラクターの特性に応じて合成して、合成音を上記入出力部に出力する多国語音声合成モジュールと、上記学習者の言語使用能力を評価して、評価結果を上記入出力部に出力する学習評価部と、を含む。
上記音声認識部は、上記学習者が普段使用する生活言語を使用する人々のL3音響モデルと、上記学習者と同一の生活言語を使用する人々の同一の上記学習対象言語に対するL2音響モデルと、上記学習対象言語が生活言語である人々のL1音響モデルと、を含むL123ユーザ音響モデルを格納するL123ユーザ音響モデルデータベースと、上記学習者と同一の生活言語を使用する人々のL3言語モデルと、上記学習者と同一の生活言語を使用する人々の同一の上記学習対象言語に対するL2言語モデルと、上記学習対象言語が生活言語である人々のL1言語モデルと、を含むL123ユーザ言語モデルを格納するL123ユーザ言語モデルデータベースと、上記音声入力をL123ユーザ音響モデル及びL123ユーザ言語モデルを用いて上記音声認識結果テキストに変換する多国語音声認識モジュールと、を含むことを特徴とする。
上記L123ユーザ音響モデルデータベースは、上記L1音響モデルとL2音響モデルとが結合した形態のL1+L2音響モデルを格納し、上記L123ユーザ言語モデルデータベースは、上記L1言語モデルとL2言語モデルとが結合した形態のL1+L2言語モデルを格納することを特徴とする。
上記多国語音声認識モジュールは、上記音声入力が上記学習者の生活言語である場合は、上記L3音響モデル及び上記L3言語モデルを用いて音声認識を行い、上記音声入力が上記学習対象言語である場合は、上記L1+L2音響モデル及び上記L1+L2言語モデルを用いて音声認識を行うことを特徴とする。
上記文章分析及び訂正部は、上記生活言語及び上記学習対象言語に対し、既存の音声認識結果テキストで発生する誤りとこれに対する訂正情報とを累積した誤りパターンを格納する誤り訂正データベースと、上記音声認識結果テキストの誤りを上記誤りパターンから検索して誤りを訂正する文章誤り訂正モジュールと、上記生活言語及び上記学習対象言語での意味的に類似した多数の類似文章を含む類似文章パターンを格納する類似文章データベースと、上記音声認識結果テキストと意味的に類似した文章を上記類似文章パターンを検索して得る類似文章生成モジュールと、を含むことを特徴とする。
上記文章誤り訂正モジュールは、上記音声認識結果テキストをNグラム(n−gram)の形態に変換し、変換された上記Nグラムをキーワードにして上記誤り訂正データベースの上記誤りパターンを検索して、検索された上記誤りパターンから誤りに対する訂正情報を得、得られた訂正情報を検索キーワードの上記Nグラムに取り替えることにより、誤りを訂正することを特徴とする。
上記文章誤り訂正モジュールは、上記音声認識結果テキストから、既に設定された方式により重要語彙を抽出して、上記重要語彙をキーワードにして上記類似文章データベースの類似文章パターンを検索し、上記類似文章パターンから検索された類似文章候補のうち、文字列構成が上記音声認識結果テキストと最も類似する、既に設定された個数の上記類似文章候補を上記類似文章として選択することを特徴とする。
上記学習評価部は、上記L1音響モデルを格納するL1ユーザ音響モデルデータベースと、上記L1言語モデルを格納するL1ユーザ言語モデルデータベースと、上記音声入力と上記L1音響モデルとを比較して音響類似度を計算し、上記音声認識結果テキストと上記L1言語モデルとを比較して言語類似度を計算し、上記音声認識結果テキストと上記文章分析及び訂正部で誤りの訂正された上記音声認識結果テキストとを比較して誤り類似度を計算し、上記音響類似度と上記言語類似度と上記誤り類似度とを統合して既に設定された方式により数値化し、上記評価結果を生成する学習者評価モジュールと、を含むことを特徴とする。
上記外国語学習装置は、誤りの訂正された上記音声認識結果テキストまたは自動翻訳テキストのうちの少なくとも一つを受信し、既に設定された上記インタラクティブキャラクターの特性及び既に格納された上記学習者の音声認識結果テキストを用いて、音声認識結果テキストまたは自動翻訳テキストを確張して拡張文章を生成するパラフレージング処理モジュールをさらに含むことを特徴とする。
上記パラフレージング処理モジュールは、誤りの訂正された上記音声認識結果テキスト及び上記自動翻訳テキストのうちの少なくとも一つを受信し、受信された上記テキストを確張するために上記テキストの構文及び意味を分析して特性キーワードを抽出するテキスト分析モジュールと、上記外国語学習装置から提供される上記インタラクティブキャラクターの特性情報を格納するキャラクター特性データベースと、上記テキスト分析モジュールで分析された上記音声認識結果テキストのキーワードを上記キャラクター特性データベースのキーワード値とマッチングして、上記音声認識結果テキストの文章を確張するキャラクター特性管理モジュールと、上記学習者が以前に発話して上記音声入力で入力し、音声認識された音声認識結果テキストを格納するセッションヒストリデータベースと、上記セッションヒストリデータベースに格納された上記音声認識結果テキストを現在学習者が発声して音声認識された上記音声認識結果テキストと結合して文章を確張するセッションヒストリ管理モジュールと、を含むことを特徴とする。
上記他の目的を達成するために、本発明の一例に係る外国語学習方法は、入出力部と、音声認識部と、文章分析及び訂正部と、学習評価部と、多国語自動翻訳モジュールと、パラフレージング処理モジュールと、多国語音声合成モジュールと、を含む外国語学習装置の外国語学習方法において、上記入出力部が設定命令を受信して、音声入力言語及び出力言語に対する言語設定とキャラクター設定などを含む学習設定を行うステップと、上記音声認識部は、学習者が普段使用する言語に既に設定された生活言語及び学習対象言語のうちの一つにより上記学習者が発話する音声入力が受信されたかどうかを判別するステップと、上記音声入力が受信されると、上記音声認識部が音声認識を行い音声認識結果テキストを生成するステップと、上記文章分析及び訂正部が上記音声認識結果テキストの誤りを訂正するステップと、上記多国語自動翻訳モジュールが、上記誤りの訂正された音声認識結果テキストが上記学習設定において設定された上記出力言語と同一であるか否かを判別するステップと、上記出力言語が上記誤りの訂正された音声認識結果テキストと同一でない場合、上記誤りの訂正された音声認識結果テキストを上記出力言語に応じて自動翻訳して、自動翻訳テキストを生成するステップと、上記パラフレージング処理モジュールが、上記誤りの訂正された音声認識結果テキストまたは上記自動翻訳テキストのうちの少なくとも一つを受信し、 受信された上記テキストを既に設定された上記インタラクティブキャラクターの特性及び既に格納された上記学習者の音声認識結果テキストを用いて確張して拡張文章を生成するステップと、上記多国語音声合成モジュールが,誤りの訂正された上記音声認識結果テキスト、上記自動翻訳テキスト、及び上記拡張テキストのうちの少なくとも一つを受信し、受信された上記テキストに対応する音声を既に設定されたインタラクティブキャラクターの特性に応じて合成し、合成音を生成するステップと、上記学習評価部が、上記学習者の言語使用能力を評価して、評価結果を生成するステップと、上記入出力部が上記合成音及び上記評価結果を出力するステップと、を含む。
本発明のインタラクティブキャラクター基盤の外国語学習装置及び方法は、学習者がインタラクティブキャラクターを用いたインターフェイスを介して、ゲームのように容易かつ慣れた接近方法により、硬直された外国語学習過程を簡単かつ面白く行うことができる。また、学習者の母国語発話に対し、翻訳された外国語の発声音を合成して出力することにより、学習者が外国語発声音を真似ることができる。さらに、無声期間及び実験的生成期間においての熟達していない学習者の外国語発話の誤り、発音訂正及び言語評価を学習者に親しいキャラクターでフィードバックすることにより、学習者の言語学習のストレスを低減することができる。そして類似文章を確張して提供することにより、学習者が多様な表現の外国語を学習することができる。
本発明の一実施例に係るインタラクティブキャラクター基盤の外国語学習装置の構成を示す図面である。 本発明の一実施例に係るインタラクティブキャラクター基盤の外国語学習方法を示す図面である。
本発明と本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには、本発明の好ましい実施例を例示する添付図面及び添付図面に記載された内容を参照しなければならない。
以下、添付した図面に基づいて本発明の好ましい実施例を説明することにより、本発明を詳細に説明する。しかし、本発明は、多様な異なる形態に実施することができ、以下に説明する実施例に限定されない。そして、本発明を明確に説明するために、説明と関係ない部分は省略し、図面において同一の参照符号は、同一の部材を示す。
明細書全体において、ある部分がある構成要素を「含む」とするとき、これは、特別に反対の記載がない限り、他の構成要素を除外することではなく、他の構成要素をさらに含むことができることを意味する。また、明細書に記載された「...部」、「...機」、「モジュール」、「ブロック」などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これはハードウェアやソフトウェア、またはハードウェアとソフトウェアの結合により実現されることができる。
図1は、本発明の一実施例に係るインタラクティブキャラクター基盤の外国語学習装置の構成を示す。
図1を参照すると、本発明のインタラクティブキャラクター基盤の外国語学習装置10は、大きく、入出力部100と、音声認識部200と、文章分析及び訂正部300と、学習評価部400と、多国語自動翻訳モジュール500と、パラフレージング処理モジュール600と、文章応用部700と、多国語音声合成モジュール800と、を含む。
先ず、入出力部100は、学習者の音声を感知して生成される音声入力を音声認識部200に伝送し、多国語音声合成モジュール800から合成音を受信して出力したり、学習評価部400から学習者の学習評価結果を受信して学習者に表示したりする。
音声認識部200は、入出力部100を介して音声入力が受信され、受信された音声入力を音声認識して、音声認識結果テキストに変換する。ここで、音声認識部200は、学習者が普段使用する生活言語を音声認識できるだけでなく、学習者が発話した学習対象言語も音声認識することができる。音声認識部200は、L123ユーザ音響モデルデータベース210と、L123ユーザ言語モデルデータベース220と、多国語音声認識モジュール230と、を含む。
L123ユーザ音響モデルデータベース210は、学習者が普段使用する生活言語(一般的には、母国語)を使用する人々の音響モデル(ここでは、L3音響モデルという)と、学習者と同一の生活言語を使用する人々の同一の学習対象言語に対する音響モデル(ここでは、L2音響モデルという)と、学習対象言語が生活言語である人々の音響モデル(ここでは、L1音響モデルという)と、を含むL123ユーザ音響モデルを格納する。ここで、L123ユーザ音響モデルデータベース210は、L1音響モデルとL2音響モデルとが結合した形態であるL1+L2音響モデルを格納することができる。
類似に、L123ユーザ言語モデルデータベース220は、学習者と同一の生活言語を使用する人々の言語モデル(ここでは、L3言語モデルという)と、学習者と同一の生活言語を使用する人々の同一の学習対象言語に対する言語モデル(ここでは、L2言語モデルという)と、学習対象言語が生活言語である人々の言語モデル(ここでは、L1言語モデルという)と、を含むL123ユーザ言語モデルを格納する。ここで、L123ユーザ言語モデルデータベース220は、L1言語モデルとL2言語モデルとが結合した形態であるL1+L2言語モデルを格納することができる。
上述したように本発明では、説明の便宜のために学習者が学習しようとする対象言語をL1言語といい、学習者が普段使用する生活言語をL3言語という。L2言語は、L3言語のユーザがL1言語を使用する場合を意味する。
多国語音声認識モジュール230は、入出力部100を介して印加される学習者の音声入力を受信し、受信された学習者の音声入力を、L123ユーザ音響モデルデータベース210に格納されたL123ユーザ音響モデル及びL123ユーザ言語モデルデータベース220に格納されたL123ユーザ言語モデルを用いて音声認識を行い、音声認識された音声入力を音声認識結果テキストに変換して文章分析及び訂正部300に出力する。多国語音声認識モジュール230は、音声入力が学習者の生活言語であるか、学習対象言語であるかに関係なく音声認識を行うことができる。すなわち、音声入力が学習者の生活言語である場合は、L3音響モデル及びL3言語モデルを用いて音声認識を行う。そして、音声入力が学習対象言語である場合は、L1及びL2音響モデルと、L1及びL2言語モデルとを用いて音声認識を行うか、L1+L2音響モデルと、L1+L2言語モデルとを用いて音声認識を行う。このとき、多国語音声認識モジュール230は、音声入力をL3音響モデルと比較して、学習者が発話した音声入力が生活言語であるか学習対象言語であるかを判別して音声認識を行うことができる。しかし、学習者が発話する言語及び学習対象言語を予め設定して音声入力することもできる。すなわち、多国語音声認識モジュール230は、入出力部100を介して言語設定情報を予め受信して設定することが正確な音声認識のために好ましい。
学習対象言語に熟達していない学習者の学習対象言語に対する発話には、誤りの含まれる可能性が非常に高い。このため、既存の音声認識技術を適用すると、音声認識を正常に行えないことが頻繁に生じることになる。これは、外国語学習装置が学習言語に熟達していない学習者に、発話したときにどんな誤りが発生したのかを知らせないまま、繰り返して音声を入力することを要求し、学習者にストレスを感じさせる要因となる。そして、このような学習者のストレスは、外国語学習を忌避する現象を引き起こす。特に、学習対象言語が生活言語である人々と外国語である学習対象言語を学習しようとする人々との間には、発話する音声に差があっても学習者がこれを認知できない場合が多いため、外国語学習装置の音声認識は、音声入力に誤りが含まれていても正確に音声を認識できる技術が要求される。
これに対して、本発明の音声認識部200は、学習対象言語が生活言語である人々に対する音響モデル及び言語モデルだけでなく、学習者と同一の生活言語を有する人々の同一の学習対象言語に対する音響モデル及び言語モデルが結合されたL1+L2ユーザ音響モデル及びL1+L2ユーザ言語モデルを用いて学習対象言語に対する音声認識を行うので、音声入力を音声認識して学習言語テキストの生成時に誤りに強い音声認識機能を提供することができる。
文章分析及び訂正部300は、音声認識部200からの音声認識結果テキストを受信し、音声認識結果テキストの誤りを訂正し、類似文章を生成する。文章分析及び訂正部300は、誤り訂正データベース310と、文章誤り訂正モジュール320と、類似文章データベース330と、類似文章生成モジュール340と、を含む。
誤り訂正データベース310は、生活言語及び学習対象言語に対する誤りパターンを格納する。誤りパターンは、既存の音声認識結果テキストで発生する誤りとこれに対する訂正情報とを累積した情報である。
文章誤り訂正モジュール320は、受信された音声認識結果テキストの誤りパターンを誤り訂正データベース310で検索し、修正して誤りを訂正する。本発明の文章誤り訂正モジュール320は、文章誤りを訂正するために、先ず音声認識結果テキストをNグラムの形態に変換する。Nグラムは、代表的な確率的言語モデルの一つであって、単語列を確率的に扱う言語モデルである。Nグラムは、確率的言語モデルの代表的なものであって、n個単語の連鎖を確率的に表現しておくと、実際に発声された文章の記録を計算する技術である。
文章誤り訂正モジュール320は、音声認識結果テキストがNグラムの形態に変換されると、変換されたNグラムをキーワードにして誤り訂正データベース310の誤りパターンを検索する。検索された誤りパターンから誤りに対する訂正情報を得、得られた訂正情報を検索キーワードのNグラムに取り替えることにより、誤りを訂正する。
一方、類似文章データベース330は、生活言語及び学習対象言語において、意味的に類似した多数の類似文章を含む類似文章パターンを格納する。通常使用する言語においての類似文章の個数は、入力可能な対象文章が限定されないため、無限であるといえるが、外国語学習は、一般的に限定された文章を活用して行われるので、類似文章データベース330は、外国語学習に使用される文章で入力対象文章を限定することにより、対応する類似文章を格納することができる。
類似文章生成モジュール340は、音声認識結果テキストが受信されると、音声認識結果テキストと意味的に類似した文章を、類似文章データベース330の類似文章パターンを検索して類似文章を得る。類似文章生成モジュール340は、類似文章を得るために、先ず、 音声認識結果テキストから既に設定された方式により重要語彙を抽出する。そして、抽出された重要語彙をキーワードにして類似文章データベース330から類似文章パターンを検索する。多数の類似文章候補が検索されると、検索された類似文章候補のうちの音声認識結果テキストと文字列構成が最も類似した、既に設定された個数だけ類似文章候補を類似文章として決定する。
学習評価部400は、L1ユーザ音響モデルデータベース410と、L1ユーザ言語モデルデータベース420と、学習者評価モジュール430と、を含み、学習者の言語使用能力を評価して、評価結果を入出力部100に伝送する。
L1ユーザ音響モデルデータベース410は、学習対象言語が生活言語である人々に対するL1音響モデルを格納し、L1ユーザ言語モデルデータベース420は、L1言語モデルを格納する。
学習者評価モジュール430は、音声認識部200の多国語音声認識モジュール230から音声入力を受信し、L1ユーザ音響モデルデータベース410のL1音響モデルと比較して音響類似度を計算し、音声認識結果テキストをL1ユーザ音響モデルデータベース420のL1言語モデルと比較して言語類似度を計算する。そして、音声認識結果テキストと、文章分析及び訂正部300の文章誤り訂正モジュール320で誤りの訂正された音声認識結果テキストとを受信し、比較して誤り類似度を計算する。最後に、音響類似度と言語類似度と誤り類似度とを統合し、既に設定された方式により数値化して評価結果を生成する。
上記では、学習評価部400がL1ユーザ音響モデルデータベース410及びL1ユーザ言語モデルデータベース420を備えることに説明したが、L1ユーザ音響モデルデータベース410及びL1ユーザ言語モデルデータベース420は、それぞれL123ユーザ音響モデル210及びL123ユーザ言語モデルに含まれて実現されることができる。また、上記では、学習者評価モジュール430が、音響類似度、言語類似度、及び誤り類似度を直接計算することに説明したが、音響類似度及び言語類似度は、音声認識部200の多国語音声認識モジュール230により計算されて学習評価部400に伝送されてもよく、誤り類似度は、文章誤り訂正モジュール320により計算されて学習評価部400に伝送されてもよい。この場合、学習評価部は、単純に音響類似度と言語類似度と誤り類似度とを統合し、既に設定された方式により数値化して評価結果のみを生成して出力することができる。また、学習者評価モジュール430は、音響類似度、言語類似度及び誤り類似度のそれぞれを視覚的または聴覚的な方式により出力して、学習者の学習対象言語に対する発話のどの部分に誤りがあるのかを直観的に認知できるようにする。例えば、誤りが既に設定された水準よりも大きい語彙のみを別途に表示したり、発声音を別途に再び聞かせたりすることができる。このとき、学習評価部400は、単純に評価結果及び誤り部分を指摘する方式により学習者に表示することではなく、インタラクティブキャラクターを用いて表示することにより、学習者が慣れた方式で誤りを訂正できるようにする。
多国語自動翻訳モジュール500は、文章分析及び訂正部300から誤りの訂正された音声認識結果テキストを受信し、音声認識結果テキストの言語と出力する音声合成言語とが互いに異なる場合、誤りの訂正された音声認識結果テキストを学習対象言語に自動で翻訳して自動翻訳テキストを出力する。すなわち、音声認識結果テキストが学習者の生活言語であり、出力する合成音が学習対象言語である場合、生活言語である音声認識結果テキストを学習対象言語に翻訳する。自動翻訳の遂行可否は、入力音声が生活言語であるか学習対象言語であるかを音声認識部200で予め判別したので、これを用いて自動翻訳の遂行可否を決定することができる。例えば、音声認識部の多国語音声認識モジュール230が言語設定情報による翻訳信号を多国語自動翻訳モジュール500に伝送することにより、自動翻訳を行うことができる。
パラフレージング(Paraphrasing)処理モジュール600は、誤りの訂正された音声認識結果テキストまたは自動翻訳テキストを受信し、音声認識結果テキストまたは自動翻訳テキストを文章応用部700を通じて確張する。すなわち、インタラクティブキャラクターが発話する文章の数を確張する。
文章応用部700は、テキスト分析モジュール710と、キャラクター特性データベース720と、キャラクター特性管理モジュール730と、セッションヒストリデータベース740と、セッションヒストリ管理モジュール750と、を含み、パラフレージング処理モジュール600から拡張要請されたテキストを確張する。
テキスト分析モジュール710は、パラフレージング処理モジュール600から拡張要請されて伝送されるテキストの構文及び意味を分析して特性キーワードを抽出する。
キャラクター特性データベース720は、外国語学習装置から提供されるインタラクティブキャラクターの特性情報を格納する。ここで、格納されるキャラクターの特性情報には、キャラクターの名、形状、種類及びキャラクターに対応する音声データなどが含まれ得る。
キャラクター特性管理モジュール730は、テキスト分析モジュール720から分析されたテキストのキーワードをキャラクター特性データベース720のキーワード値とマッチングして、該当する値を適用した文章を生成する。例えば、インタラクティブキャラクターが猫キャラクターであり、拡張要請される文章が“私は、ホン・ギルドンである”の場合、キャラクター特性管理モジュール730は、“私は、猫である”と拡張文章を生成し、パラフレージング処理モジュール600に伝送する。
セッションヒストリデータベース740は、学習者が以前に発話して音声入力により入力して音声認識された音声認識結果テキストを格納する。
セッションヒストリ管理モジュール750は、以前に学習者が発声して音声認識された音声認識結果テキストを、現在学習者が発声して音声認識された音声認識結果テキストと結合して文章を確張する。例えば、学習者が、“私は、人間である”、“私は、お腹がすいた”を一つのセッションで発話して音声認識された場合、セッションヒストリ管理モジュール750は、“私は、人間であるから、お腹がすいた”、“私は、人間であるので、お腹がすいた”など文章を結合して拡張文章を生成する。
文章応用部700で拡張して生成される文章は、インタラクティブキャラクターとともに学習者に出力される文章であって、文章応用部700は、インタラクティブキャラクター管理部としてみなすことができる。また、上記では文章応用部700を別途に示したが、文章応用部700は、パラフレージング処理モジュール600に含まれて構成することもできる。
多国語音声合成モジュール800は、パラフレージング処理モジュール600から誤りの訂正された音声認識結果テキスト、自動翻訳テキスト、及び拡張テキストのうちの少なくとも一つを受信し、受信されたテキストに対応する音声を合成して合成音を入出力部100に出力する。
したがって、外国語学習装置10は、学習者の生活言語の発話を音声入力により受信し、翻訳して学習対象言語の合成音をインタラクティブキャラクターとともに出力することができるだけでなく、インタラクティブキャラクターの特性や学習者の以前の音声入力に基づいて学習対象言語を確張して出力することができる。さらに、学習者の学習対象言語発話を音声入力により受信し、学習者の学習対象言語発話の誤りを分析及び訂正し、インタラクティブキャラクターを通じて誤りの発生した部分を学習者が認識できるようにすることで、学習者が頻繁な誤りにもストレスを受けずに誤りを修正できるようにする。
図1の外国語学習装置10は、スマートフォンやスマートパッドのようなスマート機器を含むモバイル機器及びPCのような情報処理機器の形態で実現できる。この場合、入出力部100は、情報処理機器のユーザインターフェイスで実現されることできる。
また、外国語学習装置10の構成要素は、アプリケーションソフトウェアモジュールの形態で実現できる。外国語学習装置10の構成要素をアプリケーションソフトウェアモジュールの形態で実現する場合、入出力部100は、情報処理機器の運営体制(Operation System)のようなアプリケーションと入出力関連通信を行う通信モジュールで実現できる。
また、上記では入出力部100を介して印加される入力音声の言語や出力される合成音の言語に対する設定を、個別構成が直接受信して処理することに説明したが、別途の学習設定部(図示せず)をさらに備えて学習設定を格納することもできる。学習設定には、入力音声の言語や出力される合成音の言語に対する設定だけでなく、ユーザ情報やキャラクター設定などが含まれることができる。
図2は、本発明の一実施例に係るインタラクティブキャラクター基盤の外国語学習方法を示す。
図1を参照して、図2のインタラクティブキャラクター基盤の外国語学習方法を説明すると、先ず、外国語学習装置10は、入出力部100を介して設定命令を受信し、学習設定を行う(S10)。学習設定には、音声入力言語及び出力言語に対する言語設定と、キャラクター設定などが含まれる。音声入力言語としては、学習者の生活言語及び学習対象言語がすべて含まれるように設定可能であり、出力言語としては、学習対象言語が設定されることができる。場合によっては、出力言語として学習対象言語だけでなく、生活言語も含まれることができる。これは、インタラクティブキャラクターが学習者の生活言語で、学習者と対話するごとく学習者が感じるようにして、学習者の外国語学習に対するストレスを低減するためである。
学習設定が行われると、音声認識部200は、入出力部100を介して音声入力が受信されるか否かを判別する(S20)。若し音声入力が受信されると、音声認識を行い、音声認識結果テキストを生成する(S30)。このとき、入力される音声は、学習者の生活言語で入力されてもよく、学習対象言語で入力されてもよい。音声認識部200は、音声入力が学習者の生活言語であるか学習対象言語であるかに関係なく音声認識を行う。ここで、音声認識部200は、音声入力が学習者の生活言語である場合は、L3ユーザ音響モデル及びL3ユーザ言語モデルを用いて音声認識を行う。しかし、音声入力が学習対象言語であると、L1及びL2ユーザ音響モデルと、L1及びL2ユーザ言語モデルとを用いて音声認識を行う。 本発明の音声認識部200は、学習対象言語による音声入力に対し、学習対象言語が生活言語であるユーザのL1ユーザ音響モデル及びL1ユーザ言語モデルのみを用いて音声認識を行うのではなく、学習者と同一の生活言語を使用する人々の学習対象言語に対するL2音響モデル及びL2言語モデルをともに用いることにより、音声認識率を大きく高めることができる。また、音声入力が学習対象言語である場合は、L1及びL2ユーザ音響モデルを結合したL1+L2ユーザ音響モデルと、L1及びL2ユーザ言語モデルを結合したL1+L2ユーザ言語モデルとを用いて音声認識を行うこともできる。
音声入力に対する音声認識が行われ、音声認識結果テキストが生成されると、文章分析及び訂正部300で音声認識結果テキストの誤りを訂正して正しい文章に変換する(S40)。このとき、文章分析及び訂正部300は、誤りを訂正するために、音声認識結果テキストを Nグラムの形態に変換し、変換されたNグラムをキーワードにして誤り訂正データベース310の誤りパターンを検索することにより、誤りを訂正する。
誤りの訂正された音声認識結果テキストが、学習設定により出力される言語と同一であるか否かを判別する(S50)。すなわち、音声入力言語と出力言語とが同一であるか否かを判別する。若し出力言語が音声入力言語と同一でない場合、多国語自動翻訳モジュール500が音声認識結果テキストを出力言語に応じて自動翻訳を行う(S60)。しかし、出力言語が音声入力言語と同一である場合、自動翻訳は行われない。
そして、音声認識結果テキストが自動翻訳されたり、または翻訳されない学習対象言語テキストをパラフレージング処理モジュール600で確張する。パラフレージング処理モジュール600は、先ず、学習対象言語テキストを分析して、学習設定により設定されたキャラクターの特性に応じて出力する文章候補を抽出し、出力文章を確張する(S70)。キャラクター特性に応じて出力文章を確張した後、学習者が以前に発話して音声入力により入力し、音声認識された音声認識結果テキストを結合して出力する文章候補を生成し、出力文章を確張する(S80)。出力文章が拡張されると、拡張された出力文章のうち、合成音で出力する文章を選択し、選択された出力文章を音声合成する(S90)。
一方、学習者評価部400は、音声入力をL1音響モデルと比較して音響類似度を計算し、音声認識結果テキストをL1言語モデルと比較して言語類似度を計算し、また音声認識結果テキストと文章分析及び訂正部300で誤りの訂正された音声認識結果テキストとを比較して誤り類似度を計算して、学習者の学習成就度を評価する(S100)。
そして、音声合成された合成音と学習評価結果をインタラクティブキャラクターのアニメーション及び音声の形態に出力して、学習者にフィードバックする(S110)。ここで、キャラクターアニメーションは、音声認識評価の結果、文章意味評価の結果などで詳細に表示することができ、学習者の発話での誤りの発生した部分を指摘して正しい発音をともに出力することもできる。
本発明に係る方法は、コンピューター読み取り可能な記録媒体に、コンピューターで読み取り可能なコードで具体化することが可能である。コンピューターで読み取り可能な記録媒体とは、コンピューターシステムによって読み出されることができるデータが格納されるすべての種類の記録装置を含む。記録媒体の例には、ROM、RAM、CD−ROM、 磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、またキャリアウエーブ(例えば、インターネットを介した伝送)の形態で実現されることも含む。また、コンピューターで読み取り可能な記録媒体は、ネットワークに接続されたコンピューターシステムに分散され、分散方式によりコンピューターで読み取り可能なコードとして格納されて行われることができる。
本発明は、図面に示された実施例に基づいて説明したが、これは例示的に説明したものに過ぎず、本技術分野の通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲で多様な変形及び均等な他の実施例が可能であることを理解できよう。
従って、本発明の技術的保護範囲は、本発明の請求範囲の技術的思想によって解釈されるべきである。

Claims (20)

  1. 学習者が普段使用する言語に既に設定された生活言語及び学習対象言語のうちの一つにより前記学習者が発話する音声入力を受信し、合成音及び学習評価結果のうちの少なくとも一つを出力する入出力部と、
    前記音声入力の印加を受けて、音声認識を行い、音声認識結果テキストを出力する音声認識部と、
    前記音声認識結果テキストを受信して前記音声認識結果テキストの誤りを訂正し、類似文章を生成する文章分析及び訂正部と、
    文章分析及び訂正部にて誤りの訂正された前記音声認識結果テキストの言語と出力言語とが互いに異なる場合、前記音声認識結果テキストを前記出力言語に対応して自動翻訳し、自動翻訳テキストを生成する多国語自動翻訳モジュールと、
    誤りの訂正された前記音声認識結果テキスト及び前記自動翻訳テキストのうちの少なくとも一つを受信し、受信された前記テキストに対応する音声を既に設定されたインタラクティブキャラクターの特性に応じて合成して、合成音を前記入出力部に出力する多国語音声合成モジュールと、
    前記学習者の言語使用能力を評価し、評価結果を前記入出力部に出力する学習評価部と、を含む外国語学習装置。
  2. 前記音声認識部は、
    前記学習者が普段使用する生活言語を使用する人々のL3音響モデルと、前記学習者と同一の生活言語を使用する人々の同一の前記学習対象言語に対するL2音響モデルと、前記学習対象言語が生活言語である人々のL1音響モデルと、を含むL123ユーザ音響モデルを格納するL123ユーザ音響モデルデータベースと、
    前記学習者と同一の生活言語を使用する人々のL3言語モデルと、前記学習者と同一の生活言語を使用する人々の同一の前記学習対象言語に対するL2言語モデルと、前記学習対象言語が生活言語である人々のL1言語モデルと、を含むL123ユーザ言語モデルを格納するL123ユーザ言語モデルデータベースと、
    前記音声入力をL123ユーザ音響モデル及びL123ユーザ言語モデルを用いて前記音声認識結果テキストに変換する多国語音声認識モジュールと、を含むことを特徴とする請求項1に記載の外国語学習装置。
  3. 前記L123ユーザ音響モデルデータベースが、
    前記L1音響モデルとL2音響モデルとが結合した形態であるL1+L2音響モデルを格納し、
    前記L123ユーザ言語モデルデータベースが、
    前記L1言語モデルとL2言語モデルとが結合した形態であるL1+L2言語モデルを格納することを特徴とする請求項2に記載の外国語学習装置。
  4. 前記多国語音声認識モジュールは、
    前記音声入力が前記学習者の生活言語である場合は、前記L3音響モデル及び前記L3言語モデルを用いて音声認識を行い、
    前記音声入力が前記学習対象言語である場合は、前記L1+L2音響モデル及び前記L1+L2言語モデルを用いて音声認識を行うことを特徴とする請求項3に記載の外国語学習装置。
  5. 前記文章分析及び訂正部は、
    前記生活言語及び前記学習対象言語に対して、既存の音声認識結果テキストから発生する誤りとこれに対する訂正情報とを累積した誤りパターンを格納する誤り訂正データベースと、
    前記音声認識結果テキストの誤りを前記誤りパターンから検索して、誤りを訂正する文章誤り訂正モジュールと、
    前記生活言語及び前記学習対象言語での意味的に類似した多数の類似文章を含む類似文章パターンを格納する類似文章データベースと、
    前記音声認識結果テキストと意味的に類似した文章を、前記類似文章パターンを検索して得る類似文章生成モジュールと、を含むことを特徴とする請求項2に記載の外国語学習装置。
  6. 前記文章誤り訂正モジュールは、
    前記音声認識結果テキストをNグラムの形態に変換し、変換された前記Nグラムをキーワードにして前記誤り訂正データベースの前記誤りパターンを検索し、検索された前記誤りパターンから誤りに対する訂正情報を得、得られた訂正情報を検索キーワードの前記Nグラムに取り替えることにより、誤りを訂正することを特徴とする請求項5に記載の外国語学習装置。
  7. 前記文章誤り訂正モジュールは、
    前記音声認識結果テキストから既に設定された方式により重要語彙を抽出し、前記重要語彙をキーワードにして前記類似文章データベースの類似文章パターンを検索し、前記類似文章パターンから検索された類似文章候補のうち、文字列構成が前記音声認識結果テキストと最も類似する、既に設定された個数の前記類似文章候補を前記類似文章として選択することを特徴とする請求項5に記載の外国語学習装置。
  8. 前記学習評価部は、
    前記L1音響モデルを格納するL1ユーザ音響モデルデータベースと、
    前記L1言語モデルを格納するL1ユーザ言語モデルデータベースと、
    前記音声入力と前記L1音響モデルとを比較して音響類似度を計算し、前記音声認識結果テキストと前記L1言語モデルとを比較して言語類似度を計算し、前記音声認識結果テキストと前記文章分析及び訂正部で誤りの訂正された前記音声認識結果テキストとを比較して誤り類似度を計算して、前記音響類似度と前記言語類似度と前記誤り類似度とを統合して既に設定された方式により数値化して前記評価結果を生成する学習者評価モジュールと、を含むことを特徴とする請求項5に記載の外国語学習装置。
  9. 前記L1ユーザ音響モデルデータベース及び前記L1ユーザ言語モデルデータベースのそれぞれは、
    前記L123ユーザ音響モデルデータベース及び前記L123ユーザ言語モデルデータベースに含まれて実現されることを特徴とする請求項8に記載の外国語学習装置。
  10. 前記外国語学習装置は、
    誤りの訂正された前記音声認識結果テキストまたは自動翻訳テキストのうちの少なくとも一つを受信し、既に設定された前記インタラクティブキャラクターの特性及び既に格納された前記学習者の音声認識結果テキストを用いて、音声認識結果テキストまたは自動翻訳テキストを確張して拡張文章を生成するパラフレージング処理モジュールをさらに含むことを特徴とする請求項1に記載の外国語学習装置。
  11. 前記パラフレージング処理モジュールは、
    誤りの訂正された前記音声認識結果テキスト及び前記自動翻訳テキストのうちの少なくとも一つを受信し、受信された前記テキストを確張するために前記テキストの構文及び意味を分析して特性キーワードを抽出するテキスト分析モジュールと、
    前記外国語学習装置から提供される前記インタラクティブキャラクターの特性情報を格納するキャラクター特性データベースと、
    前記テキスト分析モジュールで分析された前記音声認識結果テキストのキーワードを前記キャラクター特性データベースのキーワード値とマッチングして、前記音声認識結果テキストの文章を確張するキャラクター特性管理モジュールと、
    前記学習者が以前に発話して前記音声入力により入力し、音声認識された音声認識結果テキストを格納するセッションヒストリデータベースと、
    前記セッションヒストリデータベースに格納された前記音声認識結果テキストを、現在学習者が発声して音声認識された前記音声認識結果テキストと結合して文章を確張するセッションヒストリ管理モジュールと、を含むことを特徴とする請求項10に記載の外国語学習装置。
  12. 前記多国語音声合成モジュールは、
    誤りの訂正された前記音声認識結果テキスト、前記自動翻訳テキスト及び前記拡張テキストのうちの少なくとも一つを受信して前記合成音を生成することを特徴とする請求項11に記載の外国語学習装置。
  13. 前記入出力部は、
    情報処理機器及び入出力関連通信を行う通信モジュールで実現されることを特徴とする請求項1に記載の外国語学習装置。
  14. 入出力部と、音声認識部と、文章分析及び訂正部と、学習評価部と、多国語自動翻訳モジュールと、パラフレージング処理モジュールと、多国語音声合成モジュールと、を含む国語学習装置の外国語学習方法において、
    前記入出力部が設定命令を受信し、音声入力言語及び出力言語に対する言語設定とキャラクター設定などを含む学習設定を行うステップと、
    前記音声認識部は、学習者が普段使用する言語に既に設定された生活言語及び学習対象言語のうちの一つにより前記学習者が発話する音声入力が受信されるか否かを判別するステップと、
    前記音声入力が受信されると、前記音声認識部が音声認識を行い、音声認識結果テキストを生成するステップと、
    前記文章分析及び訂正部が、前記音声認識結果テキストの誤りを訂正するステップと、
    前記多国語自動翻訳モジュールは、前記誤りの訂正された音声認識結果テキストが前記学習設定での設定された前記出力言語と同一であるか否かを判別するステップと、
    前記誤りの訂正された音声認識結果テキストと前記出力言語とが同一でない場合、前記誤りの訂正された音声認識結果テキストを前記出力言語に応じて自動翻訳して自動翻訳テキストを生成するステップと、
    前記パラフレージング処理モジュールが、前記誤りの訂正された音声認識結果テキストまたは前記自動翻訳テキストのうちの少なくとも一つを受信し、受信された前記テキストを、既に設定された前記インタラクティブキャラクターの特性及び既に格納された前記学習者の音声認識結果テキストを用いて確張し、拡張文章を生成するステップと、
    前記多国語音声合成モジュールが、誤りの訂正された前記音声認識結果テキスト、前記自動翻訳テキスト及び前記拡張テキストのうちの少なくとも一つを受信し、受信された前記テキストに対応する音声を既に設定されたインタラクティブキャラクターの特性に応じて合成して合成音を生成するステップと、
    前記学習評価部が、前記学習者の言語使用能力を評価し、評価結果を生成するステップと、
    前記入出力部が前記合成音と前記評価結果とを出力するステップと、を含む外国語学習方法。
  15. 前記音声認識結果テキストを生成するステップは、
    前記音声入力が前記学習者の生活言語である場合は、前記学習者が普段使用する生活言語を使用する人々のL3音響モデル及びL3言語モデルを用いて、前記音声入力を前記音声認識結果テキストに変換するステップと、
    前記音声入力が前記学習対象言語である場合は、前記学習者と同一の生活言語を使用する人々の同一の前記学習対象言語に対するL2音響モデル及び前記学習対象言語が生活言語である人々のL1音響モデルが結合されたL1+L2音響モデルと、前記学習者と同一の生活言語を使用する人々の同一の前記学習対象言語に対するL2言語モデル及び前記学習対象言語が生活言語である人々のL1言語モデルが結合されたL1+L2言語モデルとを用いて、前記音声入力を前記音声認識結果テキストに変換するステップと、を含むことを特徴とする請求項14に記載の外国語学習方法。
  16. 前記誤りを訂正するステップは、
    前記音声認識結果テキストの誤りを、前記生活言語及び前記学習対象言語に対する既存の音声認識結果テキストから発生する誤りとこれに対する訂正情報とが累積して格納された誤りパターンから検索して前記誤りを訂正することを特徴とする請求項15に記載の外国語学習方法。
  17. 前記誤りを訂正するステップは、
    前記音声認識結果テキストをNグラムの形態に変換するステップと、
    変換された前記Nグラムをキーワードにして前記誤りパターンを検索するステップと、
    前記誤りパターンに設定された訂正情報を得て誤りを訂正するステップと、を含むことを特徴とする請求項16に記載の外国語学習方法。
  18. 前記拡張文章を生成するステップは、
    誤りの訂正された前記音声認識結果テキスト及び前記自動翻訳テキストのうちの少なくとも一つの構文及び意味を分析して特性キーワードを抽出するステップと、
    分析された前記音声認識結果テキストのキーワードを既に格納された前記インタラクティブキャラクターの特性情報とマッチングして文章を確張するステップと、
    分析された前記音声認識結果テキストを、前記学習者が以前に発話して既に格納された前記音声認識結果テキストと結合して文章を確張するステップと、を含むことを特徴とする請求項15に記載の外国語学習方法。
  19. 前記評価結果を生成するステップは、
    前記音声入力と前記L1音響モデルとを比較して音響類似度を計算するステップと、
    前記音声認識結果テキストと前記L1言語モデルとを比較して言語類似度を計算するステップと、
    前記音声認識結果テキストと誤りの訂正された前記音声認識結果テキストとを比較して誤り類似度を計算するステップと、
    前記音響類似度と、前記言語類似度と、前記誤り類似度とを統合して既に設定された方式により数値化して前記評価結果を生成するステップと、を含むことを特徴とする請求項15に記載の外国語学習方法。
  20. 請求項14から請求項19のうちのいずれか1項に記載の外国語学習方法を行うためのコンピューターで読み取り可能なプログラムを記録した記録媒体。
JP2014064369A 2013-07-29 2014-03-26 インタラクティブキャラクター基盤の外国語学習装置及び方法 Pending JP2015026057A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130089650A KR102191425B1 (ko) 2013-07-29 2013-07-29 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
KR10-2013-0089650 2013-07-29

Publications (1)

Publication Number Publication Date
JP2015026057A true JP2015026057A (ja) 2015-02-05

Family

ID=52490726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014064369A Pending JP2015026057A (ja) 2013-07-29 2014-03-26 インタラクティブキャラクター基盤の外国語学習装置及び方法

Country Status (2)

Country Link
JP (1) JP2015026057A (ja)
KR (1) KR102191425B1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740636B1 (ko) * 2015-03-05 2017-05-26 한국전자통신연구원 음성 인식 기반 발음 평가 방법 및 장치
CN107657842A (zh) * 2017-11-02 2018-02-02 北京中智高新技术研究院 一种人工智能普通话练习设备、方法以及应用
JP2018031828A (ja) * 2016-08-23 2018-03-01 Kddi株式会社 学習者の口述音声から自動的に採点するプログラム、装置及び方法
JP2019053715A (ja) * 2017-09-18 2019-04-04 三星電子株式会社Samsung Electronics Co.,Ltd. Oos文章を生成する方法及びこれを行う装置
CN110032740A (zh) * 2019-04-20 2019-07-19 卢劲松 定制个性语义学习应用方法
CN110164445A (zh) * 2018-02-13 2019-08-23 阿里巴巴集团控股有限公司 语音识别方法、装置、设备及计算机存储介质
CN111198936A (zh) * 2018-11-20 2020-05-26 北京嘀嘀无限科技发展有限公司 一种语音搜索方法、装置、电子设备及存储介质
CN111681659A (zh) * 2020-06-08 2020-09-18 北京高因科技有限公司 一种应用于便携式设备的自动语音识别系统及其工作方法
CN112329429A (zh) * 2020-11-30 2021-02-05 北京百度网讯科技有限公司 文本相似度学习方法、装置、设备以及存储介质
CN112466279A (zh) * 2021-02-02 2021-03-09 深圳市阿卡索资讯股份有限公司 一种英语口语发音自动纠正方法和装置
CN112818707A (zh) * 2021-01-19 2021-05-18 传神语联网网络科技股份有限公司 基于逆向文本共识的多翻引擎协作语音翻译系统与方法
CN112818706A (zh) * 2021-01-19 2021-05-18 传神语联网网络科技股份有限公司 基于逆向结果稳定性的语音翻译实时争端记录系统与方法
CN112329429B (zh) * 2020-11-30 2024-04-26 北京百度网讯科技有限公司 文本相似度学习方法、装置、设备以及存储介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101666129B1 (ko) * 2015-03-03 2016-10-13 주식회사 심포디 다국어 학습 서비스 제공 방법
KR101635144B1 (ko) * 2015-10-05 2016-06-30 주식회사 이르테크 텍스트 시각화와 학습자 말뭉치를 이용한 언어학습 시스템
KR102195627B1 (ko) 2015-11-17 2020-12-28 삼성전자주식회사 통역 모델 생성 장치 및 방법과, 자동 통역 장치 및 방법
KR102158744B1 (ko) * 2016-03-18 2020-09-22 한국전자통신연구원 대화식 오류 교정 피드백을 이용한 언어 학습 장치 및 그 방법
KR102589638B1 (ko) 2016-10-31 2023-10-16 삼성전자주식회사 문장 생성 장치 및 방법
KR102261199B1 (ko) * 2018-09-19 2021-06-07 주식회사 포티투마루 인공 지능 질의 응답 시스템, 방법 및 컴퓨터 프로그램
KR102128549B1 (ko) 2018-09-19 2020-07-08 주식회사 포티투마루 인공 지능 질의 응답 시스템, 방법 및 컴퓨터 프로그램
KR102372069B1 (ko) * 2018-12-27 2022-03-10 한국전자통신연구원 언어학습을 위한 양국어 자유 대화 시스템 및 방법
KR20210091945A (ko) * 2020-01-15 2021-07-23 주식회사 더플랜지 언어 학습 콘텐츠의 캐릭터를 교육하기 위한 사용자 인터페이스 제공 장치 및 방법
KR102267276B1 (ko) * 2020-03-06 2021-06-21 주식회사 예스피치 학습데이터 확장 및 후처리 정제 기능을 가지는 음성 텍스트 변환 시스템 및 방법
US20220309936A1 (en) * 2021-03-26 2022-09-29 Transverse Inc. Video education content providing method and apparatus based on artificial intelligence natural language processing using characters

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014314A (ja) * 1999-06-28 2001-01-19 Sony Corp 同時翻訳システム
JP2001159865A (ja) * 1999-09-09 2001-06-12 Lucent Technol Inc 対話型語学指導のための方法および装置
JP2001325202A (ja) * 2000-05-12 2001-11-22 Sega Corp 仮想空間の会話方法及びそのシステム
JP2002351305A (ja) * 2001-05-23 2002-12-06 Apollo Seiko Ltd 語学研修用ロボット
JP2003330925A (ja) * 2002-05-14 2003-11-21 Nec Corp 自動通訳装置及び自動通訳用プログラム
JP2004347906A (ja) * 2003-05-23 2004-12-09 Matsushita Electric Ind Co Ltd 教育システムおよび音声入出力装置
JP2005031150A (ja) * 2003-07-07 2005-02-03 Canon Inc 音声処理装置および方法
JP2008096884A (ja) * 2006-10-16 2008-04-24 Hitachi Software Eng Co Ltd 外国語学習通信システム
JP2008209717A (ja) * 2007-02-27 2008-09-11 Toshiba Corp 入力された音声を処理する装置、方法およびプログラム
JP2008216341A (ja) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> 誤り傾向学習音声認識装置及びコンピュータプログラム
JP2008243080A (ja) * 2007-03-28 2008-10-09 Toshiba Corp 音声を翻訳する装置、方法およびプログラム
US20090076798A1 (en) * 2007-09-19 2009-03-19 Electronics And Telecommunications Research Institute Apparatus and method for post-processing dialogue error in speech dialogue system using multilevel verification
JP2010079647A (ja) * 2008-09-26 2010-04-08 Toshiba Corp 音声翻訳装置、方法、およびプログラム
JP2010134074A (ja) * 2008-12-03 2010-06-17 Toshiba Corp 音声認識装置、方法、およびプログラム
JP2010224563A (ja) * 1997-11-17 2010-10-07 Nuance Communications Inc 発音矯正装置、発音矯正方法および記録媒体
JP2010230948A (ja) * 2009-03-27 2010-10-14 Hitachi East Japan Solutions Ltd コンテンツ配信システムおよびテキスト表示方法
JP2011081502A (ja) * 2009-10-05 2011-04-21 Ntt Docomo Inc 情報処理装置、情報処理方法および情報処理システム
US20120116749A1 (en) * 2010-11-05 2012-05-10 Electronics And Telecommunications Research Institute Automatic translation device and method thereof
JP2013512461A (ja) * 2009-12-16 2013-04-11 浦項工科大學校 産學協力團 外国語学習装置及び対話システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130068598A (ko) * 2011-12-15 2013-06-26 한국전자통신연구원 외국어 학습자의 발음 평가 장치 및 방법

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224563A (ja) * 1997-11-17 2010-10-07 Nuance Communications Inc 発音矯正装置、発音矯正方法および記録媒体
JP2001014314A (ja) * 1999-06-28 2001-01-19 Sony Corp 同時翻訳システム
JP2001159865A (ja) * 1999-09-09 2001-06-12 Lucent Technol Inc 対話型語学指導のための方法および装置
JP2001325202A (ja) * 2000-05-12 2001-11-22 Sega Corp 仮想空間の会話方法及びそのシステム
JP2002351305A (ja) * 2001-05-23 2002-12-06 Apollo Seiko Ltd 語学研修用ロボット
JP2003330925A (ja) * 2002-05-14 2003-11-21 Nec Corp 自動通訳装置及び自動通訳用プログラム
JP2004347906A (ja) * 2003-05-23 2004-12-09 Matsushita Electric Ind Co Ltd 教育システムおよび音声入出力装置
JP2005031150A (ja) * 2003-07-07 2005-02-03 Canon Inc 音声処理装置および方法
JP2008096884A (ja) * 2006-10-16 2008-04-24 Hitachi Software Eng Co Ltd 外国語学習通信システム
JP2008209717A (ja) * 2007-02-27 2008-09-11 Toshiba Corp 入力された音声を処理する装置、方法およびプログラム
JP2008216341A (ja) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> 誤り傾向学習音声認識装置及びコンピュータプログラム
JP2008243080A (ja) * 2007-03-28 2008-10-09 Toshiba Corp 音声を翻訳する装置、方法およびプログラム
US20090076798A1 (en) * 2007-09-19 2009-03-19 Electronics And Telecommunications Research Institute Apparatus and method for post-processing dialogue error in speech dialogue system using multilevel verification
JP2010079647A (ja) * 2008-09-26 2010-04-08 Toshiba Corp 音声翻訳装置、方法、およびプログラム
JP2010134074A (ja) * 2008-12-03 2010-06-17 Toshiba Corp 音声認識装置、方法、およびプログラム
JP2010230948A (ja) * 2009-03-27 2010-10-14 Hitachi East Japan Solutions Ltd コンテンツ配信システムおよびテキスト表示方法
JP2011081502A (ja) * 2009-10-05 2011-04-21 Ntt Docomo Inc 情報処理装置、情報処理方法および情報処理システム
JP2013512461A (ja) * 2009-12-16 2013-04-11 浦項工科大學校 産學協力團 外国語学習装置及び対話システム
US20120116749A1 (en) * 2010-11-05 2012-05-10 Electronics And Telecommunications Research Institute Automatic translation device and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
原田 貴史 TAKASHI HARADA: "日本語母語話者による英語発話認識のための言語モデル適応化 Language Model Adaptation of an English Sp", 情報処理学会論文誌 論文誌ジャーナル VOL.50 NO.10 [CD−ROM] IPSJ JOURNAL, vol. 第50巻, JPN6018045582, 15 October 2009 (2009-10-15), JP, pages 2574 - 2582, ISSN: 0004069586 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740636B1 (ko) * 2015-03-05 2017-05-26 한국전자통신연구원 음성 인식 기반 발음 평가 방법 및 장치
JP2018031828A (ja) * 2016-08-23 2018-03-01 Kddi株式会社 学習者の口述音声から自動的に採点するプログラム、装置及び方法
JP7029351B2 (ja) 2017-09-18 2022-03-03 三星電子株式会社 Oos文章を生成する方法及びこれを行う装置
JP2019053715A (ja) * 2017-09-18 2019-04-04 三星電子株式会社Samsung Electronics Co.,Ltd. Oos文章を生成する方法及びこれを行う装置
CN107657842A (zh) * 2017-11-02 2018-02-02 北京中智高新技术研究院 一种人工智能普通话练习设备、方法以及应用
CN110164445A (zh) * 2018-02-13 2019-08-23 阿里巴巴集团控股有限公司 语音识别方法、装置、设备及计算机存储介质
CN111198936A (zh) * 2018-11-20 2020-05-26 北京嘀嘀无限科技发展有限公司 一种语音搜索方法、装置、电子设备及存储介质
CN111198936B (zh) * 2018-11-20 2023-09-15 北京嘀嘀无限科技发展有限公司 一种语音搜索方法、装置、电子设备及存储介质
CN110032740A (zh) * 2019-04-20 2019-07-19 卢劲松 定制个性语义学习应用方法
CN111681659A (zh) * 2020-06-08 2020-09-18 北京高因科技有限公司 一种应用于便携式设备的自动语音识别系统及其工作方法
CN112329429A (zh) * 2020-11-30 2021-02-05 北京百度网讯科技有限公司 文本相似度学习方法、装置、设备以及存储介质
CN112329429B (zh) * 2020-11-30 2024-04-26 北京百度网讯科技有限公司 文本相似度学习方法、装置、设备以及存储介质
CN112818707A (zh) * 2021-01-19 2021-05-18 传神语联网网络科技股份有限公司 基于逆向文本共识的多翻引擎协作语音翻译系统与方法
CN112818706A (zh) * 2021-01-19 2021-05-18 传神语联网网络科技股份有限公司 基于逆向结果稳定性的语音翻译实时争端记录系统与方法
CN112818707B (zh) * 2021-01-19 2024-02-27 传神语联网网络科技股份有限公司 基于逆向文本共识的多翻引擎协作语音翻译系统与方法
CN112818706B (zh) * 2021-01-19 2024-02-27 传神语联网网络科技股份有限公司 基于逆向结果稳定性的语音翻译实时争端记录系统与方法
CN112466279A (zh) * 2021-02-02 2021-03-09 深圳市阿卡索资讯股份有限公司 一种英语口语发音自动纠正方法和装置

Also Published As

Publication number Publication date
KR20150014236A (ko) 2015-02-06
KR102191425B1 (ko) 2020-12-15

Similar Documents

Publication Publication Date Title
KR102191425B1 (ko) 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
US11404043B2 (en) Systems and methods for providing non-lexical cues in synthesized speech
US8346537B2 (en) Input apparatus, input method and input program
JP6251958B2 (ja) 発話解析装置、音声対話制御装置、方法、及びプログラム
US9449599B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
KR101590724B1 (ko) 음성 인식 오류 수정 방법 및 이를 수행하는 장치
US11043213B2 (en) System and method for detection and correction of incorrectly pronounced words
JP2017058673A (ja) 対話処理装置及び方法と知能型対話処理システム
US11093110B1 (en) Messaging feedback mechanism
US20150081270A1 (en) Speech translation apparatus, speech translation method, and non-transitory computer readable medium thereof
WO2014187096A1 (en) Method and system for adding punctuation to voice files
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP5824829B2 (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
JPWO2011033834A1 (ja) 音声翻訳システム、音声翻訳方法および記録媒体
JP2015201215A (ja) 機械翻訳装置、方法、およびプログラム
US20180089176A1 (en) Method of translating speech signal and electronic device employing the same
EP3005152A1 (en) Systems and methods for adaptive proper name entity recognition and understanding
KR20170008357A (ko) 크라우드 소싱을 이용한 웹툰 언어 자동 번역 방법
CN111128181B (zh) 背诵题评测方法、装置以及设备
JP2003162524A (ja) 言語処理装置
CN117094329B (zh) 一种用于解决语音歧义的语音翻译方法及装置
US11900072B1 (en) Quick lookup for speech translation
JP6298806B2 (ja) 音声翻訳システム及びその制御方法、並びに音声翻訳プログラム
Rohil et al. An Interactive System leveraging Automatic Speech Recognition and Machine Translation for learning Hindi as a Second Language

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190709