JPH08507620A - 音声対話式言語指導のための方法及び装置 - Google Patents
音声対話式言語指導のための方法及び装置Info
- Publication number
- JPH08507620A JPH08507620A JP6520287A JP52028794A JPH08507620A JP H08507620 A JPH08507620 A JP H08507620A JP 6520287 A JP6520287 A JP 6520287A JP 52028794 A JP52028794 A JP 52028794A JP H08507620 A JPH08507620 A JP H08507620A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- script
- words
- reading
- recognizer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000002452 interceptive effect Effects 0.000 title abstract description 8
- 238000013515 script Methods 0.000 claims description 53
- 230000004044 response Effects 0.000 claims description 18
- 239000002699 waste material Substances 0.000 claims description 13
- 230000007704 transition Effects 0.000 claims description 12
- 230000001755 vocal effect Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000014509 gene expression Effects 0.000 claims description 4
- 230000000284 resting effect Effects 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims 2
- 239000004615 ingredient Substances 0.000 claims 2
- 235000006040 Prunus persica var persica Nutrition 0.000 claims 1
- 240000006413 Prunus persica var. persica Species 0.000 claims 1
- 230000004931 aggregating effect Effects 0.000 claims 1
- 238000011156 evaluation Methods 0.000 abstract description 8
- 230000007246 mechanism Effects 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 22
- 238000012549 training Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/193—Formal grammars, e.g. finite state automata, context free grammars or word networks
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Artificial Intelligence (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
Claims (1)
- 【特許請求の範囲】 1. スピーチ認識器を組み入れた自動スピーチ認識システムであって、該スピ ーチ認識器は単語列仮説を作りだしスピーチ認識器上の制約として単語列パター ンの範囲を順位付けするための言語モデルを用いる上記自動スピーチ認識システ ムにおける、スピーチパターンをトラッキングし、択一的テキストを含んだ予め 選択されたスクリプトに関して前記スピーチパターン内のエラーを確認し、利用 者に前記予め選択されたスクリプトを復唱するように対話的に促すための方法で あって、 デジタル計算機に文のための文法モデルを与えるステップであって、前記文法 モデルが文を形成するように連続して配列された各単語間に置かれた単一アルト 要素を含んでいる該ステップ、 前記デジタル計算機にスクリプトのための文法モデルを与えるステップであっ て、一連の連続して配列された各文の間に置かれた単一アルト要素により分離さ れた記号列内に文を集合させることにより行う該ステップ、 対象言語で訓練され前記文法モデルを有して前記デジタル計算機内に記憶され た前記スピーチ認識器を用いるステップであって、利用者のスピーチを前記スク リプト内の単語の記号列に整列し、スクリプト化された及びスクリプト化されて ないスピーチ並びに文脈を感知する沈黙を確認する該ステップ、及び 前記スクリプト化された及びスクリプト化されてないスピーチ並びに文脈を感 知する沈黙に応答して、少なくとも3つの忍耐のレベルに従って利用者に音声及 び意味上の正確さをもって前記予め選択されたスクリプトを復唱するように促す ステップ を含んだ上記方法。 2. 請求項1に記載のスピーチ認識システムにおいて、 文の択一的テキストのための文法モデルを与えるステップであって、前記対話 式会話文法モデルが択一的返答の選択前に置かれた第1の共通アルト要素および 択一的返答の前記選択後に置かれた第2の共通アルト要素を含み、それにより音 声上の正確さと意味上の不正確さを有した択一的応答が可能となる該ステップ を更に含んだ上記方法。 3. 請求項1に記載のスピーチ認識システムにおいて、前記スピーチ認識器を 用いるステップが、 前記スピーチ認識器の出力の現在のセグメントに対してスクリプト化された単 語、休止言語音、及び廃棄言語音を周期的に調べるステップ、 前記現在のセグメントに対する廃棄密度を求めるステップ、 前記廃棄密度を廃棄密度閾値と比べるステップ、及び もし前記廃棄密度が前記廃棄密度閾値を越えるならば、スピーチをスクリプト 外として表すステップ を含んでいる上記方法。 4. 請求項3に記載のスピーチ認識システムにおいて、前記廃棄密度が、予め 選択された数の連続したスクリプト化単語から前記スピーチ認識器により戻され た廃棄された言語音の数を前記廃棄された言語音と前記選択された数の単語の合 計で割ることにより求める、上記方法。 5. 請求項1に記載のスピーチ認識システムにおいて、前記スピーチ認識器を 用いるステップが、 前記スピーチ認識器の出力の現在のセグメントに対してスクリプト化された 単語、休止言語音、及び廃棄言語音を周期的に調べるステップ、 前記現在のセグメントに対する廃棄指標を求めるステップ、 前記廃棄指標を廃棄指標閾値と比べるステップ、及び もし前記廃棄指標が前記廃棄指標閾値を越えるならば、スピーチをスクリプト 外として表すステップ を含んでいる上記方法。 6. 請求項5に記載のスピーチ認識システムにおいて、前記廃棄指標を求める ステップが、予め選択された数の連続したスクリプト化単語から前記スピーチ認 識器により戻された廃棄言語音を合計することを含んでいる上記方法。 7. 請求項1に記載のスピーチ認識システムにおいて、前記スピーチ認識器を 用いるステップが、 前記スピーチ認識器の出力の現在のセグメントに対してスクリプト化された 単語、休止言語音、及び廃棄言語音を周期的に調べるステップ、 前記現在のセグメントに対する休止指標を求めるステップ、 前記休止指標を休止指標閾値と比べるステップ、及び もし前記休止指標が前記休止指標閾値を越えるならば、スピーチをスクリプト 外として表すステップ を含んでいる上記方法。 8. 請求項7に記載のスピーチ認識システムにおいて、前記休止指標閾値が言 語的文脈とテキスト内での位置に依存し、前記休止指標閾値が文及び主要な節の 終わりでは文の単語間のどこよりも小さい、上記方法。 9. 請求項7に記載のスピーチ認識システムにおいて、前記休止指標を求める ステップが、予め選択された数の連続したスクリプト化単語から前記スピーチ認 識器により戻された休止言語音を合計することを含んでいる上記方法。 10. 請求項2に記載のスピーチ認識システムにおいて、前記アルト要素が、 引き延ばされた沈黙を含んだ、事象に対する複数の遷移円弧、 引き延ばされたスクリプト外のスピーチ、 沈黙とスクリプト外スピーチの交互した周期、及び 非休止と非スクリプト外スピーチ を含んだ構造からなる上記方法。 11. スピーチ認識器を組み入れた自動スピーチ認識サブシステムを用いて、 システムへの音声入力及び音声、画像出力と共に利用者のスピーチをトラッキン グするためのシステムであって、該スピーチ認識器は単語列仮説を作りだし、ス ピーチ認識器上の制約として単語列パターンの範囲を順位付けるための言語モデ ルを用い、該システムが、 利用者に対象についての情報を示し、許容された発声での予め選択されたスク リプトの朗読を勧めるための手段、 音響的情報の時間不変のフレームからスピーチが含む信号を示す音響的特徴を 検知するための手段、 音響的情報の前記フレームを分析して音響的情報フレームの集積に対応する可 能な発声の組を求めるための手段、 発声の完全性を評価して朗読の正確さを決めるための、前記分析手段に結合さ れた手段、及び 予め選択されたスクリプトの正しい朗読を奨励する応答を発生するための、前 記比較する手段に結合された手段 を含むシステム。 12. トラッキングシステムが利用者に対しては外国の言語での指導用であり 、前記応答を発生するための手段が現地人の発音や表現の例としての可聴応答を 発生するための手段を含んでいる、請求項1に記載のシステム。 13. 朗読された単語の数を計数するための手段、 スクリプト化された単語を朗読中、経過した時間を測定するための手段、及び 計数された単語の前記数を前記測定された経過時間で割るための手段 を含んだ朗読速度を測定するための手段を更に含んだ、請求項11に記載のシス テム。 14. 予め選択されたスクリプト中の単語の数(195)を計数する手段(194) 、 最適な朗読時間を確立する持続時間を与える手段(196)、 廃棄言語音の数(199)を計数するための手段(198)、 予め選択されたスクリプト内の全ての単語の朗読中の全経過時間(201)を測 定するための手段(200)、 前記分析手段により許容されると思われる句の朗読中の良好な経過時間(203 )を測定するための手段(202)、 前記全時間(201)を前記良好時間(203)で割って第1の商(205)を得るた めの手段(204)、 前記第1の商(205)を第1重み付けパラメータ(a)で重み付けして第1得点 成分(208)を得るための手段(206)、 前記最適朗読時間(197)と前記良好時間(203)の間の最大値を選択してより 好ましい最大値(211)を発生するための手段(210)、 前記より好ましい最大値(211)を前記最適朗読時間(197)で割って第2の商 (213)を得るための手段(212)、 前記第2の商(213)を第2重み付けパラメータ(b)で重み付けして第2得点 成 分(216)を得るための手段(214)、 前記廃棄言語音の数(199)と前記単語の数(195)を合計して技能の値を得る ための手段(218)、 前記単語の数(195)を前記技能の値(219)で割って第3の商(221)を得る ための手段(220)、 前記第3の商(221)を第3重み付けパラメータ(c)で重み付けして第3得点 成分(224)を得るための手段(222)、 前記第1得点成分(208)、前記第2得点成分(216)、及び前記第3得点成分 (224)を合計して得点合計(227)を出すための手段(226)、及び 前記得点合計(227)をスケール因子(228)で重み付けして前記朗読技能得点 (230)を得るための手段 を含んだ朗読技能を測定して朗読の技能得点(230)を得るための手段(192)を 更に含んだ、請求項11に記載のシステム。 15. スピーチ認識器を組み入れた自動スピーチ認識サブシステムを用いて、 スピーチをトラッキングし且つシステムへの音声入力と音声出力及びグラフィッ ク出力で利用者と対話するためのシステムであって、該スピーチ認識器は単語列 仮説を作りだし、スピーチ認識器上の制約として単語列パターンの範囲を順位付 けるための言語モデルを用い、該システムは、 対象についての情報を利用者に与え、許容された発声の予め選択された組から 返答を促して音声応答を引き出すための手段、 音響的情報の時間不変のフレームからスピーチが含む信号を示す音響的特徴を 検知するための手段、 音響的情報の前記フレームを分析して音響的情報フレームの集積に対応する可 能な発声の組を求めるための手段、 前記発声の組から発声の完全性を調べるための、前記分析手段に結合された手 段、 発声の終わりの指示で可能な発声の前記組から発声の最良仮説を選択するため の、前記安全性を調べるための手段に結合された手段、 前記最良仮説を許容された発声の予め選択された組と比較して選択された返答 を決めるための、前記選択手段に結合された手段、及び 選択された返答に対応する応答を作るための、前記比較手段に結合された手段 を含む、上記システム。 16. 対話システムが利用者にとっては外国の言語での指導用であり、前記応 答を作るための手段が現地人の発音や表現の例としての可聴応答を発生するため の手段を含む、請求項15に記載のシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US3285093A | 1993-03-12 | 1993-03-12 | |
US081032,850 | 1993-03-12 | ||
US08/032,850 | 1993-03-12 | ||
PCT/US1994/002542 WO1994020952A1 (en) | 1993-03-12 | 1994-03-08 | Method and apparatus for voice-interactive language instruction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005237423A Division JP2006048065A (ja) | 1993-03-12 | 2005-08-18 | 音声対話式言語指導法及び装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPH08507620A true JPH08507620A (ja) | 1996-08-13 |
JP3899122B2 JP3899122B2 (ja) | 2007-03-28 |
JP3899122B6 JP3899122B6 (ja) | 2007-06-27 |
Family
ID=
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201491A (ja) * | 2005-01-20 | 2006-08-03 | Advanced Telecommunication Research Institute International | 発音評定装置、およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201491A (ja) * | 2005-01-20 | 2006-08-03 | Advanced Telecommunication Research Institute International | 発音評定装置、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR960701431A (ko) | 1996-02-24 |
DE69425564D1 (de) | 2000-09-21 |
KR100309207B1 (ko) | 2001-12-17 |
ATE195605T1 (de) | 2000-09-15 |
JP2006048065A (ja) | 2006-02-16 |
JP3899122B2 (ja) | 2007-03-28 |
WO1994020952A1 (en) | 1994-09-15 |
EP0692135A1 (en) | 1996-01-17 |
EP0692135B1 (en) | 2000-08-16 |
US5634086A (en) | 1997-05-27 |
EP0692135A4 (en) | 1997-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5634086A (en) | Method and apparatus for voice-interactive language instruction | |
US7280964B2 (en) | Method of recognizing spoken language with recognition of language color | |
US5679001A (en) | Children's speech training aid | |
US7840404B2 (en) | Method and system for using automatic generation of speech features to provide diagnostic feedback | |
US20060004567A1 (en) | Method, system and software for teaching pronunciation | |
CN111862954B (zh) | 一种语音识别模型的获取方法及装置 | |
WO2004063902A2 (en) | Speech training method with color instruction | |
JPH075807A (ja) | 合成を基本とした会話訓練装置 | |
WO1994017508A1 (en) | Computerized system for teaching speech | |
JPH09500223A (ja) | 多言語音声認識システム | |
JP2002040926A (ja) | インターネット上での自動発音比較方法を用いた外国語発音学習及び口頭テスト方法 | |
CN113496696A (zh) | 一种基于语音识别的言语功能自动评估系统和方法 | |
US20230252971A1 (en) | System and method for speech processing | |
Czap | Automated speech production assessment of hard of hearing children | |
Kantor et al. | Reading companion: The technical and social design of an automated reading tutor | |
Evain et al. | Human beatbox sound recognition using an automatic speech recognition toolkit | |
JP3899122B6 (ja) | 音声対話式言語指導のための方法及び装置 | |
CA2158062C (en) | Method and apparatus for voice-interactive language instruction | |
Tsubota et al. | Practical use of autonomous English pronunciation learning system for Japanese students | |
CN115662242B (zh) | 塑造儿童语言流畅度训练装置、设备和存储介质 | |
Stativă et al. | Assessment of Pronunciation in Language Learning Applications | |
EP4160591A1 (en) | Conversation engine and related methods | |
Berdin | PARLA: mobile application for English pronunciation. A supervised machine learning approach. | |
Padaru Shrikantha | Synthetically Generated Speech for Training a Pronunciation Evaluation System | |
JP2001228890A (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050818 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20051020 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20051117 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20060607 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20060612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061225 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110105 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120105 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130105 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130105 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |