JPH075807A - 合成を基本とした会話訓練装置 - Google Patents
合成を基本とした会話訓練装置Info
- Publication number
- JPH075807A JPH075807A JP6097647A JP9764794A JPH075807A JP H075807 A JPH075807 A JP H075807A JP 6097647 A JP6097647 A JP 6097647A JP 9764794 A JP9764794 A JP 9764794A JP H075807 A JPH075807 A JP H075807A
- Authority
- JP
- Japan
- Prior art keywords
- learner
- conversation
- sound
- parameter set
- measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
(57)【要約】
【目的】 聴覚に障害ある者にも有効な会話訓練装置を
提供する。 【構成】 学習者(訓練者)は、学習すべき会話を文書
化して入力する。文書化された会話は、音素群に分割さ
れる。音素群は、合成部に送られて、その発声を特徴づ
けるパラメータ群が作成される。模範的な発声をなすの
に必要な周波数、鼻音化及び舌口蓋接触を示す調音パラ
メータ等は、CRTに画面表示される。音パラメータ
は、また、フォルマント合成装置に送られて、音声出力
に変換され模範的に発声される。更に学習者の発声を測
定し、文書化されて入力された会話の正しい発声との類
似性に基づいて比較評価され、CRTに表示される。
提供する。 【構成】 学習者(訓練者)は、学習すべき会話を文書
化して入力する。文書化された会話は、音素群に分割さ
れる。音素群は、合成部に送られて、その発声を特徴づ
けるパラメータ群が作成される。模範的な発声をなすの
に必要な周波数、鼻音化及び舌口蓋接触を示す調音パラ
メータ等は、CRTに画面表示される。音パラメータ
は、また、フォルマント合成装置に送られて、音声出力
に変換され模範的に発声される。更に学習者の発声を測
定し、文書化されて入力された会話の正しい発声との類
似性に基づいて比較評価され、CRTに表示される。
Description
【0001】
【産業上の利用分野】本発明は、会話(Speech)
訓練装置(System)に関し、これによって言語に
障害を持つ生徒は、学習したいと望む言葉(Word)
または文をタイプし、タイプした言葉または文の発声に
必要な調音模範動作(口蓋、舌等の発声のための明瞭な
動作 Articulatory model mov
ements)をCRT表示で観察することができる。
このシステムの使用は特に、聴覚に障害があるため音声
情報を知得しえず、この一方で早い時期にタイプを学習
する児童学習者に好適である。本発明はまた、聴覚障害
者以外の学習者が外国語の会話を学習する際に役立つ。
訓練装置(System)に関し、これによって言語に
障害を持つ生徒は、学習したいと望む言葉(Word)
または文をタイプし、タイプした言葉または文の発声に
必要な調音模範動作(口蓋、舌等の発声のための明瞭な
動作 Articulatory model mov
ements)をCRT表示で観察することができる。
このシステムの使用は特に、聴覚に障害があるため音声
情報を知得しえず、この一方で早い時期にタイプを学習
する児童学習者に好適である。本発明はまた、聴覚障害
者以外の学習者が外国語の会話を学習する際に役立つ。
【0002】
【従来の技術】耳の不自由な児童に会話、特に発声、こ
の他口の動き等を視認することによる聞き取りを教える
最も基本的な教授法としては、教師が自らの口等の発音
器官を使って正しい発音動作を示す方法がある。これに
よって、児童学習者(訓練者)は、言語音作成時におこ
る唇や顎などの外部発音器官の動作を観察でき、また舌
の動きもある程度までは観察できる。触覚を利用する教
授法として、学習者が教師の発音器官と自分の発音器官
を触って、誤りを正す方法も時折使用されている。この
ような従来の教授法には、発声の動作の多くは外部から
観察できないなどの限界があった。
の他口の動き等を視認することによる聞き取りを教える
最も基本的な教授法としては、教師が自らの口等の発音
器官を使って正しい発音動作を示す方法がある。これに
よって、児童学習者(訓練者)は、言語音作成時におこ
る唇や顎などの外部発音器官の動作を観察でき、また舌
の動きもある程度までは観察できる。触覚を利用する教
授法として、学習者が教師の発音器官と自分の発音器官
を触って、誤りを正す方法も時折使用されている。この
ような従来の教授法には、発声の動作の多くは外部から
観察できないなどの限界があった。
【0003】近年、音声分析を行う装置またはコンピュ
ータプログラムを使用して、言語の発声方法を解説する
教授法が可能となっている。これらの装置やプログラム
を使用した教授法では、学習者は発声情報の表示など数
多くの音声の発声に伴う各種の特徴を観察することが出
来る。そのようなシステムの最適な使用例として、松下
(Matsushita)によって開発されたコンピュ
ータを内蔵した会話、特に発声訓練補助装置(CIST
A,Computer IntegratedSpee
ch Training Aid)がある。CISTA
では、数個の変換器によって集められた複数チャンネル
データが供給される。その内容は、以下のようなもので
ある。
ータプログラムを使用して、言語の発声方法を解説する
教授法が可能となっている。これらの装置やプログラム
を使用した教授法では、学習者は発声情報の表示など数
多くの音声の発声に伴う各種の特徴を観察することが出
来る。そのようなシステムの最適な使用例として、松下
(Matsushita)によって開発されたコンピュ
ータを内蔵した会話、特に発声訓練補助装置(CIST
A,Computer IntegratedSpee
ch Training Aid)がある。CISTA
では、数個の変換器によって集められた複数チャンネル
データが供給される。その内容は、以下のようなもので
ある。
【0004】1. 動的口蓋図。1962年に旧ソビエ
トの学者、Y.Kuzminが初めて使用した教授方法
であり、発声時に起こる舌と口蓋の接触が、口中に人工
的に設けられた口蓋と多くの電極の接触を利用して示さ
れる。舌が電極の1つに触れると、口外に通ずる機器と
の低電圧回路が通じ、これを検知する。更に、接触の有
無は、CRT(表示装置)に表示される。
トの学者、Y.Kuzminが初めて使用した教授方法
であり、発声時に起こる舌と口蓋の接触が、口中に人工
的に設けられた口蓋と多くの電極の接触を利用して示さ
れる。舌が電極の1つに触れると、口外に通ずる機器と
の低電圧回路が通じ、これを検知する。更に、接触の有
無は、CRT(表示装置)に表示される。
【0005】2. 鼻音センサ。鼻腔の側面にヘッドギ
ア(頭部を介しての固定具、Head gear)また
は一時的に粘着テープで取り付けられたマイクロフォン
(Electret microphone)が鼻音化
の震えを検出する。 3. 喉センサ。喉頭にフレキシブルな襟で取り付けら
れたマイクフォンが声門の震えを検出する。
ア(頭部を介しての固定具、Head gear)また
は一時的に粘着テープで取り付けられたマイクロフォン
(Electret microphone)が鼻音化
の震えを検出する。 3. 喉センサ。喉頭にフレキシブルな襟で取り付けら
れたマイクフォンが声門の震えを検出する。
【0006】4. 空気流センサ。児童学習者の口の前
で、吐き出す空気の流れを感知する装置を使用するもの
であり数種の方法がある。 5. 標準的なマイクロフォンで音声分析用の入力を行
う。耳の不自由な児童学習者への会話の教育は、教師に
よる教育時間が制約されるため困難とされている。聴覚
に障害を持たない児童が、毎日何時間も音声を聞き取
り、自らの発声について音声によるフィードバックを得
るのに対して、耳の不自由な児童は1週間に1回程度の
会話の訓練時間に自分の発声のフィードバックを得るに
すぎない。
で、吐き出す空気の流れを感知する装置を使用するもの
であり数種の方法がある。 5. 標準的なマイクロフォンで音声分析用の入力を行
う。耳の不自由な児童学習者への会話の教育は、教師に
よる教育時間が制約されるため困難とされている。聴覚
に障害を持たない児童が、毎日何時間も音声を聞き取
り、自らの発声について音声によるフィードバックを得
るのに対して、耳の不自由な児童は1週間に1回程度の
会話の訓練時間に自分の発声のフィードバックを得るに
すぎない。
【0007】CISTAのような会話訓練装置とコンピ
ュータを組み合わせると、会話の、特に発声の訓練の一
部を教師抜きで行うことができ、したがって訓練時間を
大幅に延長することが可能となる。他の従来例として文
書音声化システムがあるが、このシステムではいかなる
発話(発声対象の言語、単語、文等を指す。言語学上の
「発話」に限定されない。以下同様。Utteranc
e)がタイプ入力されても、それを自動的に合成する。
このような文書音声化システムで現在最もよく知られて
いるのは、ディジタル・イクイップメント(Digit
al Equipment)社の「DECTalk」で
ある。
ュータを組み合わせると、会話の、特に発声の訓練の一
部を教師抜きで行うことができ、したがって訓練時間を
大幅に延長することが可能となる。他の従来例として文
書音声化システムがあるが、このシステムではいかなる
発話(発声対象の言語、単語、文等を指す。言語学上の
「発話」に限定されない。以下同様。Utteranc
e)がタイプ入力されても、それを自動的に合成する。
このような文書音声化システムで現在最もよく知られて
いるのは、ディジタル・イクイップメント(Digit
al Equipment)社の「DECTalk」で
ある。
【0008】
【発明が解決しようとする課題】しかしながら、CIS
TAのようにフィードバックを学習者に直接提供する会
話訓練装置では、指導内容が個別の音声または事前にプ
ログラムされた発話に限定される。次に、「DECTa
lk」では、文書音声化システムが作成するのは聞き取
り可能な音に限られる。次に、外国語の修得にも不便で
ある。
TAのようにフィードバックを学習者に直接提供する会
話訓練装置では、指導内容が個別の音声または事前にプ
ログラムされた発話に限定される。次に、「DECTa
lk」では、文書音声化システムが作成するのは聞き取
り可能な音に限られる。次に、外国語の修得にも不便で
ある。
【0009】本発明は、児童学習者がいかなる発話に対
しても、教師の指導を受けることなく、フィードバック
情報を入手可能にするのを目的としている。併せて、外
国語の修得にも便利なものを提供することを目的として
いる。
しても、教師の指導を受けることなく、フィードバック
情報を入手可能にするのを目的としている。併せて、外
国語の修得にも便利なものを提供することを目的として
いる。
【0010】
【課題を解決するための手段】上記の目的を達成するた
め本発明の会話訓練装置は、学習者(訓練者)は、学習
(訓練)を希望するいかなる発話や外国語もコンピュー
タにタイプ入力し、タイプ入力された発音の発声に伴う
必ずしも視認し難い各種発声器官の正しい動作、これに
伴う空気流等の様子たる調音模範動作をCRTに表示さ
せて見ることを可能とするようにしている。
め本発明の会話訓練装置は、学習者(訓練者)は、学習
(訓練)を希望するいかなる発話や外国語もコンピュー
タにタイプ入力し、タイプ入力された発音の発声に伴う
必ずしも視認し難い各種発声器官の正しい動作、これに
伴う空気流等の様子たる調音模範動作をCRTに表示さ
せて見ることを可能とするようにしている。
【0011】他の目的を達成するため、本発明の会話訓
練装置は、タイプ入力した発話や外国語を学習者が発声
すると、学習者の実際の発声と模範的な発声との類似点
を比較し、この結果をCRTに表示することによりフィ
ードバックを可能としている。
練装置は、タイプ入力した発話や外国語を学習者が発声
すると、学習者の実際の発声と模範的な発声との類似点
を比較し、この結果をCRTに表示することによりフィ
ードバックを可能としている。
【0012】
【作用】上記構成により、まず、編集手段がタイプ入力
された発話が発声のために編集、変換して、音声合成部
に送る。音声合成部は、このタイプ入力された発話を一
連の音素群に分析し、発話の発音の特徴を規定するパラ
メータを10ミリセカンド毎に作成する。作成された1
セットのパラメータはシステムに戻されて、タイプ入力
された発話を発声するのに必要な調音模範動作を表す1
セットのパラメータに変換される。そして、この調音模
範動作の映像がCRTに表示される。
された発話が発声のために編集、変換して、音声合成部
に送る。音声合成部は、このタイプ入力された発話を一
連の音素群に分析し、発話の発音の特徴を規定するパラ
メータを10ミリセカンド毎に作成する。作成された1
セットのパラメータはシステムに戻されて、タイプ入力
された発話を発声するのに必要な調音模範動作を表す1
セットのパラメータに変換される。そして、この調音模
範動作の映像がCRTに表示される。
【0013】学習者が文書化して入力した発話を実際に
発声する際の鼻音化振動、声門振動、吐き出した空気
流、舌の接触及び発声そのものの判別可能性が1セット
の変換器で測定される。会話訓練装置は、学習者の発声
した音を、模範的な発声音と如何に類似しているかに基
づいて評価する。この評価はCRTに画面として表示さ
れる。
発声する際の鼻音化振動、声門振動、吐き出した空気
流、舌の接触及び発声そのものの判別可能性が1セット
の変換器で測定される。会話訓練装置は、学習者の発声
した音を、模範的な発声音と如何に類似しているかに基
づいて評価する。この評価はCRTに画面として表示さ
れる。
【0014】
【実施例】本発明の詳細な説明により、いわゆる当業者
は本発明を明瞭に理解し、実施しえるであろう。しかし
ながら、本発明は、本明細書の記載に制約されるもので
はなく、様々な変更をなしての実施が可能であるのは勿
論であり、またそれらは本発明に包まれるのも勿論であ
る。
は本発明を明瞭に理解し、実施しえるであろう。しかし
ながら、本発明は、本明細書の記載に制約されるもので
はなく、様々な変更をなしての実施が可能であるのは勿
論であり、またそれらは本発明に包まれるのも勿論であ
る。
【0015】以下、本発明を使用した、合成を基本とし
た音声能力訓練システムの詳細な説明を図1−6を参照
して行う。合成を基本とした会話訓練装置は、ラボラト
リ用ディジタルコンピュータを使用することもできる。
このような装置は、学習すべき発話を入力する手段を持
ち、そのような手段としては、会話訓練装置(図2)に
接続するキーボードが好適である(1)。
た音声能力訓練システムの詳細な説明を図1−6を参照
して行う。合成を基本とした会話訓練装置は、ラボラト
リ用ディジタルコンピュータを使用することもできる。
このような装置は、学習すべき発話を入力する手段を持
ち、そのような手段としては、会話訓練装置(図2)に
接続するキーボードが好適である(1)。
【0016】入力された発話(より正確には、学習対象
の会話に相当する文字、文章等。以下、これらも発話と
記す。)は、ASCII表記方式の音声訓練装置に送ら
れる。会話訓練装置は、文書音声化装置を利用してタイ
プ入力された発話を自動的に合成する。英語に対しての
文書音声化装置としては、現在ディジタル・イクウィプ
メント社の「DECTalk」が最もよく知られてい
る。しかし、本実施例で使用しているのは、パナソニッ
ク・テクノロジー(Panasonic Techno
logies)社に属する会話技術(Speech T
echnology)研究所によってその後に開発され
た最新の文書音声化システム「STLtalk」であ
る。
の会話に相当する文字、文章等。以下、これらも発話と
記す。)は、ASCII表記方式の音声訓練装置に送ら
れる。会話訓練装置は、文書音声化装置を利用してタイ
プ入力された発話を自動的に合成する。英語に対しての
文書音声化装置としては、現在ディジタル・イクウィプ
メント社の「DECTalk」が最もよく知られてい
る。しかし、本実施例で使用しているのは、パナソニッ
ク・テクノロジー(Panasonic Techno
logies)社に属する会話技術(Speech T
echnology)研究所によってその後に開発され
た最新の文書音声化システム「STLtalk」であ
る。
【0017】合成部3と会話訓練装置間の連絡は、RS
−232ポートを介して行われる。RS−232はXO
N/XOFF通信規約(Protocol)用に構成さ
れ、その送信セッティングは9600ビット/秒(ba
ud)、8データビット、1ストップビット、0パリテ
ィビットである。合成部3は、一連の音素群である入力
文書を受け取り入力バッファに格納する。
−232ポートを介して行われる。RS−232はXO
N/XOFF通信規約(Protocol)用に構成さ
れ、その送信セッティングは9600ビット/秒(ba
ud)、8データビット、1ストップビット、0パリテ
ィビットである。合成部3は、一連の音素群である入力
文書を受け取り入力バッファに格納する。
【0018】文書音声化装置は、入力された発話を分析
する(2)。発話の構文分析は、綴り中のコンマの位置
および辞書検索時に検出する機能語や動詞の構文上の役
割を参照して行う。次に、図1のようにして発話の音素
情報(Phonemic representatio
n)が作成される。各語を、小さい発音用辞書の見出し
語と比べる(12)。もし語に匹敵する見出し語がない
場合には、”ed”や”ing”等の共通接尾辞を取り
除くなどして語を形態素に分割する(14)。分割後残
った語根を音素辞書の見出し音と比べる(16)。もし
語根に匹敵する見出しがない場合には、文字から音素
(Phoneme)への変換規則を参照して発音を推測
する(18)。加えて、対象語を音素へ変換する際に、
音節に使用されるべき強勢(アクセント、Stres
s)パターンの検討も行われる。すなわち、対象語がシ
ステム内の辞書に記載されていなかったり、語から分解
された語根の強勢パターンが接頭辞によって変わる時
は、それを推測しなければならない。音節の強勢レベル
は、音素表記された母音の直前に強勢記号を挿入するこ
とにより表される。強勢記号が無いときは強勢は置かれ
ない。発声等に際しては、共通接尾辞を除去しているな
らば再度付加する(20)。
する(2)。発話の構文分析は、綴り中のコンマの位置
および辞書検索時に検出する機能語や動詞の構文上の役
割を参照して行う。次に、図1のようにして発話の音素
情報(Phonemic representatio
n)が作成される。各語を、小さい発音用辞書の見出し
語と比べる(12)。もし語に匹敵する見出し語がない
場合には、”ed”や”ing”等の共通接尾辞を取り
除くなどして語を形態素に分割する(14)。分割後残
った語根を音素辞書の見出し音と比べる(16)。もし
語根に匹敵する見出しがない場合には、文字から音素
(Phoneme)への変換規則を参照して発音を推測
する(18)。加えて、対象語を音素へ変換する際に、
音節に使用されるべき強勢(アクセント、Stres
s)パターンの検討も行われる。すなわち、対象語がシ
ステム内の辞書に記載されていなかったり、語から分解
された語根の強勢パターンが接頭辞によって変わる時
は、それを推測しなければならない。音節の強勢レベル
は、音素表記された母音の直前に強勢記号を挿入するこ
とにより表される。強勢記号が無いときは強勢は置かれ
ない。発声等に際しては、共通接尾辞を除去しているな
らば再度付加する(20)。
【0019】合成部3は前記バッファを処理して、1セ
ット20の音声パラメータを、10ミリセカンドの連続
する音素毎に1つ作成する。音パラメータは、学習され
る発話の音としての特徴を規定するものである。これら
パラメータは、送られてきた情報を、基本的な周波数や
振幅数、フォルマント(厳密には母音の構成素音、Fo
rmantである。ただし、本明細書では訓練対象の
音。)の周波数や帯域幅、対象となる発話のノイズ源に
基づいて予め定められた規定値と比べる。音パラメータ
の例を表1に示す。
ット20の音声パラメータを、10ミリセカンドの連続
する音素毎に1つ作成する。音パラメータは、学習され
る発話の音としての特徴を規定するものである。これら
パラメータは、送られてきた情報を、基本的な周波数や
振幅数、フォルマント(厳密には母音の構成素音、Fo
rmantである。ただし、本明細書では訓練対象の
音。)の周波数や帯域幅、対象となる発話のノイズ源に
基づいて予め定められた規定値と比べる。音パラメータ
の例を表1に示す。
【0020】
【表1】同一の音パラメータが2組作成される。発話の
終わりを表す記号であるピリオドを受け取ると、第1組
は、アレイ(CPU内の記憶素子の配列された記憶装
置、Array)に格納される。次に、第2組の音パラ
メータがフォルマント合成装置に送られて、アナログ音
声信号形式の出力信号に変換される(4)。フォルマン
ト合成装置で変換された出力信号はスピーカーにより大
きな音量で再生されるので、聴覚がいくらか残っている
学習者はこれを聞くことができる(5)。
終わりを表す記号であるピリオドを受け取ると、第1組
は、アレイ(CPU内の記憶素子の配列された記憶装
置、Array)に格納される。次に、第2組の音パラ
メータがフォルマント合成装置に送られて、アナログ音
声信号形式の出力信号に変換される(4)。フォルマン
ト合成装置で変換された出力信号はスピーカーにより大
きな音量で再生されるので、聴覚がいくらか残っている
学習者はこれを聞くことができる(5)。
【0021】合成部3のアレイに格納された第1組の音
パラメータセットは、RS−232ポートを介して会話
訓練装置に戻される。会話訓練装置は、これらの値を読
み込んで、別のアレイに格納する。そして、音パラメー
タは、調音パラメータに変換される(6)。調音パラメ
ータで、3形式のタイプ入力発話を表す。会話訓練装置
は、1グループの音パラメータを、タイプ入力された発
話の音声特徴を示す調音パラメータに変換する。変換に
使用される音パラメータは基本的な周波数、発話の振幅
数、有声または無声、フォルマント1、2、3の周波数
を含む。文書音声化装置は、音パラメータの周波数(H
erz)を10倍して会話訓練装置に送る。周波数を使
用する会話訓練装置は、受け取ったパラメータを10で
割って、CRTに画面として表示する。
パラメータセットは、RS−232ポートを介して会話
訓練装置に戻される。会話訓練装置は、これらの値を読
み込んで、別のアレイに格納する。そして、音パラメー
タは、調音パラメータに変換される(6)。調音パラメ
ータで、3形式のタイプ入力発話を表す。会話訓練装置
は、1グループの音パラメータを、タイプ入力された発
話の音声特徴を示す調音パラメータに変換する。変換に
使用される音パラメータは基本的な周波数、発話の振幅
数、有声または無声、フォルマント1、2、3の周波数
を含む。文書音声化装置は、音パラメータの周波数(H
erz)を10倍して会話訓練装置に送る。周波数を使
用する会話訓練装置は、受け取ったパラメータを10で
割って、CRTに画面として表示する。
【0022】会話訓練装置は、また、タイプ入力された
発話の鼻音化を示す調音パラメータを作成する。鼻音化
は、/m/や/n/等の音には適しているが、聴覚障害
者は、しばしば不適切に発話を鼻音化して、これが会話
の妨げとなる。鼻音は、周波数定義域に鼻音ポールと鼻
音ゼロの両方が存在するか否かで示される。典型例とし
ては、1鼻音ポール及び1鼻音ゼロで鼻音化が表され
る。これらは、鼻と口の間に存在する弁である軟口蓋が
低く、開位置まで下がると現れる。そして、軟口蓋が閉
まると存在しなくなる。
発話の鼻音化を示す調音パラメータを作成する。鼻音化
は、/m/や/n/等の音には適しているが、聴覚障害
者は、しばしば不適切に発話を鼻音化して、これが会話
の妨げとなる。鼻音は、周波数定義域に鼻音ポールと鼻
音ゼロの両方が存在するか否かで示される。典型例とし
ては、1鼻音ポール及び1鼻音ゼロで鼻音化が表され
る。これらは、鼻と口の間に存在する弁である軟口蓋が
低く、開位置まで下がると現れる。そして、軟口蓋が閉
まると存在しなくなる。
【0023】文書音声化装置は、タイプ入力された発話
の鼻音化を検出する音パラメータ変数を提供する。会話
訓練装置は、音パラメータを使用して鼻音インデックス
を作成する。文書音声化装置は、非鼻音用の音パラメー
タとして鼻音ポールと鼻音ゼロを同じ周波数および帯域
幅に設定する。すなわち、同じ周波数および帯域幅に設
定された鼻音ポールと鼻音ゼロは相互に打ち消しあう。
本件では、非鼻音を表すのに、鼻音ポールと鼻音ゼロを
250Hzに設定する。鼻音を作成する際は、鼻音ポー
ルと鼻音ゼロの周波数は互いに異なった値に移動して、
それぞれ音スペクトルの異なった箇所に影響する。鼻音
ゼロの周波数は、対象音が/n/34または/m/36
であるかによって、一時的に330または360Hzに
増加する。周波数の変動は、図3に示される。文書音声
化装置は、また、鼻音フォルマント30、32の振幅数
を提供する。鼻音フォルマントの典型的な振幅数は30
から60の範囲内であるが、振幅数が0であるときは鼻
音フォルマント30、32どちらも提供されない。文書
音声化装置が提供する音パラメータを使用する言語能力
訓練装置は、タイプ入力した発話を行うのに必要な鼻音
量を学習者に知らせる鼻音インデックスを作成するため
の演算を行う。上記演算の1例は以下のようである。 ここに、 NI=鼻音インデックス(nasalization
index) Fnf=鼻音フォルマントの周波数(frequency
of thenasal formant) Fnz=鼻音ゼロの周波数(frequency of
the nasal zero) AN=鼻音フォルマントの振幅(amplitude
of thenasal formant) 全入力変数は整数である。演算式の右辺、2番目の要素
では鼻音化の振幅が0であれば値に0を掛け、鼻音化の
振幅数が0以外であれば値に1を掛ける。
の鼻音化を検出する音パラメータ変数を提供する。会話
訓練装置は、音パラメータを使用して鼻音インデックス
を作成する。文書音声化装置は、非鼻音用の音パラメー
タとして鼻音ポールと鼻音ゼロを同じ周波数および帯域
幅に設定する。すなわち、同じ周波数および帯域幅に設
定された鼻音ポールと鼻音ゼロは相互に打ち消しあう。
本件では、非鼻音を表すのに、鼻音ポールと鼻音ゼロを
250Hzに設定する。鼻音を作成する際は、鼻音ポー
ルと鼻音ゼロの周波数は互いに異なった値に移動して、
それぞれ音スペクトルの異なった箇所に影響する。鼻音
ゼロの周波数は、対象音が/n/34または/m/36
であるかによって、一時的に330または360Hzに
増加する。周波数の変動は、図3に示される。文書音声
化装置は、また、鼻音フォルマント30、32の振幅数
を提供する。鼻音フォルマントの典型的な振幅数は30
から60の範囲内であるが、振幅数が0であるときは鼻
音フォルマント30、32どちらも提供されない。文書
音声化装置が提供する音パラメータを使用する言語能力
訓練装置は、タイプ入力した発話を行うのに必要な鼻音
量を学習者に知らせる鼻音インデックスを作成するため
の演算を行う。上記演算の1例は以下のようである。 ここに、 NI=鼻音インデックス(nasalization
index) Fnf=鼻音フォルマントの周波数(frequency
of thenasal formant) Fnz=鼻音ゼロの周波数(frequency of
the nasal zero) AN=鼻音フォルマントの振幅(amplitude
of thenasal formant) 全入力変数は整数である。演算式の右辺、2番目の要素
では鼻音化の振幅が0であれば値に0を掛け、鼻音化の
振幅数が0以外であれば値に1を掛ける。
【0024】会話訓練装置は、また、タイプ入力した発
話を行うのに必要な舌と口蓋の接触を示す有声音(Ar
ticulatory)の調音パラメータを作成する。
文書音声化装置は、舌口蓋接触による子音の始まり及び
終わりを表す音パラメータを提示する。そのようなパラ
メータは周波数(Hertz)38,40,42のフォ
ルマント帯域幅および周波数44、46、48のフォル
マント周波数を含む。例えば、図4に示される発話”S
he said”において、/s/の始まりおよび終わ
りを示す音パラメータが提示される。
話を行うのに必要な舌と口蓋の接触を示す有声音(Ar
ticulatory)の調音パラメータを作成する。
文書音声化装置は、舌口蓋接触による子音の始まり及び
終わりを表す音パラメータを提示する。そのようなパラ
メータは周波数(Hertz)38,40,42のフォ
ルマント帯域幅および周波数44、46、48のフォル
マント周波数を含む。例えば、図4に示される発話”S
he said”において、/s/の始まりおよび終わ
りを示す音パラメータが提示される。
【0025】図5に示すように、学習者用に舌と口蓋の
接触パターンがCRTに表示される。図5では、口蓋と
舌の接触は1フレームあたり10ミリセカンドの1連の
フレーム群で表される。各フレーム内の大きい黒円は接
触有りを表し、小さい点は接触無しを表す。図中、フレ
ーム1−7は”she”の子音を作成するために起こる
舌と口蓋の接触から次に続く/s/音形成までを表す。
/s/音作成が完全に開始するのはフレーム8からで、
フレーム17で舌は口蓋から離れ始める。フレーム24
までに、舌と口蓋は完全に非接触となり”said”中
の子音を作成する。
接触パターンがCRTに表示される。図5では、口蓋と
舌の接触は1フレームあたり10ミリセカンドの1連の
フレーム群で表される。各フレーム内の大きい黒円は接
触有りを表し、小さい点は接触無しを表す。図中、フレ
ーム1−7は”she”の子音を作成するために起こる
舌と口蓋の接触から次に続く/s/音形成までを表す。
/s/音作成が完全に開始するのはフレーム8からで、
フレーム17で舌は口蓋から離れ始める。フレーム24
までに、舌と口蓋は完全に非接触となり”said”中
の子音を作成する。
【0026】会話訓練装置のCRTに画面として表示す
る実際の舌の接触動作は、以下の3つの方法のいずれか
による。子音/t/、/d/、/s/、/z/、/sh
/、/zh/、/l/、/n/、/r/を発音する際の
舌接触パターンは予め格納(利用可能な態様でのあらか
じめの記憶、Prestored)しておく。現在まで
には、高舌、前舌母音の直前または直後に発音される/
k/または/g/の舌接触パターンは前記予め格納され
る舌接触パターンに含まれていないが、適用される原理
は同じである。
る実際の舌の接触動作は、以下の3つの方法のいずれか
による。子音/t/、/d/、/s/、/z/、/sh
/、/zh/、/l/、/n/、/r/を発音する際の
舌接触パターンは予め格納(利用可能な態様でのあらか
じめの記憶、Prestored)しておく。現在まで
には、高舌、前舌母音の直前または直後に発音される/
k/または/g/の舌接触パターンは前記予め格納され
る舌接触パターンに含まれていないが、適用される原理
は同じである。
【0027】教師は、各音の舌接触パターンを、それが
形成される状況に応じて装置に利用可能な態様で記憶さ
せる。さらに、学習者の発声中、一度はうまく発声され
たけれども、情況は異なるものの日本人におけるlとr
の区別等くり返し練習する必要があると教師が判断した
音を選定の上記憶させる。最も適当な舌と口蓋の接触は
各学習者の口蓋の形に深く関っているので、教師によっ
て行われるこの格納方法が最も有効である場合が多い。
形成される状況に応じて装置に利用可能な態様で記憶さ
せる。さらに、学習者の発声中、一度はうまく発声され
たけれども、情況は異なるものの日本人におけるlとr
の区別等くり返し練習する必要があると教師が判断した
音を選定の上記憶させる。最も適当な舌と口蓋の接触は
各学習者の口蓋の形に深く関っているので、教師によっ
て行われるこの格納方法が最も有効である場合が多い。
【0028】教師は、各子音に対して、上記の3つの方
法の何れを採用するか設定する。特に指定されなけれ
ば、予め舌接触パターンを格納しておく方法が採用され
る。上記全ての方法に共通して、会話訓練装置は子音開
始前に始まり、子音終了後まで続く一連の接触パターン
を保持する。タイプ入力した発話を行うために必要な調
音模範動作をCRT上の画面で確認した後、学習者はそ
の発話を実際に発声してみる。会話訓練装置は、以上説
明してきた会話訓練補助装置(CISTA)を使用して
いる。この装置は、数個の変換器を使用して学習者の発
声に伴う各種パターン、パラメータを測定する。学習者
の舌口蓋接触、鼻音化振動、声門振動、吐き出した空気
流及び音響を測定し、その値が会話訓練装置に入力され
る(8)。
法の何れを採用するか設定する。特に指定されなけれ
ば、予め舌接触パターンを格納しておく方法が採用され
る。上記全ての方法に共通して、会話訓練装置は子音開
始前に始まり、子音終了後まで続く一連の接触パターン
を保持する。タイプ入力した発話を行うために必要な調
音模範動作をCRT上の画面で確認した後、学習者はそ
の発話を実際に発声してみる。会話訓練装置は、以上説
明してきた会話訓練補助装置(CISTA)を使用して
いる。この装置は、数個の変換器を使用して学習者の発
声に伴う各種パターン、パラメータを測定する。学習者
の舌口蓋接触、鼻音化振動、声門振動、吐き出した空気
流及び音響を測定し、その値が会話訓練装置に入力され
る(8)。
【0029】会話訓練装置は、学習者の発声に伴う測定
結果と格納されている音パラメータと比較して、その類
似性を検出評価する(9)。その後、学習者が実際に行
った発音器官動作と調音模範動作との相違に基づいて学
習者にフィードバックを行う(10)。会話訓練装置
は、様々なテレビゲームを使用して、タイプ入力した発
話用の調音模範動作を表示し、表示された調音模範動作
を参照して学習者が行った発音動作の成否に関してフィ
ードバックを行う。このようなテレビゲームの使用は児
童学習者の興味を長続きさせるためその会話訓練に役立
つ。
結果と格納されている音パラメータと比較して、その類
似性を検出評価する(9)。その後、学習者が実際に行
った発音器官動作と調音模範動作との相違に基づいて学
習者にフィードバックを行う(10)。会話訓練装置
は、様々なテレビゲームを使用して、タイプ入力した発
話用の調音模範動作を表示し、表示された調音模範動作
を参照して学習者が行った発音動作の成否に関してフィ
ードバックを行う。このようなテレビゲームの使用は児
童学習者の興味を長続きさせるためその会話訓練に役立
つ。
【0030】本発明の第二実施例では、正常な聴力を持
つ学習者が合成を基本とした会話訓練装置を使用して外
国語会話を学習する。以下に述べる点を除いて、第二実
施例で使用する会話(Speech)訓練装置は、第1
実施例で使用する会話訓練装置と同一である。学習者は
会話訓練装置に学習の目的とする外国語の文書を入力す
る(1)。文書音声化装置は、入力された文書を会話用
に編集する(2)。編集された文書は、合成部に送られ
る(3)。合成部は文書を処理して、20の音パラメー
タからなる音パラメータセットを作成する。音パラメー
タは所定の、この場合には学習対象の、外国語の文書の
音声特徴を特定するものである。
つ学習者が合成を基本とした会話訓練装置を使用して外
国語会話を学習する。以下に述べる点を除いて、第二実
施例で使用する会話(Speech)訓練装置は、第1
実施例で使用する会話訓練装置と同一である。学習者は
会話訓練装置に学習の目的とする外国語の文書を入力す
る(1)。文書音声化装置は、入力された文書を会話用
に編集する(2)。編集された文書は、合成部に送られ
る(3)。合成部は文書を処理して、20の音パラメー
タからなる音パラメータセットを作成する。音パラメー
タは所定の、この場合には学習対象の、外国語の文書の
音声特徴を特定するものである。
【0031】同一の音パラメータが2組作成される。2
組目の音パラメータセットは、フォルマント合成部に送
られてアナログ音声シグナルの出力信号に変換される
(4)。フォルマント合成部の出力は所定の外国語でス
ピーカーから再生される(5)。次に、1組目の音パラ
メータセットが会話訓練装置に送られる。会話訓練装置
は、音パラメータを調音パラメータに変換して、入力さ
れた文書を所定の外国語で発音するための調音模範動作
を示す(6)。変換された調音パラメータに相応した舌
等各部の動作はCRT7に画面表示される(7)。
組目の音パラメータセットは、フォルマント合成部に送
られてアナログ音声シグナルの出力信号に変換される
(4)。フォルマント合成部の出力は所定の外国語でス
ピーカーから再生される(5)。次に、1組目の音パラ
メータセットが会話訓練装置に送られる。会話訓練装置
は、音パラメータを調音パラメータに変換して、入力さ
れた文書を所定の外国語で発音するための調音模範動作
を示す(6)。変換された調音パラメータに相応した舌
等各部の動作はCRT7に画面表示される(7)。
【0032】所定の外国語で入力された文書を発声する
ための調音模範動作を参照して、学習者は外国語の入力
文書を発音する。会話訓練装置は、学習者の発音を測定
する(8)。次に、学習者の発声に伴う測定値を、外国
語での入力された文書用音パラメータと比較して評価す
る(9)。会話訓練装置は、学習者が外国語で入力され
た文書を発声する際に行った調音動作に対して、あらか
じめ格納等されている調音模範動作との相違を検出し、
これを学習者にフィードバックする(10)。
ための調音模範動作を参照して、学習者は外国語の入力
文書を発音する。会話訓練装置は、学習者の発音を測定
する(8)。次に、学習者の発声に伴う測定値を、外国
語での入力された文書用音パラメータと比較して評価す
る(9)。会話訓練装置は、学習者が外国語で入力され
た文書を発声する際に行った調音動作に対して、あらか
じめ格納等されている調音模範動作との相違を検出し、
これを学習者にフィードバックする(10)。
【0033】以上本発明を好ましい実施例に基づいて説
明したが、本発明の要旨からはずれる事なく種々の変更
しての実施が可能なことは言うまでもないことである。
明したが、本発明の要旨からはずれる事なく種々の変更
しての実施が可能なことは言うまでもないことである。
【0034】
【発明の効果】以上説明してきたように、本発明によれ
ば、聴覚に障害のある児童でも、キーボード入力さえで
きればどのような単語、文書でもそれに伴う本来視認し
難い口蓋、舌等の動きをCRTに表示させた上で、目で
観察することが可能となる。これにより、正確な発音を
するために口蓋、舌等を如何に動かせばよいかが容易に
理解しえる。更には他人が話しているときの動きを観察
することによる口での聞き取りの支援ともなる。
ば、聴覚に障害のある児童でも、キーボード入力さえで
きればどのような単語、文書でもそれに伴う本来視認し
難い口蓋、舌等の動きをCRTに表示させた上で、目で
観察することが可能となる。これにより、正確な発音を
するために口蓋、舌等を如何に動かせばよいかが容易に
理解しえる。更には他人が話しているときの動きを観察
することによる口での聞き取りの支援ともなる。
【0035】また、多少とも聴覚がのこっておれば、大
きな音量とすることにより聞き取り可能となるため、更
により会話の訓練となる。次いで、自分が実際に発声を
した際の発声そのものはもとより、口蓋、舌等の発声器
官の動作やこれに伴う空気流れ等の測定値と模範的な発
声や発声器官の動作等とを比較してその結果がCRTに
表示されることとなるため、より一層会話、特に発声の
訓練が効果的となる。
きな音量とすることにより聞き取り可能となるため、更
により会話の訓練となる。次いで、自分が実際に発声を
した際の発声そのものはもとより、口蓋、舌等の発声器
官の動作やこれに伴う空気流れ等の測定値と模範的な発
声や発声器官の動作等とを比較してその結果がCRTに
表示されることとなるため、より一層会話、特に発声の
訓練が効果的となる。
【0036】更に、会話の訓練に専任の教師も不要とな
る。次に、聴覚障害者でなく、一般人が外国語を学習す
る際にも使用しえる。この場合も、正確な発声はもとよ
り口蓋、舌等の正確な発音のための動作と実際の自分の
発声や動作とがCRTに比較表示されるため、学習効率
が増加する。
る。次に、聴覚障害者でなく、一般人が外国語を学習す
る際にも使用しえる。この場合も、正確な発声はもとよ
り口蓋、舌等の正確な発音のための動作と実際の自分の
発声や動作とがCRTに比較表示されるため、学習効率
が増加する。
【図1】 ASII方式に基づいて表記された語を音
素、強勢及び品詞情報(Parts−of−speec
h information)に書き換える動作流れ図
である。
素、強勢及び品詞情報(Parts−of−speec
h information)に書き換える動作流れ図
である。
【図2】 会話訓練装置の構成図である。
【図3】 1発話中の鼻音ゼロおよび鼻音ポール(極
点、Pole)の音パラメータを示す音スペクトルであ
る。
点、Pole)の音パラメータを示す音スペクトルであ
る。
【図4】 1発話中に起こる舌の口蓋への接触パターン
を示す音スペクトルである。
を示す音スペクトルである。
【図5】 1発話中に起こる実際の舌の接触パターン表
示である。
示である。
1 学習対象の会話のキーボード入力部 2 計算機による編集部と音声合成部へ送る部 3 フォルマント合成部を除く音パラメータ合成部 4 フォルマント合成部 5 合成された会話の発声部 6 音パラメータの調音パラメータへの変換部 7 調音パラメータの表示部 8 学習者の発声の際の測定器 9 学習者の発声をパラメータを使用して評価する評
価部 10 フィードバックとしての表示部
価部 10 フィードバックとしての表示部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 9/00 301 A 9379−5H H04R 1/42 (72)発明者 ノーマ アントナンザス バロソ アメリカ合衆国 カリフォルニア ロサン ゼルス メイプルウッド・アベニュー 3556 (72)発明者 ブライアン アレン ハンソン アメリカ合衆国 カリフォルニア ゴレタ サン・カルピノ 7457
Claims (17)
- 【請求項1】 合成を基本とした会話訓練装置において
以下の手段を含む、 訓練対象の会話を文書化して入力する入力手段、 前記入力された会話を、実施教育に使用するため音素セ
ットに変換する編集手段、 音素セットを、訓練対象の会話の実施教育における音声
としての特徴づけをなす音パラメータセットに変換する
合成手段、 音パラメータセットをその発声に必要な発声器官の動作
に関係する調音パラメータセットに変換する手段、 調音パラメータセットをもとに発声器官の動作を表示す
る表示手段、 音パラメータセットを合成音声出力に変換する手段、 合成音声出力から聞き取り可能な音声を作成する手段、 訓練対象の会話を学習者が発声する際に学習者の舌接触
パタンを測定する手段、 同じく操作者によって作成された音響を測定する手段、 同じく学習者の吐き出し空気流を測定する手段、 同じく学習者の鼻音化振動を測定する手段、 同じく学習者の頚部振動を測定する手段、 同じく学習者から得た測定値と実施教育における発声の
音パラメータセットとの類似点を比較評価する手段及び
実施教育における会話の発声の音パラメータセットと学
習者から得た測定値との類似点を表示する表示手段。 - 【請求項2】 合成を基本とした会話訓練装置において
以下の手段を含む、 訓練対象の会話を文書化して入力する入力手段、 訓練対象として入力された文書化された会話を実施教育
に使用するため音素セットに変換する編集手段、 音素セットを、訓練対象の会話の実施教育における音声
としての特徴づけをなす音パラメータセットに変換する
合成手段、 音パラメータセットをその発声に必要な発声器官の動作
に関係する調音パラメータセットに変換する手段及び調
音パラメータセットをもとに発声器官の動作を表示する
表示手段。 - 【請求項3】 請求項2記載の合成を基本とした会話訓
練装置は、さらに音パラメータセットを合成音声出力に
変換するフォルマント合成手段を含む。 - 【請求項4】 請求項2記載の合成を基本とした会話訓
練装置は、さらに合成音声出力を聞き取り可能な音声に
変換する手段を含む。 - 【請求項5】 請求項2記載の合成を基本とした会話訓
練装置は、さらに学習者の発声に伴う調音パラメータに
関係する要素を測定する手段を含む。 - 【請求項6】 請求項5記載の合成を基本とした会話訓
練装置において、前記発声に伴う調音パラメータに関係
する要素を測定する手段は、舌の接触パターンを測定す
る手段を含む。 - 【請求項7】 請求項5記載の合成を基本とした会話訓
練装置において、前記発声に伴う調音パラメータに関係
する要素を測定する手段は、音響を測定する手段を含
む。 - 【請求項8】 請求項5記載の合成を基本とした会話訓
練装置において、前記発声に伴う調音パラメータに関係
する要素を測定する手段は、吐き出し空気流を測定する
手段を含む。 - 【請求項9】 請求項5記載の合成を基本とした会話訓
練装置において、前記発声に伴う調音パラメータに関係
する要素を測定する手段は、鼻音化振動を測定する手段
を含む。 - 【請求項10】 請求項5記載の合成を基本とした会話
訓練装置において、前記発声に伴う調音パラメータに関
係する要素を測定する手段は、頚部振動を測定する手段
を含む。 - 【請求項11】 請求項2記載の合成を基本とした会話
訓練装置は、さらに実施教育における会話の発声の音パ
ラメータセットと学習者の発声に伴う音パラメータセッ
トとの類似性を比較評価する手段を含む。 - 【請求項12】 請求項2記載の合成を基本とした会話
訓練装置は、さらに実施教育における会話の音パラメー
タセットと学習者の発声の際に測定した音パラメータセ
ットの値との類似性を比較表示する手段を含む。 - 【請求項13】 合成を基本とした会話訓練方法であっ
て、以下のステップを含む、 訓練対象の会話を文書化して入力するステップ、 前記入力された会話を実施教育に使用するため音素セッ
トに変換するステップ、 音素セットを訓練対象の会話の実施教育における音声と
しての特徴づけをなす音パラメータに変換するステッ
プ、 音パラメータを合成音声出力に変換するステップ、 合成音声出力から聞き取り可能な音声を作成するステッ
プ、 音パラメータをその発声に必要な発声器官の動作に関係
する調音パラメータセットに変換するステップ、 調音パラメータセットをもとに発声器官の動作を表示す
るステップ、 訓練対象の会話を学習者が発声する際に学習者の舌接触
パターンを測定するステップ、 同じく学習者の発声音を測定するステップ、 同じく学習者の吐き出し空気流を測定するステップ、 同じく学習者の鼻音化振動を測定するステップ、 同じく学習者の頚部振動を測定するステップ、 実施教育における発声の音パラメータセットと学習者か
ら得た測定値との類似性を比較評価するステップ及び実
施教育における会話の発声の音パラメータセットと学習
者から得た測定値との類似性評価を表示するステップ。 - 【請求項14】 合成を基本とした会話訓練方法であっ
て、以下のステップを含む、 訓練対象の会話を文書化して入力するステップ、 訓練対象として入力された文書化された会話を実施教育
に使用するため音素セットに変換するステップ、 音素セットを、訓練対象の会話の実施教育における音声
としての特徴づけをなす音パラメータセットに変換する
ステップ、 音パラメータをその発声に必要な発声器官の動作に関係
する調音パラメータに変換するステップ及び調音パラメ
ータセットをもとに発声器官の動作を表示するステッ
プ。 - 【請求項15】 請求項14記載の合成を基本とした会
話訓練方法は、さらに以下のステップを含む、 音パラメータセットを合成音声出力に変換するステッ
プ、 合成音声出力から人が聞き取り可能な音声を作成するス
テップ、 学習者が訓練対象として入力した文書に相当する会話を
発声する際に、その舌接触パターン、発声音響、吐き出
し空気流、鼻音化振動、頚部振動の測定をするステッ
プ、 実施教育における発声の音パラメータセットと学習者が
発声した際の測定値との類似性を評価するステップ及び
実施教育における発声の音パラメータセットと学習者が
発声した際の測定値との類似性を表示するステップ。 - 【請求項16】 合成を基本とした会話訓練方法であっ
て、以下のステップを含む、 学習対象の言語の文書を入力するステップ、 入力された文書を音素セットに変換するステップ、 音素セットを、所定の外国語の入力文書の発音を特徴づ
ける音パラメータセットに変換するステップ、 音パラメータセットを、入力文書を外国語で音声化する
のに必要な発声器官の調音模範動作を特定する調音パラ
メータセットに変換するステップ及び調音パラメータセ
ットをもとに発声器官の動作を表示するステップ。 - 【請求項17】 請求項16記載の合成を基本とした会
話訓練方法であって、さらに以下のステップを含む、 音パラメータを合成音声出力に変換するステップ、 合成音声出力から、学習者が聞き取り可能な外国語音を
作成するステップ、 学習者が学習対象の文書を外国語で発声する際に、その
舌接触パターン、発声音、吐き出した空気流、鼻音化振
動、頚部振動を測定するステップ、 外国語の入力文書の音パラメータセットと学習者が発声
した際の測定値との類似性を比較評価するステップ及び
外国語の入力文書の音パラメータセットと学習者が発声
した際の測定値との類似性を比較表示するステップ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7085534A JP2908720B2 (ja) | 1994-04-12 | 1995-04-11 | 合成を基本とした会話訓練装置及び方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/068390 | 1993-05-28 | ||
US08/068,390 US5340316A (en) | 1993-05-28 | 1993-05-28 | Synthesis-based speech training system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH075807A true JPH075807A (ja) | 1995-01-10 |
Family
ID=22082263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6097647A Pending JPH075807A (ja) | 1993-05-28 | 1994-05-11 | 合成を基本とした会話訓練装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5340316A (ja) |
JP (1) | JPH075807A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001159865A (ja) * | 1999-09-09 | 2001-06-12 | Lucent Technol Inc | 対話型語学指導のための方法および装置 |
WO2007037356A1 (ja) * | 2005-09-29 | 2007-04-05 | National Institute Of Advanced Industrial Science And Technology | 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム |
JP2011510349A (ja) * | 2008-01-17 | 2011-03-31 | アーティキュレイト テクノロジーズ インコーポレーティッド | 口腔内触知フィードバックのための方法及び装置 |
WO2021152786A1 (ja) * | 2020-01-30 | 2021-08-05 | 日本電信電話株式会社 | 訓練装置、その方法、およびプログラム |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5536171A (en) * | 1993-05-28 | 1996-07-16 | Panasonic Technologies, Inc. | Synthesis-based speech training system and method |
US5540589A (en) * | 1994-04-11 | 1996-07-30 | Mitsubishi Electric Information Technology Center | Audio interactive tutor |
EP0797822B1 (en) * | 1994-12-08 | 2002-05-22 | The Regents of the University of California | Method and device for enhancing the recognition of speech among speech-impaired individuals |
US5717828A (en) * | 1995-03-15 | 1998-02-10 | Syracuse Language Systems | Speech recognition apparatus and method for learning |
US6109923A (en) | 1995-05-24 | 2000-08-29 | Syracuase Language Systems | Method and apparatus for teaching prosodic features of speech |
IL120622A (en) * | 1996-04-09 | 2000-02-17 | Raytheon Co | System and method for multimodal interactive speech and language training |
US6109107A (en) * | 1997-05-07 | 2000-08-29 | Scientific Learning Corporation | Method and apparatus for diagnosing and remediating language-based learning impairments |
US6113393A (en) * | 1997-10-29 | 2000-09-05 | Neuhaus; Graham | Rapid automatized naming method and apparatus |
US6019607A (en) * | 1997-12-17 | 2000-02-01 | Jenkins; William M. | Method and apparatus for training of sensory and perceptual systems in LLI systems |
US5927988A (en) * | 1997-12-17 | 1999-07-27 | Jenkins; William M. | Method and apparatus for training of sensory and perceptual systems in LLI subjects |
US6159014A (en) * | 1997-12-17 | 2000-12-12 | Scientific Learning Corp. | Method and apparatus for training of cognitive and memory systems in humans |
US6134529A (en) * | 1998-02-09 | 2000-10-17 | Syracuse Language Systems, Inc. | Speech recognition apparatus and method for learning |
DE19947359A1 (de) * | 1999-10-01 | 2001-05-03 | Siemens Ag | Verfahren und Vorrichtung zur Therapiekontrolle und -optimierung bei Sprachstörungen |
EP1320850A2 (en) * | 2000-09-19 | 2003-06-25 | Logometrix Corporation | Palatometer and nasometer apparatus |
US6850882B1 (en) | 2000-10-23 | 2005-02-01 | Martin Rothenberg | System for measuring velar function during speech |
AU2002236483A1 (en) * | 2000-11-15 | 2002-05-27 | Logometrix Corporation | Method for utilizing oral movement and related events |
US6656128B1 (en) | 2002-05-08 | 2003-12-02 | Children's Hospital Medical Center | Device and method for treating hypernasality |
US7752045B2 (en) * | 2002-10-07 | 2010-07-06 | Carnegie Mellon University | Systems and methods for comparing speech elements |
US20040083093A1 (en) * | 2002-10-25 | 2004-04-29 | Guo-She Lee | Method of measuring nasality by means of a frequency ratio |
US7524191B2 (en) * | 2003-09-02 | 2009-04-28 | Rosetta Stone Ltd. | System and method for language instruction |
US20050153267A1 (en) * | 2004-01-13 | 2005-07-14 | Neuroscience Solutions Corporation | Rewards method and apparatus for improved neurological training |
US20050175972A1 (en) * | 2004-01-13 | 2005-08-11 | Neuroscience Solutions Corporation | Method for enhancing memory and cognition in aging adults |
US20090138270A1 (en) * | 2007-11-26 | 2009-05-28 | Samuel G. Fletcher | Providing speech therapy by quantifying pronunciation accuracy of speech signals |
EP2450877B1 (en) * | 2010-11-09 | 2013-04-24 | Sony Computer Entertainment Europe Limited | System and method of speech evaluation |
US20140316783A1 (en) * | 2013-04-19 | 2014-10-23 | Eitan Asher Medina | Vocal keyword training from text |
US20180317019A1 (en) | 2013-05-23 | 2018-11-01 | Knowles Electronics, Llc | Acoustic activity detecting microphone |
KR101475894B1 (ko) * | 2013-06-21 | 2014-12-23 | 서울대학교산학협력단 | 장애 음성 개선 방법 및 장치 |
US9508345B1 (en) | 2013-09-24 | 2016-11-29 | Knowles Electronics, Llc | Continuous voice sensing |
US9953634B1 (en) | 2013-12-17 | 2018-04-24 | Knowles Electronics, Llc | Passive training for automatic speech recognition |
US9437188B1 (en) | 2014-03-28 | 2016-09-06 | Knowles Electronics, Llc | Buffered reprocessing for multi-microphone automatic speech recognition assist |
WO2016112113A1 (en) | 2015-01-07 | 2016-07-14 | Knowles Electronics, Llc | Utilizing digital microphones for low power keyword detection and noise suppression |
CN108831212B (zh) * | 2018-06-28 | 2020-10-23 | 深圳语易教育科技有限公司 | 一种口语教学辅助装置及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4641343A (en) * | 1983-02-22 | 1987-02-03 | Iowa State University Research Foundation, Inc. | Real time speech formant analyzer and display |
US5015179A (en) * | 1986-07-29 | 1991-05-14 | Resnick Joseph A | Speech monitor |
AT391567B (de) * | 1988-02-17 | 1990-10-25 | Peter Jost | Anordnung fuer die stimmschulung |
FR2674660A1 (fr) * | 1989-06-26 | 1992-10-02 | Bozadjian Edouard | Systeme d'evaluation comparative pour l'amelioration de la prononciation. |
-
1993
- 1993-05-28 US US08/068,390 patent/US5340316A/en not_active Expired - Fee Related
-
1994
- 1994-05-11 JP JP6097647A patent/JPH075807A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001159865A (ja) * | 1999-09-09 | 2001-06-12 | Lucent Technol Inc | 対話型語学指導のための方法および装置 |
US7149690B2 (en) | 1999-09-09 | 2006-12-12 | Lucent Technologies Inc. | Method and apparatus for interactive language instruction |
WO2007037356A1 (ja) * | 2005-09-29 | 2007-04-05 | National Institute Of Advanced Industrial Science And Technology | 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム |
JP2007122004A (ja) * | 2005-09-29 | 2007-05-17 | National Institute Of Advanced Industrial & Technology | 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム |
JP2011510349A (ja) * | 2008-01-17 | 2011-03-31 | アーティキュレイト テクノロジーズ インコーポレーティッド | 口腔内触知フィードバックのための方法及び装置 |
WO2021152786A1 (ja) * | 2020-01-30 | 2021-08-05 | 日本電信電話株式会社 | 訓練装置、その方法、およびプログラム |
JPWO2021152786A1 (ja) * | 2020-01-30 | 2021-08-05 |
Also Published As
Publication number | Publication date |
---|---|
US5340316A (en) | 1994-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH075807A (ja) | 合成を基本とした会話訓練装置 | |
US5536171A (en) | Synthesis-based speech training system and method | |
US6865533B2 (en) | Text to speech | |
Howard et al. | Learning and teaching phonetic transcription for clinical purposes | |
Raghavendra et al. | An investigation of different degrees of dysarthric speech as input to speaker-adaptive and speaker-dependent recognition systems | |
WO2004063902A2 (en) | Speech training method with color instruction | |
AU2003300130A1 (en) | Speech recognition method | |
EP1726005A1 (en) | Prosodic speech text codes and their use in computerized speech systems | |
JPH065451B2 (ja) | 発音訓練装置 | |
Demenko et al. | The use of speech technology in foreign language pronunciation training | |
Islomov | SIMILARITY ASPECTS OF UZBEK AND FRENCH PHONETICS | |
Cleghorn et al. | Comprehensive articulatory phonetics: a tool for mastering the world's languages | |
Nurman | The correlation between phonological knowledge and pronunciation ability | |
JP2844817B2 (ja) | 発声練習用音声合成方式 | |
KR0149622B1 (ko) | 언어 합성에 기초한 언어 훈련 시스템 | |
JP2908720B2 (ja) | 合成を基本とした会話訓練装置及び方法 | |
Armstrong | The effects of concurrent motor tasking on performance of a voice recognition system | |
KR102610871B1 (ko) | 청각장애인 음성언어훈련 시스템 | |
Ke et al. | Phonetic and phonological contrastive analyses | |
Javkin et al. | Automatic model parameter generation for the speech training of deaf children | |
Rahmayani | THE USE OF ENGLISH SONG BY USING JOOX APPLICATION IN TEACHING ENGLISH PRONUNCIATION AT SMAN 7 MAKASSAR | |
Pakpahan | Types of Erroneous Sounds in Pronouncing Speech Segments of the English Consonant Phonemes (Evidence from Indonesian Native Speakers as EFL Learners) | |
GAOL | Students‟ Ability in Pronouncing English Words by Using ELSA Speak Application of the Second-Year Students of SMA Eka Prasetya Medan | |
Hafizha et al. | Difficulties Faced By English Language Students In Phonology Courses | |
Maysarah | An Analysis Of Students' Ability In Pronouncing English Fricative Consonants At English Language Education Of FKIP UIR |