JP3956115B2 - Utterance language learning device - Google Patents
Utterance language learning device Download PDFInfo
- Publication number
- JP3956115B2 JP3956115B2 JP2002206318A JP2002206318A JP3956115B2 JP 3956115 B2 JP3956115 B2 JP 3956115B2 JP 2002206318 A JP2002206318 A JP 2002206318A JP 2002206318 A JP2002206318 A JP 2002206318A JP 3956115 B2 JP3956115 B2 JP 3956115B2
- Authority
- JP
- Japan
- Prior art keywords
- learner
- language learning
- language
- behavior
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、居室内における学習者の動きから行動を判定して、その行動に対応した表現(例文)を特定の言語で発話し、語学学習を行うことができるようにした発話型語学学習装置に関する。
【0002】
【従来の技術】
例えば、日本人が英語等の他国語の会話学習を行う時のように、語学学習を行うに際しては従来より種々の方法が用いられている。具体的に説明すると、語学学習用のテキストにおいては、初歩から上級者用に至る複数段階のレベル分けを行い、各レベルにおいて、学習する言語について、各種物品の名称を列記し、歩く、座る、寝る等の種々の行動の態様を例示し、あるいは道を聞く、買い物をする、乗り物に乗る等の生活中における各種のシーンを分類して、そのシーンにおいて用いられる代表的な言葉を例示し、更には種々の例文を示すことが行われている。
【0003】
また、これらの会話の学習においては、上記のようなテキストに加えてカセットテープに先生の声を録音し、これを聴きながらテキストに沿って学習していくことも行われる。また、英会話学校のように先生と対面しながら、先生のカリキュラムに沿って学習することも行われる。
【0004】
【発明が解決しようとする課題】
上記のような種々の語学学習法はいずれも何らかのテキスト、カリキュラムに沿って進められるものであり、系統だった学習が可能である反面、特に会話の学習においては、学習者はその言葉が使われる状況を想像しながら学習する必要があり、学習する人にとっては語学の学習能力の他に想像力が必要とされる。そのため、学習者の社会経験の相違、想像力の相違によって学習の効果が異なることとなり、特に、子供は多くの経験をしていないため想像の範囲が狭く、このような学習法では適切な学習が行われないことが多い。
【0005】
また、テレビやビデオテープによって実際にその言葉が使われる状況を例示しながら行う学習方法のように、映像を用いて学習者の想像を補う手段が使われる方法も利用されている。しかしながら、それによっても実際に学習者が経験している状態ではないため、必ずしもその言葉を身体で感じとることができず、この場合も自分がその場にいることを想像しながら学習を行うしかなく、更に、前記のようなテキストに沿った予め決められた言葉しか使われることがないので、状況に応じた種々の態様の言葉を知ることができず、このような学習方法には限界がある。
【0006】
更に、先生と対話しながら英語会話の学習を行う場合においては、その英語が使われるシーンを先生との間で形成することにより、できる限りその言葉が使われる状態に近づけた中で学習することが行われる。しかしながら、この方法によっても実際の場面とは必ずしも一致せず、そのような場面にあるものと想像しながら学習せざるを得ない。また、このような学習方法は、その場面を形成する先生が必要となるため、学習者はその先生のいる学校等に出向くか、その先生に来てもらうしかない。そのため、この学習に多くの時間がかかるか、あるいは多くの費用がかかることとなる。
【0007】
本発明は、このような問題点を解決するためになされたものであり、本発明の目的は、先生等の他人の力を借りることなく、いつでも学習者が学習者自身の行動で直接言葉を学習することができて、効果的な語学学習を行うことができる発話型語学学習装置を提供することにある。
【0008】
【課題を解決するための手段】
上記のような目的を達成するため、本発明による発話型語学学習装置は、基本構成として、居室内における学習者の身体の動きを検出して当該学習者の行動を判定する行動判定装置と、前記行動判定装置により判定された行動により、学習者の行動と関連した語学学習用データを出力する語学学習処理装置と、前記語学学習処理装置の出力データを音声化する音声化処理装置とを備える。
【0009】
この発話型語学学習装置において、行動判定装置は、学習者が手に持つ器具または学習者の身体(手などの特定部位または複数箇所)について3次元位置測定を行い、学習者が手に持つ器具または学習者の身体の空間位置の動きを検出し、前記検出した学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動を判定するものである。例えば、学習者の身体の一部につけた光反射板により動きを取り込むモーションキャプチャーシステムなどが利用できる。
【0010】
また、ここでの行動判定装置は、学習者が操作する器具に取り付けられた信号発信器からの信号により3次元位置測定を行い、学習者が操作する器具の空間位置の動きを検出し、前記検出した学習者が操作する器具の空間位置の動きに対応して学習者の行動を判定するものとしてもよい。
【0011】
また、同じく、行動判定装置は、学習者の身体の所定部位について3次元位置測定を行い、前記所定部位の空間位置の動きを検出し、前記検出した学習者の所定部位の空間位置の動きに対応して学習者の行動を判定するものとしてもよい。
【0012】
また、行動判定装置は、特徴的には、学習者が手に持つ器具に貼り付けられた信号発信器または学習者が手に持つ器具に貼り付けられた信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信によって、前記器具の空間位置の動きを検出するものであり、前記器具の空間位置の動きに対応して学習者の行動を判定する。
【0013】
また、行動判定装置は、学習者が手に持つ器具または学習者の身体について3次元位置測定を行い、学習者が手に持つ器具または学習者の身体の空間位置の動きを検出し、前記検出した学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動を判定するものであるように構成することもできる。
【0014】
また、この発話型語学学習装置において、行動判定装置は、学習者が操作する器具に取り付けられた信号発信器から発信された信号を居室内の複数箇所で受信する受信機により受信した信号によって、前記器具の空間位置の動きを検出するものであり、前記器具の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0015】
この発話型語学学習装置において、行動判定装置は、学習者の身体に取り付けられた信号発信器から発信された信号を居室内の複数箇所で受信する受信機により受信した信号により、前記学習者の身体の空間位置の動きを検出するものであり、前記学習者の身体の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0016】
別の特徴として、本発明の発話型語学学習装置において、行動判定装置は、学習者の身体に取り付けられた第1の信号発信器から発信された第1の信号と、学習者が手に持つ器具に貼り付けられた第2の信号発信器から発信された第2の信号とを居室内の複数箇所で受信する受信機により受信した信号によって、前記学習者の身体および器具の空間位置の動きを検出するものであり、前記学習者の身体および器具の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0017】
この発話型語学学習装置において、語学学習処理装置は、学習者の学習レベルを設定する学習レベル設定部を備え、行動判定装置からの判定結果の行動パターンを元に、前記学習レベル設定部で設定された学習レベルに合わせて、行動・例文データベースにおいて予め学習レベル別に蓄積された例文を検索して、学習レベルに合わせた例文を、語学学習用データとして出力するものとすることができる。
【0018】
この発話型語学学習装置において、語学学習処理装置は、複数の言語の語学辞書と学習言語選択指示部とを備え、行動判定装置からの判定結果の行動パターンを元に、行動・例文データベースにおいて蓄積された例文を検索し、検索された例文を、学習言語選択指示部で指示された学習する対象の言語への翻訳を前記語学辞書に基づいて行い、語学学習用データとして出力するものとすることができる。
【0019】
また、この発話型語学学習装置において、行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、語学学習処理装置は、直前に出力した語学学習用データと同じ学習用データを出力するものとすることができる。
【0020】
また、この発話型語学学習装置において、行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、語学学習処理装置は、直前に出力した語学学習用データの例文を学習者に応じて予め設定された母国語の言語への翻訳を語学辞書に基づいて行い、語学学習用データとして出力するものとすることができる。
【0021】
また、この発話型語学学習装置において、行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、語学学習処理装置は、直前に出力した語学学習用データの例文を登録するものとすることができる。
【0022】
【発明の実施の形態】
以下、本発明を実施する場合の一形態について図面を参照して説明する。図1は、本発明による発話型語学学習装置の主要機能を示すブロックによるシステム構成とそれらの関係を示す図である。図1において、1は3次元位置測定装置、2は行動判定装置、3は語学学習処理装置、4は音声化処理装置、6は第1の超音波受信機、7は第2の超音波受信機、8は第3の超音波受信機、9は3次元位置測定部、10は動き・行動データベース、13は学習レベル設定部、14は語学学習用例文形成部、15は辞書検索部、16は特定言語翻訳部、17はレベル設定指示部、18は行動・例文データベース、19は語学辞書データベース、20は学習言語選択指示部、21はスピーカである。
【0023】
全体のシステム構成としては、居室内の複数箇所に設置した超音波受信機6,7,8および当該超音波受信機の受信信号により3次元位置を測定する3次元位置測定部9から構成される3次元位置測定装置1、学習者が手に持つ器具または学習者の身体の一部(手などの身体の所定部位)について測定した3次元位置の動きから学習者の行動を判定する行動判定装置2、行動の判定に応じて例文を生成して出力する語学学習処理装置3、例文を発話するための音声化処理装置4とから構成されているシステムである。
【0024】
3次元位置測定装置1は、例えば、図2に示すように、居室内の例えば天井の複数箇所に設置した超音波受信機6,7,8と、この超音波受信機6,7,8の受信信号により3次元位置を測定する3次元位置測定部9とから構成される。ここでの超音波受信機6,7,8において受信される信号は、学習者が手に持つ器具または学習者の身体の一部に貼り付けられた信号発信器30から発信される信号である。後述するように、信号発信器(30,31,32)が複数個設けられる場合には、それぞれの信号発信器が発信する超音波周波数を異ならせて区別するか、または、発信する信号に識別情報を含ませてそれぞれを区別する。この信号発信器が発信する信号が共に3つの超音波受信機6,7,8により受信されることにより、例えば、その受信信号の位相差から3次元位置が測定される。この3次元位置の測定は、所定の時間間隔(例えば、1秒間に50回程度)で行われ、これの3次元位置の変化を連続して測定することにより、3次元位置の一連の動き(3次元座標値の時系列データ)が測定される。
【0025】
図2に示すように、例えば、学習者5がテーブルにおかれたカップを持ち上げる行動を起こすと、そのカップに貼り付けられた信号発信器30から発信された信号が、共に超音波受信機6,7,8により受信されて3次元位置測定部9において信号処理されて、測定された3次元位置の一連の動き(3次元位置の時系列データ)が、行動判定装置2に入力される。行動判定装置2は、3次元位置測定部9から連続して所定時間毎に入力される3次元位置の時系列データから、カップの動きを判定し、例えば、学習者5がテーブルにおかれたカップを持ち上げる行動を起こしたことを判定する。
【0026】
すなわち、図7に示すように、居室内に置かれているテーブルの表面の3次元空間の座標値が予め登録されており、このテーブルの3次元空間の表面位置の空間領域(座標値)から離れて、カップの位置(座標値)がその上の空間位置の領域に入ったことを判定して、学習者5がテーブルにおかれたカップを持ち上げる行動を起こしたことを判定する。また、このとき、例えば、図3に示すように、学習者5の手首(手の指)に付けられた信号発信器31からの信号を受信していれば、その手首の3次元位置が、カップの3次元位置に近づき、手首の3次元位置とカップの3次元位置とが共に同じ空間領域に入ったことを判定することにより、更に精度良く、学習者5がテーブルにおかれたカップを持ち上げる行動を起こしたことを判定できる。ここでの行動判定装置2による学習者の行動の判定処理は、後述するように、動きと行動とを3次元空間位置のデータ(座標値)に基づいて、それぞれに対応づけたデータが動き・行動データベース10に格納されているので、このデータを参照して行う(図8)。
【0027】
このように判定された行動の判定結果は判定識別符号を付与して、行動判定装置2から出力されて、語学学習処理装置3に入力される。例えば、学習者の行動が、歩いている、座っている、何かを指している、何かを持っている等の行動が、学習者が手に持つ器具(例えばカップ)または学習者の身体の一部(手首)の3次元位置の動きの時系列データから、それぞれの行動パターンとして、判定される。
【0028】
行動判定装置2の処理によって、学習者の行動が行動パターンとして、判定されると、語学学習処理装置3において、それらの行動パターンに対応して、学習者の行動および関連する物体(器具)に関連する例文に関して、語学学習用の言葉を出力する処理を行う。語学学習処理装置3は、図示する実施例では、主要機能部として、学習レベル設定部13、語学学習用例文形成部14、辞書検索部15、特定言語翻訳部16を備えている。
【0029】
学習レベル設定部13は、この装置の外部に設けた学習レベル設定操作部17を操作することにより、この語学学習処理装置3を利用する学習者の学習レベルに合わせて設定を行う。行動判定装置2において、学習者5の行動パターンの判定が同じであっても、出力する語学学習用の例文の形態は、その学習者のレベルに合わせて変化させることができるようにしている。その結果、例えば、図2に示すように、学習者5がテーブルの上のコーヒーカップを持ち上げたことを判定すると、語学学習装置3において、学習レベルが初心者レベルに設定されている場合には、後に述べるような処理を行うことにより、例えば、最終的に「これはカップです。」「あなたはカップを見ています。」のような言葉を英語、フランス語等の学習する所定の言語で発声し、また、中級レベルに設定されている場合には「あなたは椅子に座ってテーブルの上のカップを持ち上げています。」のような比較的複雑な例文を発声するようにしている。
【0030】
語学学習用例文形成部14においては、語学学習処理装置3に入力された行動判定装置2からの判定結果の行動パターンを元に、また、学習レベル設定部13で設定された学習レベルに合わせて、出力すべき例文を形成する。その例文の形成に際しては、図9に示すように、行動・例文データベース18において予め学習レベル別に蓄積された種々の例文を用い、これを検索して、前記のようなレベルに合わせた例文を読み出すことにより行う。
【0031】
出力するべき例文が決まった後は、特定言語翻訳部16において、学習言語選択指示部20で指示された学習する対象の言語である英語、フランス語等の特定の言語への翻訳を行う。この翻訳に際しては、語学学習用例文形成部14で形成された例文について、しかも、学習言語選択指示部20で指示された言語について、語学辞書データベース19に蓄積されたデータを辞書検索部15において検索しながら行う。以上のようにして、翻訳された例文は音声化処理装置4において音声に変換され、スピーカ21から出力される。
【0032】
このような一連の処理により、例えば、図2の例に対応して説明すると、図1の右側列に語学学習処理の例として図示しているようなプロセスに従い処理が進行する。学習者5がテーブルの上のコーヒーカップを手に取るような行動を起こしたとき、学習者5の行動を、複数の信号受信機(6,7,8)および3次元位置測定部9から構成される3次元位置測定装置1により、3次元位置座標値の時系列データとして検出し、行動判定装置2において動き・行動データベース10に格納されたデータを参照して、学習者5の動きから、その行動を判定して、行動パターンを出力する。
【0033】
次いで、出力された行動パターンに基づいて、語学学習処理装置3において学習レベルに合わせて蓄積されている行動や物体(器具)の例文を探し、これを所定の言語に翻訳する。次いで、音声化処理装置4で処理した音声を、スピーカ21から、例えば、「This is a cup. You are looking at a cup.」と出力する。これにより、学習者は自分が現在行った行動に対する英語を実感をもって、例文を聞き取り理解することができ、学習効果を向上することができる。また、上記実施例においては、多くの国の言語の辞書を予め用意することにより、同じ装置を用いて希望の言語の学習を行うことができる。
【0034】
このような語学学習装置を用いることにより、図2に示す例の他、例えば、図3に示すように、学習者5が椅子に座っているときについても、この学習者の行動を、複数の信号受信機(6,7,8)および3次元位置測定部9から構成される3次元位置測定装置1により3次元位置座標値の時系列データ(動き)として検出し、行動判定装置2において動き・行動データベース10に格納されたデータを参照して、学習者5の動きから、その行動パターンを判定する。
【0035】
語学学習装置3が初心者レベルであって、かつ学習言語が英語に設定されているとき、「You sat down on the seat!」とスピーカ21から自動的に発声する。また、図4に示すように、学習者5が歩いていること(行動パターン)を、3次元位置の時系列データ(座標値)により判定できたときには、「You are walking!」と発声する。また、図5に示すように、学習者5がテレビのリモコンを持って、スイッチを入れたことを判定した場合(図示しないが、テレビの電源が入ったことを別途に設けたセンサにより検知するようにしておく)には、「You turned on the television!」と発声することができる。更に、図6に示すように学習者がベッドに移動した行動を判定したときには、「You went to bed!」と発声する。このような行動パターンの判定は、ベッドの空間位置が3次元座標値として予め登録されており、学習者5の身体の一部の3次元位置の座標値が、ベッドに近づいたことを判定することにより行われる。
【0036】
また、行動判定装置2において、学習者の行動が、しばらくの間、停止したような状態を判定すると、更に必要に応じて、再度発音し、更に必要に応じて、同様の行動をとったときには学習者が日本人である場合には日本語等、学習者の母国語で発音するようにすることもできる。また、例えば、学習者が語学学習装置を操作して(例えばリモコンを操作して)、先の言葉が理解できなかった旨の入力を行ったときも、前記と同様の再発音、母国語での発音等を何回も行わせることも可能である。
【0037】
また、このように学習者が理解できないような行動をとり、あるいはその旨の入力が行われたときには、学習者が、このような言葉を理解しにくい傾向があるとして、この言葉をメモリに登録し、その後、同じような行動がとられたときには、この登録されている言葉を優先的に出力する等、効率的な学習を行わせるようにすることができる。更に、必要に応じて、スピーカから出力している言葉を、別に設けた表示装置に表示するように構成することもできる。
【0038】
なお、図1に示す実施例において、語学学習処理装置3には複数の言語の語学辞書データベース19を備え、学習言語選択指示部20で選択した特定の言語に翻訳を行う例を示したが、例えば、この語学学習装置を英語の学習専用とする際には、語学辞書データベース19には英語の辞書データベースのみを備え、学習言語選択指示部20を除くこともできる。
【0039】
また、行動判定装置2としては、学習者が手に持つ器具に貼り付けられた信号発信器と居室内に置かれた信号受信機のと組み合わせ、または、学習者が手に持つ器具の信号受信機と居室内に置かれた信号発信機との組み合わせにより、これらの組み合わせによる信号の送受信の処理によって、器具の空間位置の動きを検出するものであってもよく、その場合の器具の空間位置の動きに対応して学習者の行動が判定できるものであってもよい。
【0040】
具体的には、行動判定装置2は、超音波式、磁気式、光学式等の三次元位置計測装置や、加速度センサなどの動きの検出を行う装置、スイッチ、接触センサ、ICタグなど位置の変化が検出できる装置を用いることにより、学習者の身体の動きや器具の空間位置の動きや、その変化を検出するものであってもよい。つまり、この場合、学習者の身体や器具の空間位置の動きや変化に対応して学習者の行動を判定できるものであればよい。
【0041】
上述した実施例の説明では、行動判定装置2は、3次元位置測定装置1による空間位置を測定するものとしたが、これに替えて、学習者の身体に取り付けられた信号発信器または学習者の身体に取り付けられた信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信によって、学習者の身体の空間位置の動きを検出するものであってもよい。その場合には、行動判定装置2が、学習者の身体の空間位置の動きに対応して学習者の行動を判定する。
【0042】
また、行動判定装置2として、超音波送受信機による空間位置(3次元位置)の測定に替えて、モーションキャプチャーシステムを利用すると、学習者が手に持つ器具または学習者の身体について3次元位置測定を行い、学習者が手に持つ器具または学習者の身体の空間位置の動きを検出できる。そのため、検出した学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0043】
また、前述したように、超音波式、磁気式、光学式等の三次元位置計測装置や、加速度センサなどの動きの検出を行う装置、スイッチ、接触センサ、ICタグなど位置の変化が検出できる装置を用い、これらを学習者が手に持つ器具または学習者に身体に取り付けて、居室内の天井、壁面等に設けられた受信装置または送信装置により信号を検出することで、また、それらの間で信号の送受信の処理を行うことにより、学習者が手に持つ器具および学習者の身体の空間位置の動きを検出し、検出した学習者が手に持つ器具および学習者の身体の空間位置の動きに対応して学習者の行動を判定するものとすることもできる。これにより、高い精度で学習者の行動を判定できる。
【0044】
行動判定装置2は、学習者が手に持つ器具または学習者の身体に貼り付けられた信号発信機または信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信に利用して、学習者の動きを判定するようにして良い。その場合には、学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動が判定できる。
【0045】
また、行動判定装置2は、学習者が操作する器具に取り付けられた信号発信器から発信された信号を居室内の複数箇所で受信する受信機により受信した信号によって、前記器具の空間位置の動きを検出するものとし、器具の空間位置の動きに対応して学習者の行動を判定するものとしてもよい。このように、行動判定装置2は、様々に変形することが可能である。
【0046】
【発明の効果】
本発明は上記のように構成したので、学習者の行動を判定してその行動に関連する言葉を発声し、先生等の他の人の力を借りることなく、いつでも学習者が身体で直接言葉を理解することができ効果的な語学学習を行うことができる。
【図面の簡単な説明】
【図1】本発明による発話型語学学習装置の主要機能を示すブロックによるシステム構成とそれらの関係を示す図である。
【図2】本発明による語学学習装置を用いた学習の態様を示す概要図である。
【図3】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図4】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図5】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図6】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図7】本発明による行動判定装置の動作を概略的に説明する図である。
【図8】本発明による行動判定装置の動き・行動データベースの具体例を説明する図である。
【図9】本発明による語学学習装置の行動・例文データベースの具体例を説明する図である。
【符号の説明】
1…3次元位置測定装置、
2…行動判定装置、
3…語学学習処理装置、
4…音声化処理装置、
5…学習者
6…第1の超音波受信機、
7…第2の超音波受信機、
8…第3の超音波受信機、
9…3次元位置測定部、
10…動き・行動データベース、
13…学習レベル設定部、
14…語学学習用例文形成部、
15…辞書検索部、
16…特定言語翻訳部、
17…レベル設定指示部、
18…行動・例文データベース、
19…語学辞書データベース、
20…学習言語選択指示部、
21…スピーカ
30,31,32…信号発信器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an utterance type language learning device that can determine an action from a learner's movement in a room, utter an expression (example sentence) corresponding to the action in a specific language, and perform language learning. About.
[0002]
[Prior art]
For example, various methods are conventionally used for language learning, such as when a Japanese learns conversations in other languages such as English. More specifically, the language learning text is divided into multiple levels from beginners to advanced students, and at each level, the names of various articles are listed for the language to be learned, walking, sitting, Examples of various behavioral aspects such as sleeping, etc., classifying various scenes in life such as listening to the road, shopping, riding on vehicles, etc., and illustrating typical words used in the scenes, Furthermore, various example sentences are shown.
[0003]
Moreover, in learning these conversations, in addition to the above text, a teacher's voice is recorded on a cassette tape, and learning is performed along the text while listening to it. In addition, students are taught along the teacher's curriculum while facing the teacher like an English conversation school.
[0004]
[Problems to be solved by the invention]
Each of the various language learning methods described above can be carried out according to some text and curriculum, and while systematic learning is possible, the language is used by learners, especially in conversational learning. It is necessary to learn while imagining the situation, and for those who learn, imagination is required in addition to language learning ability. For this reason, the learning effect differs depending on the difference in the learner's social experience and imagination. In particular, the range of imagination is narrow because children do not have much experience, and appropriate learning is not possible with such learning methods. Often not done.
[0005]
In addition, there is also a method in which a means for supplementing a learner's imagination using video is used, such as a learning method performed by exemplifying a situation where the words are actually used on a television or a video tape. However, because it is not the state that the learner is actually experiencing, it is not always possible to feel the words with the body, and in this case, too, learning must be done while imagining that you are on the spot In addition, since only predetermined words according to the text as described above are used, it is not possible to know words of various modes according to the situation, and there is a limit to such a learning method. .
[0006]
In addition, when learning English conversation while talking with a teacher, you should learn as close as possible to the state in which the language is used by forming a scene where the English is used with the teacher. Is done. However, even this method does not necessarily match the actual scene, and it must be learned while imagining that it is in such a scene. Moreover, since such a learning method requires a teacher who forms the scene, the learner has no choice but to go to the school where the teacher is located or have the teacher come to the school. Therefore, this learning takes a lot of time or costs a lot.
[0007]
The present invention has been made in order to solve such problems, and the object of the present invention is to allow the learner to speak directly with his / her own actions at any time without the help of others such as teachers. It is an object to provide an utterance type language learning device that can learn and perform effective language learning.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an utterance type language learning device according to the present invention has, as a basic configuration, an action determination device that detects a learner's body movement in a living room and determines the learner's behavior; A language learning processing device that outputs language learning data related to a learner's behavior based on the behavior determined by the behavior determination device, and a speech processing device that utters the output data of the language learning processing device. Get .
[0009]
this In the utterance type language learning device, the behavior determination device performs three-dimensional position measurement on an instrument held by the learner or a learner's body (a specific part or a plurality of places such as a hand), The movement of the spatial position of the learner's body is detected, and the behavior of the learner is determined in accordance with the movement of the device held by the learner or the spatial position of the learner's body. For example, a motion capture system that captures movement using a light reflector attached to a part of the learner's body can be used.
[0010]
Further, the behavior determination device here performs three-dimensional position measurement by a signal from a signal transmitter attached to the instrument operated by the learner, detects the movement of the spatial position of the instrument operated by the learner, It is good also as what judges a learner's action corresponding to the motion of the spatial position of the appliance which the learner who detected detects.
[0011]
Similarly, the behavior determination device performs three-dimensional position measurement on a predetermined part of the learner's body, detects a movement of the spatial position of the predetermined part, and detects the movement of the spatial position of the predetermined part of the learner. Correspondingly, the learner's behavior may be determined.
[0012]
In addition, the behavior determination device Characteristically, Transmitting and receiving signals with signal transmitters attached to instruments held by learners or signal receivers attached to instruments held by learners, and signal transmitters or receivers placed in living rooms Thus, the movement of the spatial position of the appliance is detected, and the behavior of the learner is determined in response to the movement of the spatial location of the appliance.
[0013]
In addition, the behavior determination device performs a three-dimensional position measurement on the instrument held by the learner or the learner's body, detects a movement of a spatial position of the instrument held by the learner or the learner's body, and the detection The learner can also be configured to determine the learner's behavior in response to the movement of the instrument held by the learner or the spatial position of the learner's body.
[0014]
Also, this In the utterance type language learning device, the behavior determination device uses the signal received by the receiver that receives the signal transmitted from the signal transmitter attached to the instrument operated by the learner at a plurality of locations in the room, of the instrument. The movement of the spatial position is detected, and the behavior of the learner can be determined in response to the movement of the spatial position of the appliance.
[0015]
this In the utterance type language learning device, the behavior determination device uses the signal received by the receiver that receives the signal transmitted from the signal transmitter attached to the learner's body at a plurality of locations in the room, to determine the body of the learner. The movement of the spatial position of the learner is detected, and the behavior of the learner can be determined in response to the movement of the spatial position of the learner's body.
[0016]
Another feature is that In the utterance type language learning device of the present invention, the behavior determination device is attached to the first signal transmitted from the first signal transmitter attached to the learner's body and the instrument held by the learner. The movement of the spatial position of the learner's body and instrument is detected by a signal received by a receiver that receives the second signal transmitted from the second signal transmitter at a plurality of locations in the room. Yes, the learner's behavior can be determined in accordance with the movement of the learner's body and the spatial position of the appliance.
[0017]
this In the utterance type language learning device, the language learning processing device includes a learning level setting unit for setting the learning level of the learner, Based on the behavior pattern of the determination result from the behavior determination device, according to the learning level set in the learning level setting unit, the example sentence stored in advance in each learning level in the behavior / example sentence database is searched to obtain the learning level. Output combined example sentences as language learning data Can be.
[0018]
this In the utterance type language learning device, the language learning processing device includes a language dictionary of a plurality of languages and a learning language selection instruction unit, Based on the behavior pattern of the determination result from the behavior determination device, search the stored example sentence in the action / example sentence database, and translate the searched example sentence into the language to be learned instructed by the learning language selection instruction unit As language learning data based on the language dictionary Can be output.
[0019]
Also, this In the utterance type language learning device, the behavior determination device is A state in which the spatial position of the instrument is the same for a predetermined time The language learning processing device Output the same learning data as the language learning data output immediately before Can be.
[0020]
Also, this In the utterance type language learning device, the behavior determination device is A state in which the spatial position of the instrument is the same for a predetermined time The language learning processing device Based on the language dictionary, the language example data of the language output data output immediately before is translated into the language of the native language set in advance according to the learner. Can be output.
[0021]
Also, this In the utterance type language learning device, the behavior determination device is A state in which the spatial position of the instrument is the same for a predetermined time The language learning processing device Example sentences of language learning data output just before Can be registered.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a system configuration of a block showing the main functions of an utterance type language learning apparatus according to the present invention and their relationship. In FIG. 1, 1 is a three-dimensional position measurement device, 2 is a behavior determination device, 3 is a language learning processing device, 4 is a speech processing device, 6 is a first ultrasonic receiver, and 7 is a second ultrasonic reception. , 8 is a third ultrasonic receiver, 9 is a three-dimensional position measurement unit, 10 is a movement / behavior database, 13 is a learning level setting unit, 14 is an example sentence formation unit for language learning, 15 is a dictionary search unit, 16 Is a specific language translation unit, 17 is a level setting instruction unit, 18 is an action / example sentence database, 19 is a language dictionary database, 20 is a learning language selection instruction unit, and 21 is a speaker.
[0023]
The overall system configuration includes
[0024]
For example, as shown in FIG. 2, the three-dimensional
[0025]
As shown in FIG. 2, for example, when the
[0026]
That is, as shown in FIG. 7, the coordinate values of the three-dimensional space of the surface of the table placed in the room are registered in advance, and the space area (coordinate values) of the surface position of the three-dimensional space of this table is registered. It is determined that the position (coordinate value) of the cup has entered the region of the spatial position above it, and it is determined that the
[0027]
The action determination result thus determined is assigned a determination identification code, is output from the
[0028]
When the behavior of the learner is determined as a behavior pattern by the processing of the
[0029]
The learning
[0030]
In the language learning example
[0031]
After the example sentence to be output is determined, the specific language translation unit 16 performs translation into a specific language such as English or French, which is the language to be learned, instructed by the learning language
[0032]
By describing such a series of processes, for example, corresponding to the example of FIG. 2, the process proceeds according to a process as illustrated as an example of the language learning process in the right column of FIG. When the
[0033]
Next, based on the output action pattern, the language
[0034]
By using such a language learning device, in addition to the example shown in FIG. 2, for example, as shown in FIG. 3, even when the
[0035]
When the
[0036]
Further, in the
[0037]
In addition, when such an action is taken that the learner cannot understand, or when an input to that effect is made, the learner tends to have difficulty in understanding such a word, and this word is registered in the memory. After that, when the same action is taken, efficient learning can be performed such as preferentially outputting the registered words. Furthermore, if necessary, the words output from the speakers can be displayed on a separate display device.
[0038]
In the embodiment shown in FIG. 1, the language
[0039]
In addition, as the
[0040]
Specifically, the
[0041]
In the description of the above-described embodiment, the
[0042]
In addition, when the motion capture system is used instead of the measurement of the spatial position (three-dimensional position) by the ultrasonic transmitter / receiver as the
[0043]
In addition, as described above, it is possible to detect a change in position such as a three-dimensional position measuring device such as an ultrasonic type, a magnetic type, or an optical type, a device that detects a motion such as an acceleration sensor, a switch, a contact sensor, or an IC tag. By using these devices, attaching them to the body of the learner's hand or the learner, and detecting signals with the receiving device or transmitting device provided on the ceiling, wall surface, etc. of the living room, Detects movements of the learner's hand and the spatial position of the learner's body by performing signal transmission / reception processing between them, and the detected learner's hand and the learner's body spatial position It is also possible to determine the learner's behavior in response to the movement of. Thereby, a learner's action can be determined with high precision.
[0044]
The
[0045]
In addition, the
[0046]
【The invention's effect】
Since the present invention is configured as described above, the learner's behavior is determined, the words related to the behavior are uttered, and the learner can directly speak directly on the body without the help of other people such as a teacher. Can understand effective language learning.
[Brief description of the drawings]
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a diagram showing a system configuration by a block showing the main functions of an utterance type language learning apparatus according to the present invention and their relationship.
FIG. 2 is a schematic diagram showing a learning mode using a language learning device according to the present invention.
FIG. 3 is a schematic diagram showing another aspect of learning using the language learning device according to the present invention.
FIG. 4 is a schematic diagram showing another aspect of learning using the language learning device according to the present invention.
FIG. 5 is a schematic diagram showing another mode of learning using the language learning device according to the present invention.
FIG. 6 is a schematic diagram showing another mode of learning using the language learning device according to the present invention.
FIG. 7 is a diagram schematically illustrating the operation of the behavior determination device according to the present invention.
FIG. 8 is a diagram for explaining a specific example of a motion / behavior database of the behavior determination apparatus according to the present invention.
FIG. 9 is a diagram illustrating a specific example of an action / example sentence database of the language learning device according to the present invention.
[Explanation of symbols]
1 ... 3D position measuring device,
2 ... Action determination device,
3. Language learning processing device,
4 ... voice processing device,
5 ... Learner
6 ... first ultrasonic receiver,
7: Second ultrasonic receiver,
8 ... Third ultrasonic receiver,
9 ... 3D position measurement unit,
10 ... Movement / Behavior Database,
13 ... Learning level setting section,
14 ... Language learning example sentence formation part,
15 ... Dictionary search section,
16 ... specific language translation department,
17 ... Level setting instruction section,
18 ... Behavior / Example sentence database,
19 ... Language dictionary database,
20 ... Learning language selection instruction section,
21 ... Speaker
30, 31, 32 ... Signal transmitter
Claims (7)
前記行動判定装置により判定された行動により、学習者の行動と関連した語学学習用データを出力する語学学習処理装置と、
前記語学学習処理装置の語学学習用データを音声化する音声化処理装置と
を備える発話型語学学習装置であって、
前記行動判定装置は、学習者が手に持つ器具に貼り付けられた信号発信器または学習者が手に持つ器具に貼り付けられた信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信によって、前記器具の空間位置の動きを検出するものであり、前記器具の空間位置の動きに対応して学習者の行動を判定する
ことを特徴とする発話型語学学習装置。An action determination device for detecting the movement of the learner's body in the room and determining the learner's action;
A language learning processing device that outputs language learning data related to a learner's behavior according to the behavior determined by the behavior determination device;
An utterance type language learning device comprising: a speech processing device that synthesizes language learning data of the language learning processing device;
The behavior determination device includes a signal transmitter attached to an instrument held by a learner or a signal receiver attached to an instrument held by a learner, and a signal transmitter or signal placed in a living room. An utterance type language learning apparatus for detecting movement of a spatial position of the appliance by transmitting and receiving a signal by a receiver, and determining a learner's action corresponding to the movement of the spatial position of the appliance. .
前記行動判定装置により判定された行動により、学習者の行動と関連した語学学習用データを出力する語学学習処理装置と、
前記語学学習処理装置の語学学習用データを音声化する音声化処理装置と
を備える発話型語学学習装置であって、
前記行動判定装置は、学習者の身体に取り付けられた第1の信号発信器から発信された第1の信号と、学習者が手に持つ器具に貼り付けられた第2の信号発信器から発信された第2の信号とを居室内の複数箇所で受信する受信機により受信した信号によって、前記学習者の身体および器具の空間位置の動きを検出するものであり、前記学習者の身体および器具の空間位置の動きに対応して学習者の行動を判定するものである
ことを特徴とする請求項1記載の発話型語学学習装置。An action determination device for detecting the movement of the learner's body in the room and determining the learner's action;
A language learning processing device that outputs language learning data related to a learner's behavior according to the behavior determined by the behavior determination device;
An utterance type language learning device comprising: a speech processing device that synthesizes language learning data of the language learning processing device;
The behavior determination device transmits a first signal transmitted from a first signal transmitter attached to a learner's body and a second signal transmitter attached to an instrument held by the learner. The movement of spatial positions of the learner's body and equipment is detected by signals received by receivers that receive the second signal thus obtained at a plurality of locations in the room, and the learner's body and equipment The utterance type language learning device according to claim 1, wherein the behavior of the learner is determined in accordance with the movement of the spatial position.
前記行動判定装置からの判定結果の行動パターンを元に、前記学習レベル設定部で設定された学習レベルに合わせて、行動・例文データベースにおいて予め学習レベル別に蓄積された例文を検索して、学習レベルに合わせた例文を、語学学習用データとして出力することを特徴とする請求項1または請求項2記載の発話型語学学習装置。The language learning processing device includes a learning level setting unit for setting a learner's learning level,
Based on the behavior pattern of the determination result from the behavior determination device, according to the learning level set by the learning level setting unit, searches for an example sentence stored in advance in the behavior / example sentence database for each learning level, The utterance type language learning apparatus according to claim 1, wherein an example sentence adapted to is output as language learning data.
前記行動判定装置からの判定結果の行動パターンを元に、行動・例文データベースにおいて蓄積された例文を検索し、検索された例文を、前記学習言語選択指示部で指示された学習する対象の言語への翻訳を前記語学辞書に基づいて行い、語学学習用データとして出力する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。The language learning processing device includes a language dictionary of a plurality of languages and a learning language selection instruction unit,
Based on the action pattern of the determination result from the action determination device, the stored example sentence is searched in the action / example sentence database, and the searched example sentence is designated as the language to be learned instructed by the learning language selection instruction unit. The utterance type language learning apparatus according to claim 1, wherein the translation is performed based on the language dictionary and output as language learning data.
前記語学学習処理装置は、直前に出力した語学学習用データと同じ学習用データを出力する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。When the behavior determination device determines a state in which the spatial position of the appliance is the same position for a predetermined time,
The utterance type language learning device according to claim 1, wherein the language learning processing device outputs the same learning data as the language learning data output immediately before.
前記語学学習処理装置は、直前に出力した語学学習用データの例文を学習者に応じて予め設定された母国語の言語への翻訳を語学辞書に基づいて行い、語学学習用データとして出力する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。When the behavior determination device determines a state in which the spatial position of the appliance is the same position for a predetermined time,
The language learning processing device translates an example sentence of the language learning data output immediately before according to a learner into a native language set in advance based on a language dictionary, and outputs it as language learning data The utterance type language learning apparatus according to claim 1, wherein:
前記語学学習処理装置は、直前に出力した語学学習用データの例文を登録する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。When the behavior determination device determines a state in which the spatial position of the appliance is the same position for a predetermined time,
3. The utterance type language learning device according to claim 1, wherein the language learning processing device registers an example sentence of language learning data output immediately before.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002206318A JP3956115B2 (en) | 2002-07-15 | 2002-07-15 | Utterance language learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002206318A JP3956115B2 (en) | 2002-07-15 | 2002-07-15 | Utterance language learning device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004046018A JP2004046018A (en) | 2004-02-12 |
JP3956115B2 true JP3956115B2 (en) | 2007-08-08 |
Family
ID=31711327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002206318A Expired - Lifetime JP3956115B2 (en) | 2002-07-15 | 2002-07-15 | Utterance language learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3956115B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346016A (en) * | 2004-06-07 | 2005-12-15 | Willway:Kk | Show-of-hand detector and show-of-hand detection system using the same |
JP6733027B1 (en) * | 2019-11-28 | 2020-07-29 | 株式会社ドワンゴ | Content control system, content control method, and content control program |
JP7078082B2 (en) * | 2020-09-09 | 2022-05-31 | カシオ計算機株式会社 | Learning support device, learning support system, learning support method, robot and program |
-
2002
- 2002-07-15 JP JP2002206318A patent/JP3956115B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004046018A (en) | 2004-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4839838B2 (en) | Information processing system, information processing method, and information processing program | |
US10438609B2 (en) | System and device for audio translation to tactile response | |
Fernandez-Lopez et al. | Towards estimating the upper bound of visual-speech recognition: The visual lip-reading feasibility database | |
KR102409303B1 (en) | Method and Apparatus for Voice Recognition | |
JP2018097185A (en) | Voice dialogue device, voice dialogue method, voice dialogue program and robot | |
JP6759445B2 (en) | Information processing equipment, information processing methods and computer programs | |
Arsan et al. | Sign language converter | |
Rosenblum et al. | Audiovisual investigation of the loudness-effort effect for speech and nonspeech events. | |
Kulkarni et al. | Robotic assistance in indoor navigation for people who are blind | |
TWI795663B (en) | personal assistant control system | |
JP2014071319A (en) | Railroad simulator and method for simulating driving of railroad | |
JPWO2019123775A1 (en) | Information processing equipment, information processing systems, information processing methods, and programs | |
Dhanjal et al. | Tools and techniques of assistive technology for hearing impaired people | |
JP3956115B2 (en) | Utterance language learning device | |
Youssef et al. | A social robot with conversational capabilities for visitor reception: Design and framework | |
Ahmetovic et al. | Sonification of navigation instructions for people with visual impairment | |
KR20180012192A (en) | Infant Learning Apparatus and Method Using The Same | |
KR20090000258A (en) | Target education system and education method thereof | |
JP2002207413A (en) | Action recognizing speech type language learning device | |
US20020137013A1 (en) | Self-contained, voice activated, interactive, verbal articulate toy figure for teaching a child a chosen second language | |
KR20130135423A (en) | Learning materials for younger learners with voice record means of parent | |
KR20180134337A (en) | Information processing apparatus, information processing method, and program | |
JP6884854B2 (en) | Audio providing device, audio providing method and program | |
JP3891020B2 (en) | Robot equipment | |
JP2005024815A (en) | System, device, method, and program for language learning, and recording medium for recording the program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3956115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100518 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |